Jaki chatbot oparty o model LLM wybrać ?

Najwięksi gracze rynkowi oferują obecnie usługi dostępu do chatbotów opartych na dużych modelach językowych (LLM). Technologie te wykorzystują mechanizmy uczenia maszynowego oraz przetwarzania języka naturalnego (NLP), umożliwiając analizę danych wejściowych i generowanie trafnych odpowiedzi – w sposób zbliżony do naturalnej rozmowy międzyludzkiej. Aby zwiększyć swoją wydajność i kreatywność podjąłem decyzje o zakupie takiej usługi. Niestety po wstępnej analizie ofert doszedłem do wniosku, że sprawa nie jest prosta. Wręcz przeciwnie, bardzo złożona i wymaga głębokiej analizy ofert.

Wstępnie przyjąłem dwa podstawowe kryteria jakimi będę się kierował przy ocenie i ostatecznej decyzji. 

1. Kryterium ochrony danych osobowych i informacji chronionych.

OpenAI – ChatGPT

 

Krótkie cytaty z dokumentów zamieszczonych na stronach firmy OpenAI.

„Jak wspomniano powyżej, możemy wykorzystywać Treści, które nam dostarczasz, aby ulepszać nasze Usługi, na przykład w celu trenowania modeli, które zasilają ChatGPT. Zapoznaj się z naszymi instrukcjami(opens in a new window), aby dowiedzieć się, w jaki sposób możesz zrezygnować z wykorzystywania przez nas Twoich Treści do trenowania naszych modeli.”

„Możemy ujawnić Twoje Dane osobowe w następujących okolicznościach:

– dostawcom i usługodawcom,

– jeśli jesteśmy zaangażowani w transakcje strategiczne, przeprowadzamy reorganizację i, ogłosiliśmy upadłość, ustanowiliśmy zarząd komisaryczny lub przenosimy usługi do innego dostawcy (łącznie „Transakcja”), Twoje Dane osobowe mogą zostać ujawnione w procesie badania due diligence kontrahentom i innym osobom pomagającym w Transakcji i przekazane następcy prawnemu lub podmiotowi powiązanemu w ramach tej Transakcji wraz z innymi aktywami.

– władzom państwowym i innym osobom trzecim,

– podmiotom powiązanym,

– administratorom kont biznesowych,

– innym użytkownikom i osobom trzecim,”

Jak wskazano powyżej, ChatGPT i nasze inne usługi są rozwijane z wykorzystaniem: (1) informacji, które są publicznie dostępne w Internecie, (2) informacji, do których mamy dostęp dzięki współpracy z osobami trzecimi, oraz (3) informacji, które dostarczają lub generują nasi użytkownicy, trenerzy i badacze.

Zgodnie z postanowieniami warunków korzystania z produktów i usług dostawcy („Service Terms”[2] i „Terms of Use”[3]), dostawca ma prawo do wykorzystywania treści przetwarzanych w ramach udostępnianych użytkownikowi narzędzi na potrzeby utrzymania, rozwijania i ulepszania swoich technologii. Mowa tu nie tylko o danych wejściowych („Input”, czyli np. wprowadzanych do ChatGPT przez użytkownika treści w celu ich podsumowania i skrócenia), ale również o danych wyjściowych („Output”, czyli uzyskanego rezultatu – w tym przypadku podsumowania i skrócenia tekstu).

Należy mieć na uwadze, że wszelkie wprowadzone do ChatGPT dane przekazywane są do wykorzystania i przetwarzania przez dostawcę, posiadającego swoją siedzibę w USA, a zakres tego przetwarzania nie jest precyzyjnie określony. Dodatkowo, na podstawie warunków korzystania, dostawca ChatGPT nie podejmuje wobec użytkownika konkretnych zobowiązań do zachowania poufności wprowadzanych informacji.

Oznacza to, że wykorzystywanie ChatGPT w celach biznesowych, polegających na analizie wprowadzonych, poufnych danych, może doprowadzić do ujawnienia informacji prawnie chronionych (w tym tajemnicy przedsiębiorstwa czy innych tajemnic regulowanych szczególnymi przepisami prawa, jak np. tajemnica lekarska czy bankowa) i naruszenia w ten sposób zobowiązań umownych czy przepisów prawa.

Nie ulega wątpliwości, że wykorzystanie omawianego rozwiązania przez polskich czy europejskich użytkowników w zakresie obejmującym przetwarzanie danych osobowych będzie wprost podlegało regulacjom RODO, a zatem powinno być dokonywane zgodnie z zasadami określonymi w przepisach. Co więcej, przy takim korzystaniu z ChatGPT potencjalnie może dochodzić do przekazania danych osobowych poza obszar EOG.

Zgodnie z warunkami używania produktów i usług OpenAI, w zakresie prawnie dozwolonym OpenAI przenosi na użytkownika wszelkie prawa do wszystkich treści wygenerowanych przy użyciu oferowanych narzędzi, zatem również wytworzonych przez ChatGPT („OpenAI hereby assigns to you all its right, title and interest in and to Output”). Dostawca zastrzega sobie przy tym prawo wykorzystywania tych treści w zakresie niezbędnym do świadczenia i utrzymania swoich usług, a także przestrzegania prawa i wewnętrznych regulacji („OpenAI may use Content as necessary to provide and maintain the Services, comply with applicable law, and enforce our policies”).

Dostawca ChatGPT stoi na stanowisku, zgodnie z którym prawa do generowanych treści w pierwszej kolejności przysługują właśnie jemu, a następnie przenosi on je w maksymalnym zakresie na użytkownika końcowego. Oczywiście w dalszym ciągu kwestia ta budzi poważne wątpliwości na gruncie powszechnie obowiązujących przepisów prawa, jak już wskazywaliśmy powyżej. W związku z czym do stanowiska dostawcy należy podchodzić z dużą ostrożnością.

Należy pamiętać, że nawet korzystne uregulowania zawarte w umowie z dostawcą ChatGPT nie będą stanowiły wystarczającej ochrony w przypadku uznania, że wygenerowane utwory naruszają prawa osób trzecich (np. twórców utworów, na których „uczył się” chat).

Microsoft 365 Copilot

 

Krótkie cytaty z dokumentów zamieszczonych na stronach firmy Microsoft.

 

Usługa Microsoft 365 Copilot jest zgodna z naszymi istniejącymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności z przepisami wobec klientów komercyjnych platformy Microsoft 365, w tym z Ogólnym rozporządzeniem o ochronie danych (RODO) i Geograficznym ograniczeniem przetwarzania danych z Unii Europejskiej (UE).

Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, w tym tych używanych przez usługę Microsoft 365 Copilot.

Microsoft 365 Copilot działa z wieloma zabezpieczeniami, które obejmują, ale nie są ograniczone do, blokowanie szkodliwych treściwykrywanie chronionych materiałów i blokowanie szybkich zastrzyków (ataki jailbreak).

Microsoft 365 Copilot Może generować odpowiedzi zakotwiczone w danych organizacyjnych, takich jak dokumenty użytkownika, wiadomości e-mail, kalendarz, czaty, spotkania i kontakty. Rozwiązanie Microsoft 365 Copilot łączy tę zawartość z kontekstem roboczym użytkownika, takim jak spotkanie, w którym użytkownik teraz uczestniczy, wymiana wiadomości e-mail na dany temat lub konwersacja na czacie, którą użytkownik prowadził w zeszłym tygodniu. Usługa Microsoft 365 Copilot wykorzystuje to połączenie zawartości i kontekstu, aby pomóc w dostarczaniu dokładnych, odpowiednich i kontekstowych odpowiedzi.

Usługa Microsoft 365 Copilot wyświetla tylko te dane organizacyjne, do których poszczególni użytkownicy mają co najmniej uprawnienia do wyświetlania. Ważne jest, aby używać modeli uprawnień dostępnych w usługach platformy Microsoft 365, takich jak SharePoint, aby zapewnić odpowiednim użytkownikom lub grupom odpowiedni dostęp do odpowiedniej zawartości w organizacji. Obejmuje to uprawnienia udzielane użytkownikom spoza organizacji za pośrednictwem rozwiązań do współpracy między dzierżawami

Rozwiązanie Microsoft 365 Copilot używa usług Azure OpenAI do przetwarzania, a nie publicznie dostępnych usług OpenAI. Usługa Azure OpenAI nie buforuje zawartości klienta.

Jeśli używasz wtyczek w celu ułatwienia funkcji Microsoft 365 Copilot dostarczania bardziej odpowiednich informacji, sprawdź oświadczenie o ochronie prywatności i warunki korzystania z wtyczki, aby określić, jak będzie ona obsługiwać dane organizacji.

W sekcji Aplikacje zintegrowane Centrum administracyjnego Microsoft 365 administratorzy mogą wyświetlić uprawnienia i dostęp do danych wymagane przez wtyczkę, a także warunki użytkowania wtyczki i oświadczenie o ochronie prywatności. Administratorzy mają pełną kontrolę nad wyborem wtyczek dozwolonych w ich organizacji. Użytkownik może uzyskać dostęp tylko do wtyczek, na które zezwala jego administrator i które użytkownik zainstalował lub do których został przypisany. Funkcja Microsoft 365 Copilot używa tylko wtyczek, które są włączone przez użytkownika.

Gdy użytkownik wchodzi w interakcję z funkcją Microsoft 365 Copilot (korzystając z aplikacji takich jak Word, PowerPoint, Excel, OneNote, Loop lub Whiteboard), przechowujemy dane dotyczące tych interakcji. Przechowywane dane obejmują monit użytkownika i odpowiedź funkcji Copilot, w tym cytaty do wszelkich informacji używanych do ugruntowania odpowiedzi funkcji Copilot. Określamy monit użytkownika i odpowiedź copilot na ten monit jako „zawartość interakcji”, a zapis tych interakcji jest historią działania Copilot użytkownika. Na przykład te przechowywane dane udostępniają użytkownikom historię aktywności copilot w Microsoft 365 Copilot Chat (wcześniej o nazwie Czat biznesowy) i spotkania w usłudze Microsoft Teams. Te dane są przetwarzane i przechowywane zgodnie ze zobowiązaniami umownymi wraz z inną zawartością organizacji na platformie Microsoft 365. Dane są szyfrowane, gdy są przechowywane i nie są używane do trenowania podstawowych modułów LLM, a w tym tych używanych przez funkcję Microsoft 365 Copilot.

Użytkownicy mogą usunąć swoją historię aktywności Copilot, która obejmuje monity i odpowiedzi zwracane przez copilot.

Geograficzne ograniczenie przetwarzania danych z UE

Wywołania funkcji Copilot platformy Microsoft 365 do LLM są kierowane do najbliższych centrów danych w regionie, ale mogą również nawiązywać połączenia z innymi regionami, w których pojemność jest dostępna w okresach wysokiego wykorzystania.

W przypadku użytkowników z Unii Europejskiej oferujemy dodatkowe zabezpieczenia w celu zapewnienia zgodności z Geograficznym ograniczeniem przetwarzania danych z UE. Ruch w UE podlega Geograficznemu ograniczeniu przetwarzania danych z UE, podczas gdy ruch na całym świecie może być wysyłany do UE i innych lokalizacji geograficznych na potrzeby przetwarzania przez duże modele językowe.

Miejsce przechowywania danych

Funkcja Microsoft 365 Copilot przestrzega zobowiązań dotyczących miejsca przechowywania danych, jak określono w Warunkach dotyczących produktów firmy Microsoft i Uzupełnienia o Ochronie Danych. Funkcja Microsoft 365 Copilot została dodana jako obciążenie objęte zobowiązaniami do przechowywania danych w Warunkach dotyczących produktów firmy Microsoft 1 marca 2024 r.

Oferty Microsoft Advanced Data Residency (ADR) i Multi-Geo Capabilities obejmują zobowiązania do przechowywania danych dla klientów funkcji Microsoft 365 Copilot od 1 marca 2024 r. W przypadku klientów z UE funkcja Microsoft 365 Copilot jest usługą Geograficznego ograniczenia przetwarzania danych z UE. Zapytania klientów spoza UE mogą być przetwarzane w Stanach Zjednoczonych, UE lub innych regionach.

Wykrywanie materiałów chronionych i prawa autorskie

Tak, funkcja Microsoft 365 Copilot zapewnia wykrywanie chronionych materiałów, w tym tekstu objętego prawami autorskimi i kodem podlegającym ograniczeniom licencjonowania. Nie wszystkie te ograniczenia ryzyka są istotne dla wszystkich scenariuszy funkcji Microsoft 365 Copilot.

Firma Microsoft nie rości sobie praw własności do wyników usługi. Mimo to nie ustalamy, czy wyniki klienta są chronione prawami autorskimi lub czy można je wymusić względem innych użytkowników. Wynika to z faktu, że generatywne systemy sztucznej inteligencji mogą generować podobne odpowiedzi na podobne polecenia lub zapytania od wielu klientów. W związku z tym wielu klientów może mieć lub rościć sobie prawa do zawartości, która jest taka sama lub w znacznym stopniu podobna.

Odpowiedzialność Microsoft

Microsoft 365 Copilot – Odpowiedzi generowane przez generującą sztuczną inteligencję mogą nie być w 100% faktyczne. Mimo że stale ulepszamy odpowiedzi, użytkownicy nadal powinni kierować się własną oceną, przeglądając dane wyjściowe przed wysłaniem ich do innych osób. 

Jeśli strona trzecia pozwie klienta komercyjnego o naruszenie praw autorskich za korzystanie z usług Copilot firmy Microsoft lub wygenerowane przez nie dane wyjściowe, będziemy bronić klienta i zapłacimy kwotę wszelkich niekorzystnych wyroków lub ugód wynikających z pozwu sądowego, o ile klient korzystał z zabezpieczeń i filtrów zawartości wbudowanych w nasze produkty.

 

2. Kryterium funkcjonalne

OpenAI – ChatGPT

 

Plany osobiste

Plany osobiste chatbota GPT,

Rysunek 1(Źródło: OpenAI)

Plany biznesowe

 Plan biznesowy ChatGpt

Rysunek 2(Źródło: OpenAI) 

Poniżej tabela funkcji COPILOT w zależności od wersji.

Zestawienie funkcji COPILOT

Rysunek 3(Źródło: Microsoft)

Porównanie: 

Cecha/Funkcja

Microsoft Copilot

Copilot Pro

Copilot Microsoft 365

Cena

Bezpłatny

98 złotych miesięcznie

30 dolarów miesięcznie

Dostępność

Online

Windows, macOS

Zintegrowany z Microsoft 365

Zaawansowane funkcje AI

Podstawowe

Rozszerzone limity na modelach AI, GPT-4 Turbo, Dall-E

Pełna integracja z Microsoft 365, automatyzacja zadań w Excel, PowerPoint, Teams i innymi

Bezpieczeństwo i prywatność

Podstawowe bezpieczeństwo danych, adekwatne dla użytkowników indywidualnych.

Ulepszone zabezpieczenia i większa prywatność danych niż w wersji bezpłatnej.

Najwyższe standardy bezpieczeństwa i prywatności z wersją komercyjną Microsoft 365, zapewniającą zaawansowaną ochronę danych i zgodność z przepisami. Idealne dla przedsiębiorstw wymagających kompleksowej ochrony danych.

Personalizacja

Ograniczona

Zaawansowana

Pełna personalizacja do środowiska organizacji

Zalecane

Użytkownicy, którzy chcą przetestować możliwości AI

Użytkownicy indywidualni poszukujący zaawansowanego wsparcia AI

NGO i firmy korzystające z Microsoft 365

Wymagania licencyjne

Brak (więcej funkcji po zalogowaniu)

Konto Microsoft (osobiste)

Microsoft 365 Business Standard, Microsoft 365 Business Premium, Microsoft 365 E3/E5, Office 365 E3/E5

Cena

bezpłatnie 

20 USD / miesięcznie / licencja

ok. 24 USD / miesięcznie / licencja

(Źródło: techsoup.pl)

Z powyższego wynika, że Microsoft ma bogatszą ofertę pod względem funkcjonalności oraz oferuje szerszą ochronę informacji i danych osobowych. Dodatkowo deklaruje zgodność z RODO.

Nie doszukałem się informacji żeby OpenAi gwarantowało przetwarzanie danych w Unii Europejskiej (UE) i zgodność z RODO co dyskwalifikuje to narzędzie pod względem ochrony danych osobowych. A nigdy nie wiesz czy pracownik przypadkiem nie zamieści pełnej wersji pisma z adresem i nazwiskami adresatów do analizy.

W mojej ocenie wykorzystywanie bezpłatnych wersji AI w środowiskach biznesowych oraz w szeroko rozumianej administracji publicznej powinno zostać zakazane. Główne zagrożenie stanowi brak gwarancji ochrony przetwarzanych informacji, a także ryzyko ich wykorzystania do trenowania modeli językowych, co może prowadzić do nieuprawnionego ujawnienia danych wrażliwych lub strategicznych.

 

Źródła:

  1. https://openai.com/pl-PL/policies/row-privacy-policy/
  2. https://help.openai.com/en/articles/9299542-jak-rozwijany-jest-chatgpt-i-nasze-modele-podstawowe
  3. https://www.traple.pl/chatgpt-w-praktyce-najwazniejsze-kwestie-prawne/#_ftn2
  4. https://learn.microsoft.com/pl-pl/copilot/microsoft-365/microsoft-365-copilot-privacy
  5. https://www.microsoft.com/pl-pl/ai/principles-and-approach
  6. https://www.techsoup.pl/blog/porównanie-microsoft-copilot-copilot-pro-copilot-microsoft-365-–-który-wybrać

Trello – niezbędne narzędzie do zwinnego zarządzania pracą zespołu

Trello to narzędzie, które może znacząco usprawnić zwinne zarządzanie pracą twojego zespołu. Dzięki intuicyjnym tablicom, listom i kartom, Trello pozwala na efektywne planowanie i śledzenie zadań. Wizualna organizacja pracy ułatwia zespołom przejście od pomysłu do realizacji.

Personalizacja i elastyczność

Możesz dostosować tablice Trello do specyfiki swojego zespołu. Dostępne są gotowe szablony dla różnych branż i potrzeb, co ułatwia szybkie rozpoczęcie pracy. Dzięki temu twój zespół może skupić się na realizacji zadań, zamiast tracić czas na konfigurację narzędzia.

Praktyczne funkcje

Trello oferuje funkcje, które wspierają codzienną pracę zespołu. Możesz przypisywać zadania konkretnym osobom, ustalać terminy, tworzyć listy kontrolne i oznaczać priorytety. Dzięki temu każdy członek zespołu wie, za co jest odpowiedzialny i jakie są oczekiwania.

Automatyzacja procesów

Narzędzie Butler w Trello pozwala na automatyzację powtarzalnych zadań. Możesz tworzyć reguły, które przyspieszą pracę i zredukują liczbę błędów. Na przykład, automatyczne przenoszenie kart do odpowiednich list po zakończeniu określonych działań.

Współpraca zdalna

W dobie pracy zdalnej, Trello staje się nieocenionym narzędziem. Umożliwia zespołom komunikację i współpracę niezależnie od miejsca, w którym się znajdują. Wszystkie informacje są dostępne w jednym miejscu, co eliminuje chaos komunikacyjny.

Integracje z innymi narzędziami

Trello integruje się z wieloma popularnymi aplikacjami, takimi jak Slack, Google Drive czy Jira. Dzięki temu możesz centralizować pracę zespołu i unikać przełączania się między różnymi platformami. To zwiększa efektywność i oszczędza czas.

Czy Trello jest dla ciebie?

Zastanów się, czy twój zespół potrzebuje narzędzia, które ułatwi organizację pracy i poprawi komunikację. Czy chcesz zwiększyć przejrzystość procesów i efektywność realizacji projektów? Jeśli tak, Trello może być odpowiedzią na te potrzeby.

Źródła:

Wyłącz SMBv1

Protokół Server Message Block (SMB) jest używany do udostępniania plików i usług wydruku między komputerami w sieci. Jednak wersja SMBv1 jest znana z krytycznych podatności, które mogą być wykorzystane przez złośliwe oprogramowanie. Dlatego zaleca się wyłączenie protokołu SMBv1 na wszystkich urządzeniach w sieci, aby zapewnić bezpieczeństwo sieci i chronić przed atakami.

Ryzyka związane z SMBv1:

  • WannaCry ransomware: W 2017 roku atak WannaCry wykorzystał luki w SMBv1, aby zaszyfrować pliki użytkowników i żądać okupu za ich odblokowanie.

  • Exploit „EternalBlue”: Pozwala na zdalne wykonanie kodu na komputerze docelowym, dając atakującemu pełną kontrolę nad zainfekowanym systemem.

Jak wyłączyć SMBv1:

Metoda 1

  1. Otwórz Edytor zasad grupy (Group Policy Editor).

  2. Przejdź do „Konfiguracja komputera” > „Szablony administracyjne” > „Windows.

  3. Znajdź i kliknij „SMB 1.0 (CIFS) File Sharing Support”.

  4. Wyłącz opcje „Włączanie klienta SMB 1.0/CIFS” i „Włączanie serwera SMB 1.0/CIFS”.

Metoda 2

W PowerShell z uprawnieniami administratora wpisz komendy

Sprawdzenie stanu SMBv1

Get-WindowsOptionalFeature -Online -FeatureName SMB1Protocol

Wyłącz SMBv1

Disable-WindowsOptionalFeature -Online -FeatureName SMB1Protocol

Włącz SMBv1

Enable-WindowsOptionalFeature -Online -FeatureName SMB1Protocol

Alternatywy dla SMBv1:

  • SMBv2 i SMBv3: Nowsze wersje protokołu SMB, które mają poprawione bezpieczeństwo i wydajność.

  • Regularne aktualizacje systemów operacyjnych: Ważne jest, aby regularnie aktualizować systemy operacyjne, aby chronić się przed nowymi zagrożeniami.

Podsumowanie: Wyłączenie protokołu SMBv1 jest kluczowe dla zapewnienia bezpieczeństwa sieci i ochrony przed atakami złośliwego oprogramowania. Zaleca się zastosowanie nowszych wersji SMB oraz regularne aktualizacje systemów operacyjnych.

UŻYWANE OPROGRAMOWANIE MICROSOFT, CZY LEGALNE?

Odsprzedaż używanych licencji oprogramowania, takich jak Windows i Microsoft Office, jest tematem budzącym liczne wątpliwości prawne. Kluczowe znaczenie mają w tym kontekście orzeczenia Trybunału Sprawiedliwości Unii Europejskiej (TSUE), które kształtują interpretację przepisów dotyczących wyczerpania praw autorskich w Unii Europejskiej.

Wyczerpanie prawa do dystrybucji

Zgodnie z dyrektywą 2009/24/WE, pierwsza sprzedaż na terytorium Unii Europejskiej kopii programu komputerowego przez uprawnionego lub za jego zgodą wyczerpuje prawo do dystrybucji tej kopii w Unii. Oznacza to, że nabywca oryginalnej kopii oprogramowania może ją odsprzedać bez zgody pierwotnego właściciela praw autorskich. TSUE w wyroku z 3 lipca 2012 r. w sprawie C-128/11 (UsedSoft GmbH przeciwko Oracle International Corp.) potwierdził, że wyczerpanie prawa do dystrybucji dotyczy zarówno kopii na nośnikach fizycznych, jak i pobranych z internetu.

Odsprzedaż oprogramowania wraz z komputerem

W przypadku odsprzedaży używanego oprogramowania Windows 11 wraz z komputerem, sytuacja zależy od rodzaju licencji. Jeśli oprogramowanie zostało nabyte na podstawie licencji OEM (Original Equipment Manufacturer), która jest przypisana do konkretnego urządzenia, odsprzedaż takiego oprogramowania razem z komputerem jest zgodna z prawem. Licencje OEM są zazwyczaj nieprzenoszalne na inne urządzenia, ale mogą być przekazywane wraz z oryginalnym sprzętem.

Sprzedaż licencji Windows z używanym komputerem

Sprzedaż licencji Windows razem z używanym markowym komputerem, takim jak Lenovo czy Dell, jest legalna, pod warunkiem że licencja jest zgodna z warunkami producenta. W przypadku licencji OEM, które są dostarczane z nowymi komputerami, odsprzedaż jest dozwolona tylko razem z oryginalnym sprzętem. Natomiast licencje typu Retail, które są niezależne od sprzętu, mogą być odsprzedawane oddzielnie, o ile nie naruszają postanowień umowy licencyjnej.

Kopie zapasowe a odsprzedaż

Warto podkreślić, że odsprzedaż kopii zapasowych oprogramowania jest zabroniona. TSUE w wyroku z 12 października 2016 r. w sprawie C-166/15 (Ranks i Vasiļevičs) stwierdził, że sprzedaż kopii zapasowych bez zgody właściciela praw autorskich stanowi naruszenie tych praw. Kopie zapasowe mogą być tworzone wyłącznie na własny użytek i nie mogą być przedmiotem obrotu handlowego.

Podsumowanie

Odsprzedaż używanych licencji oprogramowania, takich jak Windows i Microsoft Office, jest możliwa w świetle prawa unijnego, pod warunkiem spełnienia określonych warunków. Kluczowe jest, aby odsprzedaż dotyczyła oryginalnej kopii oprogramowania wraz z licencją, a nie kopii zapasowej. W przypadku licencji OEM, odsprzedaż jest dozwolona tylko razem z oryginalnym sprzętem, do którego licencja jest przypisana. Zaleca się dokładne zapoznanie się z warunkami licencji oraz ewentualne skonsultowanie się z prawnikiem specjalizującym się w prawie autorskim i licencjonowaniu oprogramowania, aby uniknąć potencjalnych naruszeń prawa.

CZY AI ACT OBOWIĄZUJE W POLSCE ?

Akt o sztucznej inteligencji (AI Act) to rozporządzenie Unii Europejskiej, które wprowadza kompleksowe ramy regulacyjne dla systemów sztucznej inteligencji na terenie UE. Jako rozporządzenie, AI Act obowiązuje bezpośrednio we wszystkich państwach członkowskich, w tym w Polsce, bez konieczności implementacji do prawa krajowego.

Harmonogram wdrażania AI Act:

  • 1 sierpnia 2024 r.: AI Act został opublikowany i wszedł w życie, rozpoczynając okresy przejściowe dla poszczególnych przepisów.

  • 2 lutego 2025 r.: Wejdą w życie przepisy zakazujące stosowania szczególnie niebezpiecznych systemów AI na terenie UE.

  • 1 sierpnia 2025 r.: Zaczną obowiązywać przepisy dotyczące nadzoru nad sztuczną inteligencją, w tym określenie organów nadzoru rynku i organów notyfikujących, a także regulacje dotyczące modeli AI ogólnego przeznaczenia oraz sankcji za naruszenia AI Act.

  • 1 sierpnia 2026 r.: Wejdą w życie przepisy odnoszące się do systemów AI wysokiego ryzyka oraz związanych z nimi obowiązków.

  • 1 sierpnia 2027 r.: Ostateczny termin dla niektórych systemów wysokiego ryzyka będących elementem produktów podlegających osobnym normom.

W związku z powyższym, w 2025 roku w Polsce będą obowiązywać już pierwsze przepisy AI Act, zwłaszcza te dotyczące zakazanych praktyk w zakresie sztucznej inteligencji oraz nadzoru nad jej stosowaniem. Ministerstwo Cyfryzacji aktywnie pracuje nad dostosowaniem polskiego systemu prawnego do wymogów AI Act, aby zapewnić skuteczne wdrożenie i egzekwowanie nowych regulacji.

 

Czy zgodnie z AI ACT należy informować na stronie internetowej o fakcie  generowania teksu z użyciem narzędzi AI?

Tak, zgodnie z założeniami AI Act (Artificial Intelligence Act), który jest obecnie procedowany w Unii Europejskiej, istnieje obowiązek informowania użytkowników o tym, że dany tekst, obraz, czy inne treści zostały stworzone przy użyciu narzędzi sztucznej inteligencji. Jest to część regulacji mających na celu zapewnienie transparentności w korzystaniu z AI.

Kluczowe aspekty w kontekście oznaczania treści:

  1. Obowiązek ujawniania: Zgodnie z projektem AI Act, w przypadku generowanych treści, szczególnie takich, które mogą być mylące lub które mogłyby zostać pomylone z treściami stworzonymi przez człowieka, należy jasno informować użytkowników, że zostały one wygenerowane za pomocą AI.

  2. Przykłady zastosowania:

    • Na stronie internetowej, jeśli publikujesz teksty wygenerowane przy pomocy narzędzi AI (np. ChatGPT), powinieneś zamieścić odpowiednią informację, np. w formie adnotacji, że tekst został opracowany przy użyciu sztucznej inteligencji.
    • W przypadku obrazów lub wideo generowanych przez AI, również należy to zaznaczyć.
  3. Cel regulacji:

    • Zapewnienie przejrzystości dla użytkowników.
    • Ochrona przed potencjalnym wprowadzeniem w błąd (np. w kontekście deepfake’ów czy treści fałszywych).
    • Ułatwienie użytkownikom rozróżniania treści generowanych przez człowieka od tych tworzonych przez AI.
  4. Konsekwencje braku oznaczenia: Jeśli przedsiębiorstwo lub osoba nie spełni wymogów dotyczących transparentności, mogą zostać nałożone kary administracyjne, zgodnie z wytycznymi AI Act.

W praktyce oznacza to, że w treściach zamieszczanych na stronie internetowej (np. w blogach, artykułach, opisach produktów) powinna znaleźć się informacja o wykorzystaniu narzędzi AI. Przykładowy zapis mógłby brzmieć:

„Ten tekst został wygenerowany przy użyciu narzędzia sztucznej inteligencji.”

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzia sztucznej inteligencji.

BEZPŁATNE ŹRÓDŁA Z GRAFIKĄ I ZDJĘCIAMI

PIXABAY

Zgodnie z informacjami zawartymi na stronie Pixabay, zdjęcia dostępne na tej platformie można używać bezpłatnie, zarówno do celów komercyjnych, jak i niekomercyjnych, bez konieczności podawania autora czy źródła. Jednakże, docenienie twórców poprzez dobrowolne przypisanie autorstwa jest mile widziane przez społeczność.

Należy jednak pamiętać, że niektóre treści mogą być objęte dodatkowymi prawami własności intelektualnej, takimi jak prawa do znaków towarowych czy prawa do wizerunku osób przedstawionych na zdjęciach. W takich przypadkach użytkownik jest odpowiedzialny za upewnienie się, czy posiada odpowiednie zgody lub licencje na wykorzystanie tych treści.

PEXELS

Korzystając ze zdjęć z Pexels na własnej komercyjnej stronie internetowej , nie ma obowiązku podawania autora ani źródła, ale jest to mile widziane. Należy jednak zachować ostrożność w przypadku treści zawierających rozpoznawalne znaki towarowe, logotypy czy wizerunki osób, aby upewnić się, że ich użycie jest zgodne z obowiązującym prawem.

Public Domain Collections

Zdjęcia z Public Domain Collections (domeny publicznej) można wykorzystywać komercyjnie bez konieczności uzyskiwania zgody autora, ponieważ nie są chronione prawami autorskimi. Nie ma obowiązku podawania źródła ani autora, ale może być to zalecane w celu docenienia pracy twórców.

Zasady:

  1. Brak ochrony prawnej – dzieła należą do domeny publicznej.
  2. Swobodne użycie – w celach komercyjnych i niekomercyjnych.
  3. Wyjątki – należy uważać na prawa do wizerunku osób, znaków towarowych i inne ograniczenia lokalnych przepisów.

Przykłady wyszukiwarek:

  1. Unsplash (unsplash.com)
  2. Picryl (picryl.com)
  3. Europeana (europeana.eu)
  4. Smithsonian Open Access (si.edu/openaccess)
  5. The New York Public Library Digital Collections (nypl.org)

Te wyszukiwarki zawierają wiele treści, które są w domenie publicznej lub mają licencje umożliwiające swobodne użycie.

ULUBIONE NARZĘDZIA AI INFORMATYKA

ChatBoty AI

gemini.google.com/app

chatgpt.com

copilot.microsoft.com

Tworzenie prezentacji

gamma.app

 

Rozmowa z historycznymi postaciami

character.ai

Czytanie tekstów

elevenlabs.io

Tworzenie awatarów

app.heygen.com/avatars

studio.d-id.com

Tworzenie muzyki

suno.com

Nauka programowania dla dzieci

scratch.mit.edu/

Tworzenie sprawdzianów i quizów

kahoot.com/pl/

Tworzenie materiałów edukacyjnych

pl.khanacademy.org/

napkin.ai

perplexity.ai

mylens.ai

Korekta gramatyczna tekstów

LanguageTool

Detektory AI i weryfikatory do kontroli tekstu

GPTZero i DetectGPT, Turnitin

PROCES TWORZENIA I ZARZĄDZANIA SYSTEMEM BEZPIECZEŃSTWA INFORMACJI SZBI

Współczesne organizacje coraz bardziej polegają na systemach informatycznych i cyfrowych zasobach, co sprawia, że ochrona informacji staje się kluczowym elementem zarządzania. Normy i przepisy prawa dostarczają kompleksowych wytycznych, które pozwalają na skuteczne zarządzanie systemem bezpieczeństwa informacji. Poniższy artykuł omawia kluczowe etapy tego procesu w oparciu o modelowy cykl życia systemu.

PROCES TWORZENIA I ZARZĄDZANIA SYSTEMEM BEZPIECZEŃSTWA INFORMACJI SZBI opracowany przez Witold Bzdęga

1. Faza identyfikacji

Pierwszy etap stanowi fundament każdego systemu bezpieczeństwa informacji. Celem jest zrozumienie zasobów organizacji, procesów oraz ryzyk, jakie jej zagrażają.

  • Zarządzanie aktywami

Każda organizacja powinna zidentyfikować swoje zasoby, takie jak dane, urządzenia, oprogramowanie czy infrastrukturę. Kluczowe jest stworzenie rejestru aktywów i przypisanie do nich właścicieli odpowiedzialnych za ich ochronę.

  • Zarządzanie procesami

Analiza procesów biznesowych pozwala zrozumieć, jak informacje są przetwarzane, przechowywane i przesyłane. Optymalizacja procesów może przyczynić się do zminimalizowania ryzyk.

  • Ocena środowiska biznesowego

Kluczowe jest zrozumienie kontekstu działania organizacji, w tym wymagań prawnych, regulacyjnych i oczekiwań interesariuszy. To pozwala na dopasowanie systemu bezpieczeństwa do specyfiki organizacji.

  • Ocena ryzyka

Identyfikacja zagrożeń i słabości, a także analiza ich wpływu i prawdopodobieństwa, pozwala zbudować profil ryzyka organizacji. W tym celu stosuje się metodyki takie jak analiza SWOT czy OCTAVE.

  • Strategia zarządzania ryzykiem

Na podstawie wyników oceny ryzyka tworzony jest plan zarządzania ryzykiem, który obejmuje środki zapobiegawcze, minimalizujące lub akceptujące ryzyko.

2. Faza ochrony

W tej fazie organizacja wdraża środki techniczne, proceduralne i organizacyjne, które mają na celu ochronę jej zasobów informacyjnych.

  • Szkolenia

Podstawowym elementem ochrony jest edukacja pracowników na temat zagrożeń, polityk i procedur bezpieczeństwa.

  • Kontrola dostępu

Skuteczne zarządzanie tożsamością i uprawnieniami użytkowników pozwala na ograniczenie dostępu do zasobów wyłącznie do osób upoważnionych.

  • Fizyczne bezpieczeństwo danych

Ochrona fizyczna obejmuje zabezpieczenie budynków, serwerowni oraz nośników danych przed nieautoryzowanym dostępem i zagrożeniami fizycznymi.

  • Proces i procedury ochrony informacji

Opracowanie i wdrożenie polityk oraz procedur, takich jak polityka czystego biurka czy szyfrowanie danych, zapewnia spójność działań ochronnych.

  • Technologia proaktywna

Wdrażanie narzędzi takich jak firewalle, systemy wykrywania intruzów (IDS) czy zaawansowane oprogramowanie antywirusowe minimalizuje ryzyko ataków.

3. Faza wykrycia

Nie można zapobiec wszystkim incydentom, dlatego istotne jest szybkie wykrywanie zagrożeń.

  • Proces i procedury wykrywania podatności

Regularne audyty bezpieczeństwa i testy penetracyjne pomagają w identyfikacji słabości systemu.

  • Rejestrowanie anomalii i zdarzeń

Automatyczne rejestrowanie nietypowych zdarzeń w systemach pozwala na szybką reakcję na potencjalne zagrożenia.

  • Ciągłe monitorowanie bezpieczeństwa

Systemy SIEM (Security Information and Event Management) zapewniają bieżącą analizę działań w sieci.

4. Faza reagowania

Skuteczna reakcja na incydenty ogranicza ich skutki i pozwala na szybkie przywrócenie normalnego funkcjonowania.

  • Plan reakcji na incydent

Organizacja powinna posiadać szczegółowy plan, który określa role, obowiązki i procedury w przypadku wystąpienia incydentu.

  • Komunikacja wewnętrzna i zewnętrzna

Jasne zasady komunikacji podczas incydentu minimalizują dezinformację i eskalację problemu.

  • Łagodzenie skutków incydentu – działania korekcyjne

Kluczowe jest szybkie ograniczenie szkód, na przykład poprzez izolowanie zainfekowanych systemów.

  • Analiza incydentu

Dokładne badanie przyczyn i skutków incydentu pozwala na lepsze przygotowanie na przyszłość.

  • Wnioski i działania korygujące na przyszłość

Wnioski z analizy powinny wpływać na aktualizację polityk i procedur bezpieczeństwa.

  • Poprawa planów reagowania

Stałe doskonalenie planów zapewnia skuteczniejszą reakcję w przyszłości.

5. Faza odzyskiwania

Ostatni etap koncentruje się na przywróceniu normalnego funkcjonowania organizacji po incydencie.

  • Plan ciągłości działania

Planowanie awaryjne obejmuje procedury zapewniające ciągłość działania kluczowych procesów.

  • Poprawa planów odzyskiwania

Doświadczenia zdobyte podczas incydentu powinny służyć do udoskonalenia planów na przyszłość.

  • Komunikacja wewnętrzna i zewnętrzna

KLUCZOWE AKTY PRAWNE DOTYCZĄCE INFORMATYZACJI I CYBERBEZPIECZEŃSTWA

Biurko w kancelarii prawnej z komputerem i książkami

Polskie normy prawne (stan na dzień 06.01.2025)

  1. Ustawa z dnia 17 lutego 2005 r. o informatyzacji działalności podmiotów realizujących zadania publiczne. Dz.U. 2024 poz. 307
  2. Rozporządzenie Rady Ministrów z dnia 21 maja 2024 r. w sprawie Krajowych Ram Interoperacyjności, minimalnych wymagań dla rejestrów publicznych i wymiany informacji w postaci elektronicznej oraz minimalnych wymagań dla systemów teleinformatycznych. Dz.U. 2024 poz. 773 

  3. Rozporządzenie Prezesa Rady Ministrów z dnia 14 września 2011 r. w sprawie sporządzania i doręczania dokumentów elektronicznych oraz udostępniania formularzy, wzorów i kopii dokumentów elektronicznych. Dz.U. 2018 poz. 180

  4. Ustawa z dnia 5 lipca 2018 r. o krajowym systemie cyberbezpieczeństwa. Dz.U. 2024 poz. 1077

  5. Ustawa z dnia 10 maja 2018 r. o ochronie danych osobowych. Dz.U. 2019 poz. 1781
  6. Rozporządzenie Ministra Spraw Wewnętrznych i Administracji z dnia 29 kwietnia 2004 r. w sprawie dokumentacji przetwarzania danych osobowych oraz warunków technicznych i organizacyjnych, jakim powinny odpowiadać urządzenia i systemy informatyczne służące do przetwarzania danych osobowych. Dz.U. 2004 nr 100 poz. 1024

  7. USTAWA z dnia 5 września 2016 r. o usługach zaufania oraz identyfikacji elektronicznej. Dz.U. 2024 poz. 1725

  8. Ustawa z dnia 18 listopada 2020 r. o doręczeniach elektronicznych. Dz.U. 2020 poz. 2320
  9. Ustawa z dnia 21 listopada 2024 r. o zmianie ustawy o doręczeniach elektronicznych. Dz.U. 2024 poz. 1841
  10. Ustawa z dnia 28 kwietnia 2022 r. o zmianie niektórych ustaw w związku z rozwojem publicznych systemów teleinformatycznych. Dz.U. 2022 poz. 1002

  11. Ustawa z dnia 28 lipca 2023 r. o zwalczaniu nadużyć w komunikacji elektronicznej. Dz.U. 2023 poz. 1703

Europejskie normy prawne

  1. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Tekst mający znaczenie dla EOG). Document 32016R0679
  2. Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/680 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez właściwe organy do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych i wykonywania kar, w sprawie swobodnego przepływu takich danych oraz uchylająca decyzję ramową Rady 2008/977/WSiSW. Document 32016L0680
  3. Directive (EU) 2022/2555 of the European Parliament and of the Council of 14 December 2022 on measures for a high common level of cybersecurity across the Union, amending Regulation (EU) No 910/2014 and Directive (EU) 2018/1972, and repealing Directive (EU) 2016/1148 (NIS 2 Directive) (Text with EEA relevance). Document 32022L2555
  4. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1183 z dnia 11 kwietnia 2024 r. w sprawie zmiany rozporządzenia (UE) nr 910/2014 w odniesieniu do ustanowienia europejskich ram tożsamości cyfrowej. Document 32024R1183
  5. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Tekst mający znaczenie dla EOG). Document 32024R1689

O CO CHODZI W DYREKTYWIE NIS2 I JEJ ZNACZENIU DLA CYBERBEZPIECZEŃSTWA

Flaga UE

Do 17.10.2024 do krajowego porządku prawnego powinna zostać wdrożona dyrektywa NIS2 (Network and Information System Directive), czyli Druga Dyrektywa o Bezpieczeństwie Sieci i Systemów Informacyjnych. Jest to kontynuacja pierwszej dyrektywy NIS, która została wprowadzona w 2016 roku, a dyrektywa NIS2 została zaproponowana w celu dostosowania przepisów do zmieniających się zagrożeń i wyzwań w obszarze cyberbezpieczeństwa.

HARMONOGRAM

2016

2018

2020

2022

2025

NIS1

UKSC1

Projekt NIS2

NIS2

Projekt UKSC2

 

Powody ustanowienia NIS2

Po przeprowadzeniu audytu NIS 1 w krajach członkowskich uznano że :

  • Występują znaczne różnice w poszczególnych krajach w postępach z walką z cyberprzestępczością.

W kontekście działania na jednolitym rynku cyfrowym Unii Europejskiej, istnieje potrzeba harmonizacji przepisów dotyczących cyberbezpieczeństwa w celu zapewnienia spójności i skuteczności działań na poziomie europejskim. Główne cele dyrektywy NIS2 obejmują dostosowanie przepisów do zmieniających się zagrożeń i wyzwań w obszarze cyberbezpieczeństwa, poprawę współpracy i koordynacji między państwami członkowskimi oraz zwiększenie poziomu bezpieczeństwa sieci i systemów informatycznych.

  • Nastąpił lawinowy wzrost usług ICT.

Infrastruktura krytyczna, taka jak sieci energetyczne, systemy bankowe, transport publiczny czy opieka zdrowotna, staje się coraz bardziej narażona na cyberatak. Incydenty cybernetyczne mogą prowadzić do zakłóceń w funkcjonowaniu tych kluczowych usług, co ma poważne konsekwencje dla społeczeństwa i gospodarki.

  • Wraz z rozwojem następuje wzrost złożoności usług ICT.

W ciągu ostatnich kilku lat obserwujemy dynamiczny rozwój technologii cyfrowych, które stały się nieodłączną częścią naszego codziennego życia. Wraz z rozwojem Internetu, chmury obliczeniowej, sztucznej inteligencji i Internetu Rzeczy (IoT), nasze społeczeństwo jest coraz bardziej zależne od infrastruktury cyfrowej.

  • Po epidemii nastąpiło znaczące odmiejscowienie pracy.
  • Występuje masowe wdrożenie usług chmurowych.
  • Obserwuje się skokowy wzrost cyberzagrożeń.

Wraz z rozwojem technologicznym, zwiększa się także liczba cyberataków, zarówno pod względem ilości, jak i złożoności. Ataki cybernetyczne mogą być prowadzone przez różne podmioty, w tym przestępców internetowych, hakerów państwowych oraz aktywistów politycznych, co stanowi poważne zagrożenie dla bezpieczeństwa państw i społeczeństw.

 W konsekwencji konieczność reakcji na zmieniające się zagrożenia.

Istniejące przepisy dotyczące bezpieczeństwa sieci i systemów informatycznych często nie nadążają za dynamicznym rozwojem technologicznym i ewoluującymi zagrożeniami.

Konieczne stało się więc wprowadzenie nowych regulacji, które umożliwią skuteczną reakcję na zmieniające się zagrożenia oraz wzmocnią ochronę infrastruktury krytycznej.

Korzyści z wdrożenia NIS2

Wdrażanie dyrektywy NIS2 przez objęte podmioty zwiększy poziom cyberbezpieczeństwa dużej ilości danych oraz infrastruktury kluczowych usług publicznych. Skutecznie ograniczy ryzyko incydentów cyberbezpieczeństwa. Zwiększy odporność i zdolność do odbudowy infrastruktury po ataku. Zyskają obywatele. Wzrośnie zaufanie do podmiotów w UE.