UODO REALIZUJE XVI EDYCJA PROGRAMU „TWOJE DANE – TWOJA SPRAWA” PRYWATNOŚĆ I SZTUCZNA INTELIGENCJA W EDUKACJI

Program „Twoje dane – Twoja sprawa” wystartował w nowej, szesnastej odsłonie. Głównym tematem tej edycji jest rola sztucznej inteligencji w edukacji i wpływ nowych technologii na prywatność uczniów. 22–23 października 2025 r. w siedzibie UODO odbyła się konferencja inauguracyjna programu. Wzięli w niej udział nauczyciele, dyrektorzy szkół, eksperci oraz przedstawiciele administracji. Program skierowany jest do szkół podstawowych, ponadpodstawowych oraz placówek doskonalenia nauczycieli.

dzieci komputery

Rys.1 Grafika „szkoła komputer” Źródło: Designed by Freepik

 

Co należy do priorytetów edycji XVI

W tej edycji UODO stawia na:

  • zrozumienie, jak działają systemy sztucznej inteligencji oraz jakie mogą być ich konsekwencje dla prywatności uczniów i nauczycieli;
  • naukę odpowiedzialnego korzystania z nowych technologii: wybieranie bezpiecznych aplikacji i rozwiązań cyfrowych;
  • kształtowanie postaw uczniów i nauczycieli: prywatność nie jest przeszkodą, ale wartością, którą trzeba chronić;
  • uwzględnienie wpływu AI nie tylko jako narzędzia, ale także jako środowiska życia cyfrowego młodych ludzi.

 

Dlaczego to ma znaczenie dla szkoły i nauczycieli

Jeśli jesteś nauczycielem lub pracujesz w szkole, ta edycja to okazja, by:

  • włączyć temat ochrony danych i AI w codzienne działania dydaktyczne i wychowawcze – na lekcjach języka polskiego, matematyki czy wychowania fizycznego;
  • zadbać o bezpieczeństwo systemów wykorzystywanych w placówce – np. rejestrów uczniów, aplikacji edukacyjnych – oraz o świadomość uczniów w tym zakresie;
  • rozwijać w uczniach kompetencje: jak krytycznie korzystać z treści generowanych przez AI, jak rozpoznawać zagrożenia np. „deepfake”, profilowanie;
  • współpracować z rodzicami, by razem budować kulturę cyfrowej odpowiedzialności – ponieważ dzieci spędzają coraz więcej czasu w Internecie, a szkoła może być przewodnikiem w tym obszarze.

Praktyczne wskazówki

  • Wprowadź krótką lekcję na temat prywatności danych: np. „Co to są moje dane?”, „Dlaczego moje dane w Internecie mogą być zagrożone?”.
  • Podczas korzystania z aplikacji edukacyjnych w szkole zapytaj uczniów: „Kto ma dostęp do danych, które wprowadzamy?”, „Czy aplikacja poprosiła o zgodę na przetwarzanie moich danych?”.
  • Zorganizuj wspólnie z uczniami mały projekt: sprawdźcie trzy darmowe aplikacje edukacyjne i oceńcie je pod kątem prywatności – jakie dane aplikacja zbiera, czy można je usunąć, kto ma do nich dostęp.
  • Z rodzicami zgódźcie się na zasadę: raz w semestrze omówcie wspólnie, jakie urządzenia dzieci używają poza szkołą i jakie zasady bezpieczeństwa obowiązują (np. hasła, prywatność w sieci, czas-ekranowy).
  • W szkolnym regulaminie lub procedurze IT uwzględnij punkt: „Wszelkie dane uczniów w systemach edukacyjnych powinny być chronione, dostęp ograniczony, publikacje wizerunku wymagają zgody opiekunów”.

 

Źródła:

Jaki chatbot oparty o model LLM wybrać ?

Najwięksi gracze rynkowi oferują obecnie usługi dostępu do chatbotów opartych na dużych modelach językowych (LLM). Technologie te wykorzystują mechanizmy uczenia maszynowego oraz przetwarzania języka naturalnego (NLP), umożliwiając analizę danych wejściowych i generowanie trafnych odpowiedzi – w sposób zbliżony do naturalnej rozmowy międzyludzkiej. Aby zwiększyć swoją wydajność i kreatywność podjąłem decyzje o zakupie takiej usługi. Niestety po wstępnej analizie ofert doszedłem do wniosku, że sprawa nie jest prosta. Wręcz przeciwnie, bardzo złożona i wymaga głębokiej analizy ofert.

Wstępnie przyjąłem dwa podstawowe kryteria jakimi będę się kierował przy ocenie i ostatecznej decyzji. 

1. Kryterium ochrony danych osobowych i informacji chronionych.

OpenAI – ChatGPT

 

Krótkie cytaty z dokumentów zamieszczonych na stronach firmy OpenAI.

„Jak wspomniano powyżej, możemy wykorzystywać Treści, które nam dostarczasz, aby ulepszać nasze Usługi, na przykład w celu trenowania modeli, które zasilają ChatGPT. Zapoznaj się z naszymi instrukcjami(opens in a new window), aby dowiedzieć się, w jaki sposób możesz zrezygnować z wykorzystywania przez nas Twoich Treści do trenowania naszych modeli.”

„Możemy ujawnić Twoje Dane osobowe w następujących okolicznościach:

– dostawcom i usługodawcom,

– jeśli jesteśmy zaangażowani w transakcje strategiczne, przeprowadzamy reorganizację i, ogłosiliśmy upadłość, ustanowiliśmy zarząd komisaryczny lub przenosimy usługi do innego dostawcy (łącznie „Transakcja”), Twoje Dane osobowe mogą zostać ujawnione w procesie badania due diligence kontrahentom i innym osobom pomagającym w Transakcji i przekazane następcy prawnemu lub podmiotowi powiązanemu w ramach tej Transakcji wraz z innymi aktywami.

– władzom państwowym i innym osobom trzecim,

– podmiotom powiązanym,

– administratorom kont biznesowych,

– innym użytkownikom i osobom trzecim,”

Jak wskazano powyżej, ChatGPT i nasze inne usługi są rozwijane z wykorzystaniem: (1) informacji, które są publicznie dostępne w Internecie, (2) informacji, do których mamy dostęp dzięki współpracy z osobami trzecimi, oraz (3) informacji, które dostarczają lub generują nasi użytkownicy, trenerzy i badacze.

Zgodnie z postanowieniami warunków korzystania z produktów i usług dostawcy („Service Terms”[2] i „Terms of Use”[3]), dostawca ma prawo do wykorzystywania treści przetwarzanych w ramach udostępnianych użytkownikowi narzędzi na potrzeby utrzymania, rozwijania i ulepszania swoich technologii. Mowa tu nie tylko o danych wejściowych („Input”, czyli np. wprowadzanych do ChatGPT przez użytkownika treści w celu ich podsumowania i skrócenia), ale również o danych wyjściowych („Output”, czyli uzyskanego rezultatu – w tym przypadku podsumowania i skrócenia tekstu).

Należy mieć na uwadze, że wszelkie wprowadzone do ChatGPT dane przekazywane są do wykorzystania i przetwarzania przez dostawcę, posiadającego swoją siedzibę w USA, a zakres tego przetwarzania nie jest precyzyjnie określony. Dodatkowo, na podstawie warunków korzystania, dostawca ChatGPT nie podejmuje wobec użytkownika konkretnych zobowiązań do zachowania poufności wprowadzanych informacji.

Oznacza to, że wykorzystywanie ChatGPT w celach biznesowych, polegających na analizie wprowadzonych, poufnych danych, może doprowadzić do ujawnienia informacji prawnie chronionych (w tym tajemnicy przedsiębiorstwa czy innych tajemnic regulowanych szczególnymi przepisami prawa, jak np. tajemnica lekarska czy bankowa) i naruszenia w ten sposób zobowiązań umownych czy przepisów prawa.

Nie ulega wątpliwości, że wykorzystanie omawianego rozwiązania przez polskich czy europejskich użytkowników w zakresie obejmującym przetwarzanie danych osobowych będzie wprost podlegało regulacjom RODO, a zatem powinno być dokonywane zgodnie z zasadami określonymi w przepisach. Co więcej, przy takim korzystaniu z ChatGPT potencjalnie może dochodzić do przekazania danych osobowych poza obszar EOG.

Zgodnie z warunkami używania produktów i usług OpenAI, w zakresie prawnie dozwolonym OpenAI przenosi na użytkownika wszelkie prawa do wszystkich treści wygenerowanych przy użyciu oferowanych narzędzi, zatem również wytworzonych przez ChatGPT („OpenAI hereby assigns to you all its right, title and interest in and to Output”). Dostawca zastrzega sobie przy tym prawo wykorzystywania tych treści w zakresie niezbędnym do świadczenia i utrzymania swoich usług, a także przestrzegania prawa i wewnętrznych regulacji („OpenAI may use Content as necessary to provide and maintain the Services, comply with applicable law, and enforce our policies”).

Dostawca ChatGPT stoi na stanowisku, zgodnie z którym prawa do generowanych treści w pierwszej kolejności przysługują właśnie jemu, a następnie przenosi on je w maksymalnym zakresie na użytkownika końcowego. Oczywiście w dalszym ciągu kwestia ta budzi poważne wątpliwości na gruncie powszechnie obowiązujących przepisów prawa, jak już wskazywaliśmy powyżej. W związku z czym do stanowiska dostawcy należy podchodzić z dużą ostrożnością.

Należy pamiętać, że nawet korzystne uregulowania zawarte w umowie z dostawcą ChatGPT nie będą stanowiły wystarczającej ochrony w przypadku uznania, że wygenerowane utwory naruszają prawa osób trzecich (np. twórców utworów, na których „uczył się” chat).

Microsoft 365 Copilot

 

Krótkie cytaty z dokumentów zamieszczonych na stronach firmy Microsoft.

 

Usługa Microsoft 365 Copilot jest zgodna z naszymi istniejącymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności z przepisami wobec klientów komercyjnych platformy Microsoft 365, w tym z Ogólnym rozporządzeniem o ochronie danych (RODO) i Geograficznym ograniczeniem przetwarzania danych z Unii Europejskiej (UE).

Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, w tym tych używanych przez usługę Microsoft 365 Copilot.

Microsoft 365 Copilot działa z wieloma zabezpieczeniami, które obejmują, ale nie są ograniczone do, blokowanie szkodliwych treściwykrywanie chronionych materiałów i blokowanie szybkich zastrzyków (ataki jailbreak).

Microsoft 365 Copilot Może generować odpowiedzi zakotwiczone w danych organizacyjnych, takich jak dokumenty użytkownika, wiadomości e-mail, kalendarz, czaty, spotkania i kontakty. Rozwiązanie Microsoft 365 Copilot łączy tę zawartość z kontekstem roboczym użytkownika, takim jak spotkanie, w którym użytkownik teraz uczestniczy, wymiana wiadomości e-mail na dany temat lub konwersacja na czacie, którą użytkownik prowadził w zeszłym tygodniu. Usługa Microsoft 365 Copilot wykorzystuje to połączenie zawartości i kontekstu, aby pomóc w dostarczaniu dokładnych, odpowiednich i kontekstowych odpowiedzi.

Usługa Microsoft 365 Copilot wyświetla tylko te dane organizacyjne, do których poszczególni użytkownicy mają co najmniej uprawnienia do wyświetlania. Ważne jest, aby używać modeli uprawnień dostępnych w usługach platformy Microsoft 365, takich jak SharePoint, aby zapewnić odpowiednim użytkownikom lub grupom odpowiedni dostęp do odpowiedniej zawartości w organizacji. Obejmuje to uprawnienia udzielane użytkownikom spoza organizacji za pośrednictwem rozwiązań do współpracy między dzierżawami

Rozwiązanie Microsoft 365 Copilot używa usług Azure OpenAI do przetwarzania, a nie publicznie dostępnych usług OpenAI. Usługa Azure OpenAI nie buforuje zawartości klienta.

Jeśli używasz wtyczek w celu ułatwienia funkcji Microsoft 365 Copilot dostarczania bardziej odpowiednich informacji, sprawdź oświadczenie o ochronie prywatności i warunki korzystania z wtyczki, aby określić, jak będzie ona obsługiwać dane organizacji.

W sekcji Aplikacje zintegrowane Centrum administracyjnego Microsoft 365 administratorzy mogą wyświetlić uprawnienia i dostęp do danych wymagane przez wtyczkę, a także warunki użytkowania wtyczki i oświadczenie o ochronie prywatności. Administratorzy mają pełną kontrolę nad wyborem wtyczek dozwolonych w ich organizacji. Użytkownik może uzyskać dostęp tylko do wtyczek, na które zezwala jego administrator i które użytkownik zainstalował lub do których został przypisany. Funkcja Microsoft 365 Copilot używa tylko wtyczek, które są włączone przez użytkownika.

Gdy użytkownik wchodzi w interakcję z funkcją Microsoft 365 Copilot (korzystając z aplikacji takich jak Word, PowerPoint, Excel, OneNote, Loop lub Whiteboard), przechowujemy dane dotyczące tych interakcji. Przechowywane dane obejmują monit użytkownika i odpowiedź funkcji Copilot, w tym cytaty do wszelkich informacji używanych do ugruntowania odpowiedzi funkcji Copilot. Określamy monit użytkownika i odpowiedź copilot na ten monit jako „zawartość interakcji”, a zapis tych interakcji jest historią działania Copilot użytkownika. Na przykład te przechowywane dane udostępniają użytkownikom historię aktywności copilot w Microsoft 365 Copilot Chat (wcześniej o nazwie Czat biznesowy) i spotkania w usłudze Microsoft Teams. Te dane są przetwarzane i przechowywane zgodnie ze zobowiązaniami umownymi wraz z inną zawartością organizacji na platformie Microsoft 365. Dane są szyfrowane, gdy są przechowywane i nie są używane do trenowania podstawowych modułów LLM, a w tym tych używanych przez funkcję Microsoft 365 Copilot.

Użytkownicy mogą usunąć swoją historię aktywności Copilot, która obejmuje monity i odpowiedzi zwracane przez copilot.

Geograficzne ograniczenie przetwarzania danych z UE

Wywołania funkcji Copilot platformy Microsoft 365 do LLM są kierowane do najbliższych centrów danych w regionie, ale mogą również nawiązywać połączenia z innymi regionami, w których pojemność jest dostępna w okresach wysokiego wykorzystania.

W przypadku użytkowników z Unii Europejskiej oferujemy dodatkowe zabezpieczenia w celu zapewnienia zgodności z Geograficznym ograniczeniem przetwarzania danych z UE. Ruch w UE podlega Geograficznemu ograniczeniu przetwarzania danych z UE, podczas gdy ruch na całym świecie może być wysyłany do UE i innych lokalizacji geograficznych na potrzeby przetwarzania przez duże modele językowe.

Miejsce przechowywania danych

Funkcja Microsoft 365 Copilot przestrzega zobowiązań dotyczących miejsca przechowywania danych, jak określono w Warunkach dotyczących produktów firmy Microsoft i Uzupełnienia o Ochronie Danych. Funkcja Microsoft 365 Copilot została dodana jako obciążenie objęte zobowiązaniami do przechowywania danych w Warunkach dotyczących produktów firmy Microsoft 1 marca 2024 r.

Oferty Microsoft Advanced Data Residency (ADR) i Multi-Geo Capabilities obejmują zobowiązania do przechowywania danych dla klientów funkcji Microsoft 365 Copilot od 1 marca 2024 r. W przypadku klientów z UE funkcja Microsoft 365 Copilot jest usługą Geograficznego ograniczenia przetwarzania danych z UE. Zapytania klientów spoza UE mogą być przetwarzane w Stanach Zjednoczonych, UE lub innych regionach.

Wykrywanie materiałów chronionych i prawa autorskie

Tak, funkcja Microsoft 365 Copilot zapewnia wykrywanie chronionych materiałów, w tym tekstu objętego prawami autorskimi i kodem podlegającym ograniczeniom licencjonowania. Nie wszystkie te ograniczenia ryzyka są istotne dla wszystkich scenariuszy funkcji Microsoft 365 Copilot.

Firma Microsoft nie rości sobie praw własności do wyników usługi. Mimo to nie ustalamy, czy wyniki klienta są chronione prawami autorskimi lub czy można je wymusić względem innych użytkowników. Wynika to z faktu, że generatywne systemy sztucznej inteligencji mogą generować podobne odpowiedzi na podobne polecenia lub zapytania od wielu klientów. W związku z tym wielu klientów może mieć lub rościć sobie prawa do zawartości, która jest taka sama lub w znacznym stopniu podobna.

Odpowiedzialność Microsoft

Microsoft 365 Copilot – Odpowiedzi generowane przez generującą sztuczną inteligencję mogą nie być w 100% faktyczne. Mimo że stale ulepszamy odpowiedzi, użytkownicy nadal powinni kierować się własną oceną, przeglądając dane wyjściowe przed wysłaniem ich do innych osób. 

Jeśli strona trzecia pozwie klienta komercyjnego o naruszenie praw autorskich za korzystanie z usług Copilot firmy Microsoft lub wygenerowane przez nie dane wyjściowe, będziemy bronić klienta i zapłacimy kwotę wszelkich niekorzystnych wyroków lub ugód wynikających z pozwu sądowego, o ile klient korzystał z zabezpieczeń i filtrów zawartości wbudowanych w nasze produkty.

 

2. Kryterium funkcjonalne

OpenAI – ChatGPT

 

Plany osobiste

Plany osobiste chatbota GPT,

Rysunek 1(Źródło: OpenAI)

Plany biznesowe

 Plan biznesowy ChatGpt

Rysunek 2(Źródło: OpenAI) 

Poniżej tabela funkcji COPILOT w zależności od wersji.

Zestawienie funkcji COPILOT

Rysunek 3(Źródło: Microsoft)

Porównanie: 

Cecha/Funkcja

Microsoft Copilot

Copilot Pro

Copilot Microsoft 365

Cena

Bezpłatny

98 złotych miesięcznie

30 dolarów miesięcznie

Dostępność

Online

Windows, macOS

Zintegrowany z Microsoft 365

Zaawansowane funkcje AI

Podstawowe

Rozszerzone limity na modelach AI, GPT-4 Turbo, Dall-E

Pełna integracja z Microsoft 365, automatyzacja zadań w Excel, PowerPoint, Teams i innymi

Bezpieczeństwo i prywatność

Podstawowe bezpieczeństwo danych, adekwatne dla użytkowników indywidualnych.

Ulepszone zabezpieczenia i większa prywatność danych niż w wersji bezpłatnej.

Najwyższe standardy bezpieczeństwa i prywatności z wersją komercyjną Microsoft 365, zapewniającą zaawansowaną ochronę danych i zgodność z przepisami. Idealne dla przedsiębiorstw wymagających kompleksowej ochrony danych.

Personalizacja

Ograniczona

Zaawansowana

Pełna personalizacja do środowiska organizacji

Zalecane

Użytkownicy, którzy chcą przetestować możliwości AI

Użytkownicy indywidualni poszukujący zaawansowanego wsparcia AI

NGO i firmy korzystające z Microsoft 365

Wymagania licencyjne

Brak (więcej funkcji po zalogowaniu)

Konto Microsoft (osobiste)

Microsoft 365 Business Standard, Microsoft 365 Business Premium, Microsoft 365 E3/E5, Office 365 E3/E5

Cena

bezpłatnie 

20 USD / miesięcznie / licencja

ok. 24 USD / miesięcznie / licencja

(Źródło: techsoup.pl)

Z powyższego wynika, że Microsoft ma bogatszą ofertę pod względem funkcjonalności oraz oferuje szerszą ochronę informacji i danych osobowych. Dodatkowo deklaruje zgodność z RODO.

Nie doszukałem się informacji żeby OpenAi gwarantowało przetwarzanie danych w Unii Europejskiej (UE) i zgodność z RODO co dyskwalifikuje to narzędzie pod względem ochrony danych osobowych. A nigdy nie wiesz czy pracownik przypadkiem nie zamieści pełnej wersji pisma z adresem i nazwiskami adresatów do analizy.

W mojej ocenie wykorzystywanie bezpłatnych wersji AI w środowiskach biznesowych oraz w szeroko rozumianej administracji publicznej powinno zostać zakazane. Główne zagrożenie stanowi brak gwarancji ochrony przetwarzanych informacji, a także ryzyko ich wykorzystania do trenowania modeli językowych, co może prowadzić do nieuprawnionego ujawnienia danych wrażliwych lub strategicznych.

 

Źródła:

  1. https://openai.com/pl-PL/policies/row-privacy-policy/
  2. https://help.openai.com/en/articles/9299542-jak-rozwijany-jest-chatgpt-i-nasze-modele-podstawowe
  3. https://www.traple.pl/chatgpt-w-praktyce-najwazniejsze-kwestie-prawne/#_ftn2
  4. https://learn.microsoft.com/pl-pl/copilot/microsoft-365/microsoft-365-copilot-privacy
  5. https://www.microsoft.com/pl-pl/ai/principles-and-approach
  6. https://www.techsoup.pl/blog/porównanie-microsoft-copilot-copilot-pro-copilot-microsoft-365-–-który-wybrać

ZASADY TWORZENIA SKUTECZNYCH PROMPTÓW

Prompt to zapytanie lub polecenie, które wysyłasz do Chat AI, a dokładniej do modelu LLM (Large Language Model). Twój komunikat powinien zawierać jasne wskazówki dotyczące tego, co chcesz otrzymać. Jesteś szefem i tłumaczysz pracownikowi, co ma zrobić. Im dokładniej przekażesz polecenie, tym większy sukces osiągniesz. Precyzyjnie sformułowany prompt kieruje AI oraz wpływa na jakość odpowiedzi. Twoje słowa definiują, jakie informacje mają zostać wygenerowane. Gdy skończysz pisać prompt, zadaj sobie pytanie: czy na podstawie wpisanych informacji osiągniesz cel? Dzięki temu model lepiej zrozumie Twoje intencje i odpowie zgodnie z oczekiwaniami.

 

napis ,,prompt"

 

Źródło: ChatGPT

Twój prompt musi być precyzyjny i konkretny. Zamiast pisać ogólne pytanie, np. „Opowiedz o sztucznej inteligencji”, sprecyzuj, czego dokładnie oczekujesz. Na przykład: „Opisz rozwój systemów uczenia maszynowego w ostatniej dekadzie”. Taka precyzyjność zmniejsza liczbę niejasnych odpowiedzi.

Określ cel swojego zapytania. Zadaj sobie pytanie, co chcesz osiągnąć. Czy potrzebujesz analizy, propozycji rozwiązań, czy zestawienia faktów? Skoncentruj się na tym, aby AI wiedziała, jakiego rezultatu oczekujesz.

Podaj kontekst. Wprowadź niezbędne informacje, które pomogą inteligencji zrozumieć sytuację. Jeśli tworzysz prompt dla artykułu, wskaż, o jakiej dziedzinie mowa oraz jakie elementy mają zostać uwzględnione. Wskaż, w jaką rolę ma się wcielić AI. Kontekst pozwala na odpowiedź dopasowaną do Twoich potrzeb.

Zdefiniuj odbiorcę. Ustal, do kogo ma być skierowana treść. Czy ma być zrozumiała dla specjalistów, czy dla szerokiej publiczności? To ułatwia AI dostosowanie języka i poziomu szczegółowości.

Ustal format odpowiedzi. Określ, czy potrzebujesz listy, tabeli, krótkiego streszczenia czy rozbudowanego opisu. Określ liczbę znaków. Taki wskaźnik gwarantuje, że wynik będzie czytelny i łatwy do wykorzystania.

Wskaż styl i ton wypowiedzi. Powiedz, czy chcesz, aby tekst był formalny, techniczny, życzliwy czy prosty. Styl techniczny skupia się na precyzji i użyciu specjalistycznych terminów. Styl narracyjny pobudza kreatywność. Styl minimalistyczny ułatwia szybką interpretację. To pozwala na uzyskanie spójnej i adekwatnej formy wypowiedzi.

Podaj przykłady. Wpisz jeden lub dwa przykłady, aby wskazać kierunek rozumienia zadania. Pomysłowe przykłady pomagają AI dostosować odpowiedź do Twoich oczekiwań.

Unikaj wieloznaczności. Używaj prostych i krótkich zdań. Zrezygnuj ze skomplikowanych konstrukcji, które mogą wprowadzać zamieszanie. Twoja wiadomość musi być klarowna.

Testuj swoje prompy. Wypróbuj kilka wersji zapytania i oceniaj uzyskane rezultaty. Jeśli wynik nie spełnia oczekiwań, zmień sformułowanie. Nauka przez eksperyment pozwala osiągnąć idealny prompt.

Iteruj i poprawiaj. Analizuj odpowiedzi i modyfikuj zapytanie. Każda iteracja przybliża Cię do idealnego sformułowania. Twoja praca z promptami to ciągły proces doskonalenia.

Wykorzystaj feedback. Po otrzymaniu odpowiedzi zapytaj siebie, czy spełnia ona Twoje oczekiwania. Zapytaj, co można zrobić lepiej. To podejście pozwala na stałą poprawę jakości zapytań.

Ucz się na bieżąco. Obserwuj, jak reagują modele AI na Twoje zapytania. Szukaj nowych metod i śledź zmiany w narzędziach. Dostosowuj swój styl do aktualnych możliwości i ograniczeń technologii.

Oto przykład według powyższych zasad: „Jesteś ekspertem od marketingu internetowego z 20-letnim stażem. Opisz trzy sposoby, jak AI zmienia marketing internetowy. Podaj prawdziwe przykłady z życia wzięte, które się wydarzyły. Zaczerpnij informacje z internetu. Wypisz źródła. Przygotuj listę punktowaną z krótkimi opisami. Używaj fachowego języka. Tekst skieruj do właścicieli małych firm.”

Jak nie pisać promptów

Nie pytaj ogólnie i niejasno. Nie rozwlekaj zapytań na 1000 znaków. Unikaj zbędnych oraz skomplikowanych zdań, braku określonego celu, kontekstu i feedbacku. Taki chaos utrudnia AI zrozumienie Twoich intencji.

Źródła:

https://scislak.com/blog/jak-pisac-prompty-dla-sztucznej-inteligencji/

https://widoczni.com/blog/najlepsze-prompty-chatgpt/

https://www.exaity.pl/prompt-co-to-jest-i-jak-pisac-prompty-aby-osiagnac-to-czego-oczekujesz/

 

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

PLLUM POLSKA SI W SŁUŻBIE ADMINISTRACJI

Polska administracja publiczna intensywnie wdraża rozwiązania oparte na sztucznej inteligencji (AI), aby usprawnić obsługę obywateli i zwiększyć efektywność urzędów. Kluczowym elementem tych działań jest opracowanie polskiego modelu językowego PLLuM, który ma wspierać zarówno administrację, jak i sektor biznesowy.

 

PLLuM AI

Źródło: opracowanie własne, widok strony głównej pllum.org.pl

PLLuM (Polish Large Language Model) to zaawansowany model AI stworzony przez polskich specjalistów z dziedziny IT i lingwistyki. Jego głównym celem jest przetwarzanie i generowanie tekstów w języku polskim, co ułatwia komunikację między obywatelami a urzędami. Model ten został zbudowany na bazie ponad 100 miliardów słów, co pozwala mu precyzyjnie rozumieć i odpowiadać na zapytania w języku polskim. Ministerstwo Cyfryzacji udostępniło PLLuM publicznie, umożliwiając jego wykorzystanie w różnych sektorach. Więcej na https://pllum.org.pl

Ministerstwo Cyfryzacji planuje wdrożenie PLLuM do aplikacji mObywatel, co pozwoli obywatelom korzystać z inteligentnego asystenta AI w codziennych sprawach urzędowych. Dzięki temu użytkownicy będą mogli szybko uzyskać odpowiedzi na pytania dotyczące usług publicznych czy procedur administracyjnych. Wicepremier i minister cyfryzacji Krzysztof Gawkowski podkreślił, że PLLuM został stworzony z myślą o administracji, firmach oraz naukowcach, a każdy obywatel będzie mógł skorzystać z tego narzędzia poprzez czatbota.

Wdrożenie AI w administracji publicznej przynosi liczne korzyści. Automatyzacja procesów pozwala na szybsze i bardziej efektywne załatwianie spraw urzędowych, redukując obciążenie pracowników i skracając czas oczekiwania dla obywateli. Przykładem może być wykorzystanie chatbotów do udzielania odpowiedzi na najczęściej zadawane pytania, co odciąża infolinie i przyspiesza obsługę. Ponadto, AI może wspierać analizę dużych zbiorów danych, co pomaga w podejmowaniu lepszych decyzji administracyjnych.

Mimo licznych zalet, wdrażanie AI w sektorze publicznym wiąże się z wyzwaniami. Kluczowe jest zapewnienie odpowiedniej jakości danych oraz standardów zarządzania nimi, aby modele AI działały skutecznie. Ponadto, istotne jest budowanie zaufania wśród obywateli i pracowników administracji do nowych technologii. Jak wynika z badań, jedynie 15% prezesów firm w Polsce ufa AI jako wsparciu dla przedsiębiorstw, co pokazuje potrzebę edukacji i promocji korzyści płynących z AI.

Źródła:

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi sztucznej inteligencji.

CZY AI ACT OBOWIĄZUJE W POLSCE ?

Akt o sztucznej inteligencji (AI Act) to rozporządzenie Unii Europejskiej, które wprowadza kompleksowe ramy regulacyjne dla systemów sztucznej inteligencji na terenie UE. Jako rozporządzenie, AI Act obowiązuje bezpośrednio we wszystkich państwach członkowskich, w tym w Polsce, bez konieczności implementacji do prawa krajowego.

Harmonogram wdrażania AI Act:

  • 1 sierpnia 2024 r.: AI Act został opublikowany i wszedł w życie, rozpoczynając okresy przejściowe dla poszczególnych przepisów.

  • 2 lutego 2025 r.: Wejdą w życie przepisy zakazujące stosowania szczególnie niebezpiecznych systemów AI na terenie UE.

  • 1 sierpnia 2025 r.: Zaczną obowiązywać przepisy dotyczące nadzoru nad sztuczną inteligencją, w tym określenie organów nadzoru rynku i organów notyfikujących, a także regulacje dotyczące modeli AI ogólnego przeznaczenia oraz sankcji za naruszenia AI Act.

  • 1 sierpnia 2026 r.: Wejdą w życie przepisy odnoszące się do systemów AI wysokiego ryzyka oraz związanych z nimi obowiązków.

  • 1 sierpnia 2027 r.: Ostateczny termin dla niektórych systemów wysokiego ryzyka będących elementem produktów podlegających osobnym normom.

W związku z powyższym, w 2025 roku w Polsce będą obowiązywać już pierwsze przepisy AI Act, zwłaszcza te dotyczące zakazanych praktyk w zakresie sztucznej inteligencji oraz nadzoru nad jej stosowaniem. Ministerstwo Cyfryzacji aktywnie pracuje nad dostosowaniem polskiego systemu prawnego do wymogów AI Act, aby zapewnić skuteczne wdrożenie i egzekwowanie nowych regulacji.

 

Czy zgodnie z AI ACT należy informować na stronie internetowej o fakcie  generowania teksu z użyciem narzędzi AI?

Tak, zgodnie z założeniami AI Act (Artificial Intelligence Act), który jest obecnie procedowany w Unii Europejskiej, istnieje obowiązek informowania użytkowników o tym, że dany tekst, obraz, czy inne treści zostały stworzone przy użyciu narzędzi sztucznej inteligencji. Jest to część regulacji mających na celu zapewnienie transparentności w korzystaniu z AI.

Kluczowe aspekty w kontekście oznaczania treści:

  1. Obowiązek ujawniania: Zgodnie z projektem AI Act, w przypadku generowanych treści, szczególnie takich, które mogą być mylące lub które mogłyby zostać pomylone z treściami stworzonymi przez człowieka, należy jasno informować użytkowników, że zostały one wygenerowane za pomocą AI.

  2. Przykłady zastosowania:

    • Na stronie internetowej, jeśli publikujesz teksty wygenerowane przy pomocy narzędzi AI (np. ChatGPT), powinieneś zamieścić odpowiednią informację, np. w formie adnotacji, że tekst został opracowany przy użyciu sztucznej inteligencji.
    • W przypadku obrazów lub wideo generowanych przez AI, również należy to zaznaczyć.
  3. Cel regulacji:

    • Zapewnienie przejrzystości dla użytkowników.
    • Ochrona przed potencjalnym wprowadzeniem w błąd (np. w kontekście deepfake’ów czy treści fałszywych).
    • Ułatwienie użytkownikom rozróżniania treści generowanych przez człowieka od tych tworzonych przez AI.
  4. Konsekwencje braku oznaczenia: Jeśli przedsiębiorstwo lub osoba nie spełni wymogów dotyczących transparentności, mogą zostać nałożone kary administracyjne, zgodnie z wytycznymi AI Act.

W praktyce oznacza to, że w treściach zamieszczanych na stronie internetowej (np. w blogach, artykułach, opisach produktów) powinna znaleźć się informacja o wykorzystaniu narzędzi AI. Przykładowy zapis mógłby brzmieć:

„Ten tekst został wygenerowany przy użyciu narzędzia sztucznej inteligencji.”

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzia sztucznej inteligencji.

ULUBIONE NARZĘDZIA AI INFORMATYKA

ChatBoty AI

gemini.google.com/app

chatgpt.com

copilot.microsoft.com

Tworzenie prezentacji

gamma.app

 

Rozmowa z historycznymi postaciami

character.ai

Czytanie tekstów

elevenlabs.io

Tworzenie awatarów

app.heygen.com/avatars

studio.d-id.com

Tworzenie muzyki

suno.com

Nauka programowania dla dzieci

scratch.mit.edu/

Tworzenie sprawdzianów i quizów

kahoot.com/pl/

Tworzenie materiałów edukacyjnych

pl.khanacademy.org/

napkin.ai

perplexity.ai

mylens.ai

Korekta gramatyczna tekstów

LanguageTool

Detektory AI i weryfikatory do kontroli tekstu

GPTZero i DetectGPT, Turnitin