NIEBEZPIECZNE ZAŁĄCZNIKI W E-MAIL.

Każdego dnia wysyłasz dziesiątki wiadomości e-mail, trudno wyobrazić sobie codzienną pracę bez poczty elektronicznej. Niestety, jest ona podstawowym kanałem ataków cyberprzestępców. Hakerzy najczęściej w wiadomościach e-mail wysyłają załączniki, które zawierają wirusy. Otwarcie takiego pliku może prowadzić do poważnych konsekwencji, takich jak kradzież danych, zaszyfrowanie dysku czy zainfekowanie komputera złośliwym oprogramowaniem.

 

e-mail

 

Źródło gemini.google.com

Niebezpieczny załącznik to plik dołączony do wiadomości e-mail, który zawiera złośliwe oprogramowanie (malware). Może ono przybierać różne formy: wirusów, robaków, trojanów, oprogramowania szpiegującego (spyware) czy ransomware. Cyberprzestępcy starają się, aby załączniki wyglądały na legalne i interesujące. Często podszywają się pod faktury, dokumenty urzędowe, potwierdzenia zamówień, czy nawet wiadomości od znajomych. Ich celem jest skłonienie Cię do otwarcia pliku i uruchomienia ukrytego w nim kodu.

Szczególną ostrożność zachowaj przy plikach wykonywalnych, nawet jeśli ikona udaje inny typ pliku. Zwróć uwagę na rozszerzenia takie jak .exe, .vbs, .js, .scr, .bat, .com. Często zagrożenie kryje się w plikach archiwów, np. .zip, .rar, .7z, które mogą zawierać zainfekowane pliki. Uważaj także na dokumenty biurowe (np. Word .doc, .docx; Excel .xls, .xlsx) proszące o włączenie makr – makra mogą być wykorzystane do uruchomienia szkodliwego kodu. Nawet pliki .pdf, .img czy .iso mogą być niebezpieczne. Przestępcy stosują też sztuczkę z podwójnym rozszerzeniem, na przykład faktura.pdf.exe. Pierwsze rozszerzenie ma uśpić Twoją czujność, podczas gdy system operacyjny interpretuje plik według ostatniego rozszerzenia.

Cyberprzestępcy często wykorzystują socjotechnikę, aby Cię zmanipulować. Grają na Twoich emocjach – ciekawości, strachu, poczuciu obowiązku. Wiadomość może informować o rzekomej niezapłaconej fakturze, pilnym piśmie z urzędu, problemie z Twoim kontem bankowym lub kuszącej ofercie. Nadawca może podszywać się pod znaną firmę, instytucję, a nawet Twojego przełożonego lub współpracownika. Celem jest wywołanie presji czasu i skłonienie Cię do pochopnego działania bez zastanowienia.

Konsekwencje otwarcia złośliwego załącznika mogą być bardzo dotkliwe. Zainstalowane oprogramowanie może kraść Twoje hasła, dane logowania do bankowości, dane osobowe. Może zaszyfrować pliki na Twoim komputerze i żądać okupu za ich odblokowanie (ransomware). Twój komputer może stać się częścią botnetu, czyli sieci komputerów wykorzystywanych do dalszych ataków, np. rozsyłania spamu. Może to prowadzić do strat finansowych, utraty reputacji, a w przypadku urzędu – do paraliżu działalności i naruszenia ochrony danych osobowych.

Zanim otworzysz jakikolwiek załącznik, zatrzymaj się na chwilę i pomyśl. Zastosuj poniższe zasady, aby zwiększyć swoje bezpieczeństwo:

  • Sprawdzaj adres nadawcy. Czy wygląda autentycznie? Czy nie ma w nim literówek lub zamienionych znaków, które mają go upodobnić do prawdziwego adresu? Czy domena (część adresu po „@”) zgadza się z instytucją, którą nadawca rzekomo reprezentuje?

  • Nie otwieraj załączników od nieznajomych. Jeśli nie spodziewasz się wiadomości od danej osoby lub firmy, zachowaj szczególną ostrożność.

  • Uważaj na emocjonalny ton. Wiadomości wywołujące presję czasu, strach lub obiecujące niezwykłe korzyści powinny wzbudzić Twoje podejrzenia.

  • Nie klikaj bezmyślnie. Zastanów się, czy otrzymanie tego konkretnego pliku od tego nadawcy w tym momencie ma sens.

  • Weryfikuj u źródła. Jeśli masz wątpliwości co do autentyczności wiadomości, skontaktuj się z rzekomym nadawcą inną drogą, np. telefonicznie (używając numeru ze strony internetowej firmy, a nie z treści e-maila).

  • Zwracaj uwagę na rozszerzenia plików. Bądź szczególnie czujny na pliki wykonywalne i archiwa. Włącz w systemie Windows pokazywanie rozszerzeń znanych typów plików.

  • Nie włączaj makr w dokumentach z niepewnych źródeł. Jeśli dokument prosi o włączenie makr, a Ty nie masz pewności co do jego pochodzenia, nie rób tego.

  • Skanuj załączniki programem antywirusowym. Zawsze przeskanuj pobrany załącznik aktualnym oprogramowaniem antywirusowym przed jego otwarciem.

  • Uważaj na błędy językowe. Wiadomości od oszustów często zawierają błędy gramatyczne, stylistyczne lub ortograficzne.

  • Regularnie aktualizuj oprogramowanie. Dotyczy to systemu operacyjnego, przeglądarki internetowej, klienta poczty oraz oprogramowania antywirusowego. Aktualizacje często zawierają poprawki usuwające luki bezpieczeństwa.

  • Twórz kopie zapasowe danych. Regularne backupy ważnych plików mogą uratować Cię w przypadku ataku ransomware. Przechowuj kopie w bezpiecznym miejscu, najlepiej odłączonym od komputera.

Jeśli podejrzewasz, że otworzyłeś złośliwy załącznik, natychmiast odłącz komputer od internetu i sieci lokalnej. Przeskanuj system aktualnym oprogramowaniem antywirusowym. Jeśli pracujesz w urzędzie, niezwłocznie poinformuj administratora danych i dział IT o incydencie. Zmień hasła do ważnych kont (poczta, bankowość, systemy firmowe), korzystając z innego, bezpiecznego urządzenia.

Pamiętaj, że Twoja czujność i świadomość zagrożeń to pierwsza i najważniejsza linia obrony przed cyberatakami wykorzystującymi niebezpieczne załączniki. Stosując powyższe zasady, znacznie zmniejszasz ryzyko stania się ofiarą. Czy zastanawiałeś się kiedyś, jak dobrze znasz adresy e-mail swoich najważniejszych kontrahentów? Czy potrafiłbyś odróżnić subtelnie zmieniony adres?

Źródła:

 

 

 

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

PRZEDŁUŻENIE OBOWIĄZYWANIA STOPNI ALARMOWYCH DO 31 SIERPNIA 2025 R.

2025 R.

Przypominamy o realnym i ciągle narastającym zagrożeniu cybernetycznych ataków hakerskich na instytucje realizujące zadania publiczne. Prezes Rady Ministrów Donald Tusk podpisał zarządzenia przedłużające obowiązywanie stopni alarmowych: 2. stopnia BRAVO i 2. stopnia BRAVO-CRP na terenie całego kraju oraz 2. stopnia BRAVO wobec polskiej infrastruktury energetycznej mieszczącej się poza granicami Rzeczypospolitej Polskiej.

 

stopnie alarmowe w polsce

 

Źródło www.gov.pl

Stopnie alarmowe są przede wszystkim sygnałem dla służb, żeby były gotowe do działania.

BRAVO-CRP oznacza, że należy wykonać zadania wymienione dla pierwszego stopnia alarmowego CRP oraz kontynuować lub sprawdzić wykonanie tych zadań, jeżeli wcześniej był wprowadzony stopień ALFA-CRP. Ponadto należy:

  • zapewnić dostępność w trybie alarmowym personelu odpowiedzialnego za bezpieczeństwo systemów;

  • wprowadzić całodobowe dyżury administratorów systemów kluczowych dla funkcjonowania organizacji oraz personelu uprawnionego do podejmowania decyzji w sprawach bezpieczeństwa systemów teleinformatycznych.



Czy w twojej jednostce realizuje się powyższe zadania?



Źródła:

https://www.gov.pl/web/rcb/przedluzenie-obowiazywania-stopni-alarmowych-do-31-sierpnia-2025-r

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

Jaki chatbot oparty o model LLM wybrać ?

Najwięksi gracze rynkowi oferują obecnie usługi dostępu do chatbotów opartych na dużych modelach językowych (LLM). Technologie te wykorzystują mechanizmy uczenia maszynowego oraz przetwarzania języka naturalnego (NLP), umożliwiając analizę danych wejściowych i generowanie trafnych odpowiedzi – w sposób zbliżony do naturalnej rozmowy międzyludzkiej. Aby zwiększyć swoją wydajność i kreatywność podjąłem decyzje o zakupie takiej usługi. Niestety po wstępnej analizie ofert doszedłem do wniosku, że sprawa nie jest prosta. Wręcz przeciwnie, bardzo złożona i wymaga głębokiej analizy ofert.

Wstępnie przyjąłem dwa podstawowe kryteria jakimi będę się kierował przy ocenie i ostatecznej decyzji. 

1. Kryterium ochrony danych osobowych i informacji chronionych.

OpenAI – ChatGPT

 

Krótkie cytaty z dokumentów zamieszczonych na stronach firmy OpenAI.

„Jak wspomniano powyżej, możemy wykorzystywać Treści, które nam dostarczasz, aby ulepszać nasze Usługi, na przykład w celu trenowania modeli, które zasilają ChatGPT. Zapoznaj się z naszymi instrukcjami(opens in a new window), aby dowiedzieć się, w jaki sposób możesz zrezygnować z wykorzystywania przez nas Twoich Treści do trenowania naszych modeli.”

„Możemy ujawnić Twoje Dane osobowe w następujących okolicznościach:

– dostawcom i usługodawcom,

– jeśli jesteśmy zaangażowani w transakcje strategiczne, przeprowadzamy reorganizację i, ogłosiliśmy upadłość, ustanowiliśmy zarząd komisaryczny lub przenosimy usługi do innego dostawcy (łącznie „Transakcja”), Twoje Dane osobowe mogą zostać ujawnione w procesie badania due diligence kontrahentom i innym osobom pomagającym w Transakcji i przekazane następcy prawnemu lub podmiotowi powiązanemu w ramach tej Transakcji wraz z innymi aktywami.

– władzom państwowym i innym osobom trzecim,

– podmiotom powiązanym,

– administratorom kont biznesowych,

– innym użytkownikom i osobom trzecim,”

Jak wskazano powyżej, ChatGPT i nasze inne usługi są rozwijane z wykorzystaniem: (1) informacji, które są publicznie dostępne w Internecie, (2) informacji, do których mamy dostęp dzięki współpracy z osobami trzecimi, oraz (3) informacji, które dostarczają lub generują nasi użytkownicy, trenerzy i badacze.

Zgodnie z postanowieniami warunków korzystania z produktów i usług dostawcy („Service Terms”[2] i „Terms of Use”[3]), dostawca ma prawo do wykorzystywania treści przetwarzanych w ramach udostępnianych użytkownikowi narzędzi na potrzeby utrzymania, rozwijania i ulepszania swoich technologii. Mowa tu nie tylko o danych wejściowych („Input”, czyli np. wprowadzanych do ChatGPT przez użytkownika treści w celu ich podsumowania i skrócenia), ale również o danych wyjściowych („Output”, czyli uzyskanego rezultatu – w tym przypadku podsumowania i skrócenia tekstu).

Należy mieć na uwadze, że wszelkie wprowadzone do ChatGPT dane przekazywane są do wykorzystania i przetwarzania przez dostawcę, posiadającego swoją siedzibę w USA, a zakres tego przetwarzania nie jest precyzyjnie określony. Dodatkowo, na podstawie warunków korzystania, dostawca ChatGPT nie podejmuje wobec użytkownika konkretnych zobowiązań do zachowania poufności wprowadzanych informacji.

Oznacza to, że wykorzystywanie ChatGPT w celach biznesowych, polegających na analizie wprowadzonych, poufnych danych, może doprowadzić do ujawnienia informacji prawnie chronionych (w tym tajemnicy przedsiębiorstwa czy innych tajemnic regulowanych szczególnymi przepisami prawa, jak np. tajemnica lekarska czy bankowa) i naruszenia w ten sposób zobowiązań umownych czy przepisów prawa.

Nie ulega wątpliwości, że wykorzystanie omawianego rozwiązania przez polskich czy europejskich użytkowników w zakresie obejmującym przetwarzanie danych osobowych będzie wprost podlegało regulacjom RODO, a zatem powinno być dokonywane zgodnie z zasadami określonymi w przepisach. Co więcej, przy takim korzystaniu z ChatGPT potencjalnie może dochodzić do przekazania danych osobowych poza obszar EOG.

Zgodnie z warunkami używania produktów i usług OpenAI, w zakresie prawnie dozwolonym OpenAI przenosi na użytkownika wszelkie prawa do wszystkich treści wygenerowanych przy użyciu oferowanych narzędzi, zatem również wytworzonych przez ChatGPT („OpenAI hereby assigns to you all its right, title and interest in and to Output”). Dostawca zastrzega sobie przy tym prawo wykorzystywania tych treści w zakresie niezbędnym do świadczenia i utrzymania swoich usług, a także przestrzegania prawa i wewnętrznych regulacji („OpenAI may use Content as necessary to provide and maintain the Services, comply with applicable law, and enforce our policies”).

Dostawca ChatGPT stoi na stanowisku, zgodnie z którym prawa do generowanych treści w pierwszej kolejności przysługują właśnie jemu, a następnie przenosi on je w maksymalnym zakresie na użytkownika końcowego. Oczywiście w dalszym ciągu kwestia ta budzi poważne wątpliwości na gruncie powszechnie obowiązujących przepisów prawa, jak już wskazywaliśmy powyżej. W związku z czym do stanowiska dostawcy należy podchodzić z dużą ostrożnością.

Należy pamiętać, że nawet korzystne uregulowania zawarte w umowie z dostawcą ChatGPT nie będą stanowiły wystarczającej ochrony w przypadku uznania, że wygenerowane utwory naruszają prawa osób trzecich (np. twórców utworów, na których „uczył się” chat).

Microsoft 365 Copilot

 

Krótkie cytaty z dokumentów zamieszczonych na stronach firmy Microsoft.

 

Usługa Microsoft 365 Copilot jest zgodna z naszymi istniejącymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności z przepisami wobec klientów komercyjnych platformy Microsoft 365, w tym z Ogólnym rozporządzeniem o ochronie danych (RODO) i Geograficznym ograniczeniem przetwarzania danych z Unii Europejskiej (UE).

Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, w tym tych używanych przez usługę Microsoft 365 Copilot.

Microsoft 365 Copilot działa z wieloma zabezpieczeniami, które obejmują, ale nie są ograniczone do, blokowanie szkodliwych treściwykrywanie chronionych materiałów i blokowanie szybkich zastrzyków (ataki jailbreak).

Microsoft 365 Copilot Może generować odpowiedzi zakotwiczone w danych organizacyjnych, takich jak dokumenty użytkownika, wiadomości e-mail, kalendarz, czaty, spotkania i kontakty. Rozwiązanie Microsoft 365 Copilot łączy tę zawartość z kontekstem roboczym użytkownika, takim jak spotkanie, w którym użytkownik teraz uczestniczy, wymiana wiadomości e-mail na dany temat lub konwersacja na czacie, którą użytkownik prowadził w zeszłym tygodniu. Usługa Microsoft 365 Copilot wykorzystuje to połączenie zawartości i kontekstu, aby pomóc w dostarczaniu dokładnych, odpowiednich i kontekstowych odpowiedzi.

Usługa Microsoft 365 Copilot wyświetla tylko te dane organizacyjne, do których poszczególni użytkownicy mają co najmniej uprawnienia do wyświetlania. Ważne jest, aby używać modeli uprawnień dostępnych w usługach platformy Microsoft 365, takich jak SharePoint, aby zapewnić odpowiednim użytkownikom lub grupom odpowiedni dostęp do odpowiedniej zawartości w organizacji. Obejmuje to uprawnienia udzielane użytkownikom spoza organizacji za pośrednictwem rozwiązań do współpracy między dzierżawami

Rozwiązanie Microsoft 365 Copilot używa usług Azure OpenAI do przetwarzania, a nie publicznie dostępnych usług OpenAI. Usługa Azure OpenAI nie buforuje zawartości klienta.

Jeśli używasz wtyczek w celu ułatwienia funkcji Microsoft 365 Copilot dostarczania bardziej odpowiednich informacji, sprawdź oświadczenie o ochronie prywatności i warunki korzystania z wtyczki, aby określić, jak będzie ona obsługiwać dane organizacji.

W sekcji Aplikacje zintegrowane Centrum administracyjnego Microsoft 365 administratorzy mogą wyświetlić uprawnienia i dostęp do danych wymagane przez wtyczkę, a także warunki użytkowania wtyczki i oświadczenie o ochronie prywatności. Administratorzy mają pełną kontrolę nad wyborem wtyczek dozwolonych w ich organizacji. Użytkownik może uzyskać dostęp tylko do wtyczek, na które zezwala jego administrator i które użytkownik zainstalował lub do których został przypisany. Funkcja Microsoft 365 Copilot używa tylko wtyczek, które są włączone przez użytkownika.

Gdy użytkownik wchodzi w interakcję z funkcją Microsoft 365 Copilot (korzystając z aplikacji takich jak Word, PowerPoint, Excel, OneNote, Loop lub Whiteboard), przechowujemy dane dotyczące tych interakcji. Przechowywane dane obejmują monit użytkownika i odpowiedź funkcji Copilot, w tym cytaty do wszelkich informacji używanych do ugruntowania odpowiedzi funkcji Copilot. Określamy monit użytkownika i odpowiedź copilot na ten monit jako „zawartość interakcji”, a zapis tych interakcji jest historią działania Copilot użytkownika. Na przykład te przechowywane dane udostępniają użytkownikom historię aktywności copilot w Microsoft 365 Copilot Chat (wcześniej o nazwie Czat biznesowy) i spotkania w usłudze Microsoft Teams. Te dane są przetwarzane i przechowywane zgodnie ze zobowiązaniami umownymi wraz z inną zawartością organizacji na platformie Microsoft 365. Dane są szyfrowane, gdy są przechowywane i nie są używane do trenowania podstawowych modułów LLM, a w tym tych używanych przez funkcję Microsoft 365 Copilot.

Użytkownicy mogą usunąć swoją historię aktywności Copilot, która obejmuje monity i odpowiedzi zwracane przez copilot.

Geograficzne ograniczenie przetwarzania danych z UE

Wywołania funkcji Copilot platformy Microsoft 365 do LLM są kierowane do najbliższych centrów danych w regionie, ale mogą również nawiązywać połączenia z innymi regionami, w których pojemność jest dostępna w okresach wysokiego wykorzystania.

W przypadku użytkowników z Unii Europejskiej oferujemy dodatkowe zabezpieczenia w celu zapewnienia zgodności z Geograficznym ograniczeniem przetwarzania danych z UE. Ruch w UE podlega Geograficznemu ograniczeniu przetwarzania danych z UE, podczas gdy ruch na całym świecie może być wysyłany do UE i innych lokalizacji geograficznych na potrzeby przetwarzania przez duże modele językowe.

Miejsce przechowywania danych

Funkcja Microsoft 365 Copilot przestrzega zobowiązań dotyczących miejsca przechowywania danych, jak określono w Warunkach dotyczących produktów firmy Microsoft i Uzupełnienia o Ochronie Danych. Funkcja Microsoft 365 Copilot została dodana jako obciążenie objęte zobowiązaniami do przechowywania danych w Warunkach dotyczących produktów firmy Microsoft 1 marca 2024 r.

Oferty Microsoft Advanced Data Residency (ADR) i Multi-Geo Capabilities obejmują zobowiązania do przechowywania danych dla klientów funkcji Microsoft 365 Copilot od 1 marca 2024 r. W przypadku klientów z UE funkcja Microsoft 365 Copilot jest usługą Geograficznego ograniczenia przetwarzania danych z UE. Zapytania klientów spoza UE mogą być przetwarzane w Stanach Zjednoczonych, UE lub innych regionach.

Wykrywanie materiałów chronionych i prawa autorskie

Tak, funkcja Microsoft 365 Copilot zapewnia wykrywanie chronionych materiałów, w tym tekstu objętego prawami autorskimi i kodem podlegającym ograniczeniom licencjonowania. Nie wszystkie te ograniczenia ryzyka są istotne dla wszystkich scenariuszy funkcji Microsoft 365 Copilot.

Firma Microsoft nie rości sobie praw własności do wyników usługi. Mimo to nie ustalamy, czy wyniki klienta są chronione prawami autorskimi lub czy można je wymusić względem innych użytkowników. Wynika to z faktu, że generatywne systemy sztucznej inteligencji mogą generować podobne odpowiedzi na podobne polecenia lub zapytania od wielu klientów. W związku z tym wielu klientów może mieć lub rościć sobie prawa do zawartości, która jest taka sama lub w znacznym stopniu podobna.

Odpowiedzialność Microsoft

Microsoft 365 Copilot – Odpowiedzi generowane przez generującą sztuczną inteligencję mogą nie być w 100% faktyczne. Mimo że stale ulepszamy odpowiedzi, użytkownicy nadal powinni kierować się własną oceną, przeglądając dane wyjściowe przed wysłaniem ich do innych osób. 

Jeśli strona trzecia pozwie klienta komercyjnego o naruszenie praw autorskich za korzystanie z usług Copilot firmy Microsoft lub wygenerowane przez nie dane wyjściowe, będziemy bronić klienta i zapłacimy kwotę wszelkich niekorzystnych wyroków lub ugód wynikających z pozwu sądowego, o ile klient korzystał z zabezpieczeń i filtrów zawartości wbudowanych w nasze produkty.

 

2. Kryterium funkcjonalne

OpenAI – ChatGPT

 

Plany osobiste

Plany osobiste chatbota GPT,

Rysunek 1(Źródło: OpenAI)

Plany biznesowe

 Plan biznesowy ChatGpt

Rysunek 2(Źródło: OpenAI) 

Poniżej tabela funkcji COPILOT w zależności od wersji.

Zestawienie funkcji COPILOT

Rysunek 3(Źródło: Microsoft)

Porównanie: 

Cecha/Funkcja

Microsoft Copilot

Copilot Pro

Copilot Microsoft 365

Cena

Bezpłatny

98 złotych miesięcznie

30 dolarów miesięcznie

Dostępność

Online

Windows, macOS

Zintegrowany z Microsoft 365

Zaawansowane funkcje AI

Podstawowe

Rozszerzone limity na modelach AI, GPT-4 Turbo, Dall-E

Pełna integracja z Microsoft 365, automatyzacja zadań w Excel, PowerPoint, Teams i innymi

Bezpieczeństwo i prywatność

Podstawowe bezpieczeństwo danych, adekwatne dla użytkowników indywidualnych.

Ulepszone zabezpieczenia i większa prywatność danych niż w wersji bezpłatnej.

Najwyższe standardy bezpieczeństwa i prywatności z wersją komercyjną Microsoft 365, zapewniającą zaawansowaną ochronę danych i zgodność z przepisami. Idealne dla przedsiębiorstw wymagających kompleksowej ochrony danych.

Personalizacja

Ograniczona

Zaawansowana

Pełna personalizacja do środowiska organizacji

Zalecane

Użytkownicy, którzy chcą przetestować możliwości AI

Użytkownicy indywidualni poszukujący zaawansowanego wsparcia AI

NGO i firmy korzystające z Microsoft 365

Wymagania licencyjne

Brak (więcej funkcji po zalogowaniu)

Konto Microsoft (osobiste)

Microsoft 365 Business Standard, Microsoft 365 Business Premium, Microsoft 365 E3/E5, Office 365 E3/E5

Cena

bezpłatnie 

20 USD / miesięcznie / licencja

ok. 24 USD / miesięcznie / licencja

(Źródło: techsoup.pl)

Z powyższego wynika, że Microsoft ma bogatszą ofertę pod względem funkcjonalności oraz oferuje szerszą ochronę informacji i danych osobowych. Dodatkowo deklaruje zgodność z RODO.

Nie doszukałem się informacji żeby OpenAi gwarantowało przetwarzanie danych w Unii Europejskiej (UE) i zgodność z RODO co dyskwalifikuje to narzędzie pod względem ochrony danych osobowych. A nigdy nie wiesz czy pracownik przypadkiem nie zamieści pełnej wersji pisma z adresem i nazwiskami adresatów do analizy.

W mojej ocenie wykorzystywanie bezpłatnych wersji AI w środowiskach biznesowych oraz w szeroko rozumianej administracji publicznej powinno zostać zakazane. Główne zagrożenie stanowi brak gwarancji ochrony przetwarzanych informacji, a także ryzyko ich wykorzystania do trenowania modeli językowych, co może prowadzić do nieuprawnionego ujawnienia danych wrażliwych lub strategicznych.

 

Źródła:

  1. https://openai.com/pl-PL/policies/row-privacy-policy/
  2. https://help.openai.com/en/articles/9299542-jak-rozwijany-jest-chatgpt-i-nasze-modele-podstawowe
  3. https://www.traple.pl/chatgpt-w-praktyce-najwazniejsze-kwestie-prawne/#_ftn2
  4. https://learn.microsoft.com/pl-pl/copilot/microsoft-365/microsoft-365-copilot-privacy
  5. https://www.microsoft.com/pl-pl/ai/principles-and-approach
  6. https://www.techsoup.pl/blog/porównanie-microsoft-copilot-copilot-pro-copilot-microsoft-365-–-który-wybrać

JAK BEZPIECZNIE PRZECHOWYWAĆ HASŁA DO SYSTEMÓW TELEINFORMATYCZNYCH?

Zastanawiasz się czasem, czy w należyty sposób chronisz powierzone ci dane na stanowisku pracy? Hasła są kluczami do systemów dziedzinowych, służbowej poczty, platformy zakupowej, portali sprawozdawczych i wielu innych usług. Przepisy prawa nakładają na urzędników szereg obowiązków dotyczących należytego zabezpieczania danych przed ich utratą. Niestety, wiele osób nadal popełnia podstawowe błędy, narażając się na kradzież danych. Jak więc skutecznie chronić swoje hasła?

 

bezpieczne przechowywanie haseł

 

Źródło: ChatGPT

Pierwszym krokiem jest zrozumienie, co musimy chronić i jakich błędów unikać. Czy używasz tego samego hasła do wielu serwisów? To prosta droga do katastrofy. Jeśli jedno z Twoich kont zostanie zhakowane, wszystkie inne również staną się podatne na atak. Popularne są też hasła typu „123456”, „password” czy Twoje imię z datą urodzenia. Takie hasła są niezwykle łatwe do złamania dla cyberprzestępców, którzy używają specjalnych programów do ich odgadywania. Zapisywanie haseł na karteczkach przyklejonych do monitora lub w nieszyfrowanym pliku tekstowym na pulpicie to kolejne ryzykowne praktyki.

Wygodnym rozwiązaniem wydaje się zapisywanie haseł w przeglądarce internetowej. Chrome, Firefox czy Edge oferują taką funkcję. Czy jest to jednak bezpieczne? Przeglądarki faktycznie ułatwiają logowanie, zapamiętując dane za Ciebie. Niosą jednak ze sobą konkretne zagrożenia. Złośliwe oprogramowanie, takie jak stealer (np. RedLine, Lumma), potrafi wykraść hasła zapisane w przeglądarce. Jeśli ktoś uzyska fizyczny dostęp do Twojego komputera, a nie jest on zabezpieczony silnym hasłem, również może odczytać Twoje dane logowania. Nigdy nie używaj synchronizacji haseł między urządzeniami służbowymi a prywatnymi. Nie loguj się na prywatne konta Google czy Apple, przejęcie go może oznaczać dostęp do wszystkich zapisanych tam haseł. Pamiętaj, przeglądarki nie zostały stworzone jako wyspecjalizowane narzędzia do zarządzania hasłami, ich mechanizmy ochrony są często podstawowe.

Co więc wybrać zamiast tego? Znacznie bezpieczniejszą opcją są dedykowane menedżery haseł. Programy takie jak Bitwarden, KeePassXC, 1Password czy Dashlane to specjalistyczne narzędzia zaprojektowane wyłącznie do bezpiecznego przechowywania Twoich danych uwierzytelniających. Menedżer haseł działa jak sejf. Wszystkie Twoje hasła są w nim przechowywane w postaci zaszyfrowanej, a dostęp do nich chroniony jest jednym, silnym hasłem głównym. Tylko jedno hasło musisz zapamiętać.

Jakie korzyści dają dedykowane menedżery haseł? Po pierwsze, używają zaawansowanych metod szyfrowania (np. AES-256), które są praktycznie niemożliwe do złamania. Po drugie, większość z nich oferuje wbudowane generatory silnych, unikalnych haseł. Nie musisz już wymyślać skomplikowanych kombinacji. Menedżer zrobi to za Ciebie, tworząc losowe ciągi znaków, trudne do odgadnięcia. Po trzecie, wiele menedżerów oferuje też dodatkowe funkcje, takie jak bezpieczne przechowywanie notatek, danych kart płatniczych czy plików, a także audyty bezpieczeństwa haseł, informując Cię o słabych lub powtarzających się hasłach oraz o tych, które mogły wyciec w znanych incydentach bezpieczeństwa.

Jeśli zdecydujesz się na menedżer haseł, pamiętaj o stworzeniu naprawdę silnego hasła głównego. Jakie powinno być długie? Minimum 12-15 znaków, a im więcej, tym lepiej. Powinno zawierać małe i wielkie litery, cyfry oraz znaki specjalne (np. !, @, #, $). Dobrym pomysłem jest stosowanie tzw. fraz hasłowych (passphrases). Zamiast skomplikowanego ciągu przypadkowych znaków, możesz użyć kilku losowych słów, np. „ZielonyKalkulatorSpiewaPodParasolem”. Taką frazę łatwiej zapamiętać, a jest ona bardzo trudna do złamania.

Samo silne hasło to jednak często za mało. Koniecznie włącz uwierzytelnianie dwuskładnikowe (2FA) wszędzie tam, gdzie jest to możliwe. 2FA dodaje drugą warstwę ochrony. Nawet jeśli ktoś pozna Twoje hasło, nie zaloguje się na Twoje konto bez drugiego składnika, którym może być jednorazowy kod z aplikacji (np. Google Authenticator, Authy), kod SMS, klucz bezpieczeństwa U2F (np. YubiKey) lub powiadomienie na telefonie.

Czy zapisywanie haseł w przeglądarce jest więc całkowicie złe? Specjaliści ds. bezpieczeństwa są zgodni, że dedykowane menedżery haseł oferują znacznie wyższy poziom ochrony. Jeśli jednak z jakiegoś powodu nie chcesz korzystać z zewnętrznego menedżera, pamiętaj o maksymalnym zabezpieczeniu swojej przeglądarki i komputera. Używaj silnego hasła logowania do systemu operacyjnego, włącz szyfrowanie dysku i ustal hasło główne w przeglądarce. Jest to jednak rozwiązanie kompromisowe, obarczone większym ryzykiem. Zastanów się, czy wygoda jest warta potencjalnych kłopotów. Cyfrowe bezpieczeństwo powierzonych Tobie danych zależy od świadomych wyborów, które podejmujesz każdego dnia.



Źródła:

 

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

 

CO TO JEST DORA I CZY JEST WAŻNA DLA SAMORZĄDÓW?

Od 17 stycznia 2025 obowiązuje unijne rozporządzenie DORA (Digital Operational Resilience Act), czyli Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2022/2554 z dnia 14 grudnia 2022 roku w sprawie cyfrowej odporności operacyjnej sektora finansowego. Głównym celem aktu jest wzmocnienie bezpieczeństwa i ciągłości działania podmiotów świadczących usługi finansowe w kontekście zagrożeń cyfrowych. Choć regulacja dotyczy bezpośrednio sektora finansowego, jej wpływ wykracza poza banki, firmy ubezpieczeniowe czy instytucje płatnicze. Dotyczy również pośrednio jednostek samorządu terytorialnego – szczególnie tych, które współpracują z instytucjami finansowymi, przetwarzają dane finansowe mieszkańców lub korzystają z usług firm informatycznych powiązanych z tym sektorem.

 

DORA

 

Źródło: Copilot

DORA wprowadza jednolite zasady zarządzania ryzykiem ICT – czyli technologii informacyjno-komunikacyjnych. Reguluje sposób monitorowania incydentów, testowania odporności cyfrowej oraz zarządzania relacjami z dostawcami usług IT. Rozporządzenie nakłada obowiązek tworzenia skutecznych mechanizmów zapewniających ciągłość działania i szybkiego reagowania na zagrożenia w cyberprzestrzeni.

W związku z tym warto już teraz podjąć konkretne działania. Samorządy są objęte przepisami KRI, NIS2 czy RODO i również powinny przeanalizować ryzyka cyfrowe, zaktualizować plany ciągłości działania i zidentyfikować kluczowe systemy IT oraz krytycznych dostawców usług informatycznych. Istotne jest również wdrożenie skutecznych procedur zarządzania incydentami oraz regularne testowanie odporności cyfrowej. Nie można też zapominać o najważniejszym zasobie – ludziach. Podnoszenie świadomości pracowników w zakresie cyberbezpieczeństwa staje się dziś koniecznością, nie tylko dobrą praktyką. Dlatego warto zaplanować szkolenia.





AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

ZNAKI WODNE W TEKSTACH GENEROWANYCH PRZEZ AI

Wspierasz się AI w codziennej pracy urzędnika? Uważaj!

Wszystko, co wprowadzasz do przestrzeni publicznej a powstało przy użyciu AI, zawiera ukryte znaki wodne. Są to niewidoczne znaki Unicode, takie jak Narrow No-Break Space, Zero Width Space, Zero Width Non-Joiner, Zero Width Joiner, umieszczane w treściach w celu oznaczenia ich pochodzenia. Dzięki nim specjalistyczne narzędzia mogą wykryć, czy dany tekst został wygenerowany przez maszynę.\

 

water mark

Źródło: Copilot

AI czasem wstawia ukryte tagi tam, gdzie normalnie powinny znajdować się spacje czy znaki interpunkcyjne. Choć na pierwszy rzut oka tekst wygląda zwyczajnie, „niewidzialna ręka” zdradza jego pochodzenie. Jeśli chcesz, aby Twoje treści wyglądały jak napisane przez człowieka, musisz pozbyć się tych ukrytych elementów.



Wiele osób – uczniów, studentów, marketerów czy twórców treści – zależy na tym, aby sztuczna inteligencja nie była łatwa do rozpoznania. Usuwanie niewidocznych znaków pomaga obejść systemy wykrywające AI, co może być przydatne w publikacjach, pracach domowych czy materiałach reklamowych.

Jednak uwaga – robisz to na własne ryzyko. Zanim zaczniesz usuwać te znaki, sprawdź, czy jest to zgodne z zasadami organizacji, w której chcesz użyć tekstu. Nie chciałbyś przecież mieć później kłopotów, gdy ktoś to wykryje.

Możesz skorzystać z narzędzi online albo usunąć tagi ręcznie, edytując tekst. Wystarczy użyć edytora, który pozwala na wyświetlanie niewidocznych znaków, a następnie usunąć je pojedynczo, zwracając uwagę na miejsca, gdzie powinny znajdować się zwykłe spacje i znaki interpunkcyjne. To czasochłonne, ale pozwala zrozumieć mechanizm działania znaków wodnych.

Czy każdy tekst musi być wolny od takich śladów? Czasami warto pozostawić informację, że powstał przy pomocy AI. Zastanów się nad kwestią etyki i przejrzystości: czy rzeczywiście chcesz ukrywać fakt, że korzystałeś ze sztucznej inteligencji? W szkołach czy dokumentach czasem wymagane jest uczciwe przyznanie, skąd pochodzi tekst.

Technologia nieustannie się rozwija. Zarówno metody znakowania treści przez AI, jak i narzędzia do ich usuwania są ciągle ulepszane. Warto śledzić nowości, aby być na bieżąco.

Na koniec zastanów się nad konsekwencjami ukrywania źródła treści. Najważniejsza jest rzetelność i wiarygodność Twojej pracy. Autentyczność naprawdę się liczy – choć czasem łatwiej jest coś „przefiltrować”, prawda?

Źródła:

https://nano.komputronik.pl/n/znak-wodny-w-chatgpt-jak-go-usunac/



AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

ZASADY TWORZENIA SKUTECZNYCH PROMPTÓW

Prompt to zapytanie lub polecenie, które wysyłasz do Chat AI, a dokładniej do modelu LLM (Large Language Model). Twój komunikat powinien zawierać jasne wskazówki dotyczące tego, co chcesz otrzymać. Jesteś szefem i tłumaczysz pracownikowi, co ma zrobić. Im dokładniej przekażesz polecenie, tym większy sukces osiągniesz. Precyzyjnie sformułowany prompt kieruje AI oraz wpływa na jakość odpowiedzi. Twoje słowa definiują, jakie informacje mają zostać wygenerowane. Gdy skończysz pisać prompt, zadaj sobie pytanie: czy na podstawie wpisanych informacji osiągniesz cel? Dzięki temu model lepiej zrozumie Twoje intencje i odpowie zgodnie z oczekiwaniami.

 

napis ,,prompt"

 

Źródło: ChatGPT

Twój prompt musi być precyzyjny i konkretny. Zamiast pisać ogólne pytanie, np. „Opowiedz o sztucznej inteligencji”, sprecyzuj, czego dokładnie oczekujesz. Na przykład: „Opisz rozwój systemów uczenia maszynowego w ostatniej dekadzie”. Taka precyzyjność zmniejsza liczbę niejasnych odpowiedzi.

Określ cel swojego zapytania. Zadaj sobie pytanie, co chcesz osiągnąć. Czy potrzebujesz analizy, propozycji rozwiązań, czy zestawienia faktów? Skoncentruj się na tym, aby AI wiedziała, jakiego rezultatu oczekujesz.

Podaj kontekst. Wprowadź niezbędne informacje, które pomogą inteligencji zrozumieć sytuację. Jeśli tworzysz prompt dla artykułu, wskaż, o jakiej dziedzinie mowa oraz jakie elementy mają zostać uwzględnione. Wskaż, w jaką rolę ma się wcielić AI. Kontekst pozwala na odpowiedź dopasowaną do Twoich potrzeb.

Zdefiniuj odbiorcę. Ustal, do kogo ma być skierowana treść. Czy ma być zrozumiała dla specjalistów, czy dla szerokiej publiczności? To ułatwia AI dostosowanie języka i poziomu szczegółowości.

Ustal format odpowiedzi. Określ, czy potrzebujesz listy, tabeli, krótkiego streszczenia czy rozbudowanego opisu. Określ liczbę znaków. Taki wskaźnik gwarantuje, że wynik będzie czytelny i łatwy do wykorzystania.

Wskaż styl i ton wypowiedzi. Powiedz, czy chcesz, aby tekst był formalny, techniczny, życzliwy czy prosty. Styl techniczny skupia się na precyzji i użyciu specjalistycznych terminów. Styl narracyjny pobudza kreatywność. Styl minimalistyczny ułatwia szybką interpretację. To pozwala na uzyskanie spójnej i adekwatnej formy wypowiedzi.

Podaj przykłady. Wpisz jeden lub dwa przykłady, aby wskazać kierunek rozumienia zadania. Pomysłowe przykłady pomagają AI dostosować odpowiedź do Twoich oczekiwań.

Unikaj wieloznaczności. Używaj prostych i krótkich zdań. Zrezygnuj ze skomplikowanych konstrukcji, które mogą wprowadzać zamieszanie. Twoja wiadomość musi być klarowna.

Testuj swoje prompy. Wypróbuj kilka wersji zapytania i oceniaj uzyskane rezultaty. Jeśli wynik nie spełnia oczekiwań, zmień sformułowanie. Nauka przez eksperyment pozwala osiągnąć idealny prompt.

Iteruj i poprawiaj. Analizuj odpowiedzi i modyfikuj zapytanie. Każda iteracja przybliża Cię do idealnego sformułowania. Twoja praca z promptami to ciągły proces doskonalenia.

Wykorzystaj feedback. Po otrzymaniu odpowiedzi zapytaj siebie, czy spełnia ona Twoje oczekiwania. Zapytaj, co można zrobić lepiej. To podejście pozwala na stałą poprawę jakości zapytań.

Ucz się na bieżąco. Obserwuj, jak reagują modele AI na Twoje zapytania. Szukaj nowych metod i śledź zmiany w narzędziach. Dostosowuj swój styl do aktualnych możliwości i ograniczeń technologii.

Oto przykład według powyższych zasad: „Jesteś ekspertem od marketingu internetowego z 20-letnim stażem. Opisz trzy sposoby, jak AI zmienia marketing internetowy. Podaj prawdziwe przykłady z życia wzięte, które się wydarzyły. Zaczerpnij informacje z internetu. Wypisz źródła. Przygotuj listę punktowaną z krótkimi opisami. Używaj fachowego języka. Tekst skieruj do właścicieli małych firm.”

Jak nie pisać promptów

Nie pytaj ogólnie i niejasno. Nie rozwlekaj zapytań na 1000 znaków. Unikaj zbędnych oraz skomplikowanych zdań, braku określonego celu, kontekstu i feedbacku. Taki chaos utrudnia AI zrozumienie Twoich intencji.

Źródła:

https://scislak.com/blog/jak-pisac-prompty-dla-sztucznej-inteligencji/

https://widoczni.com/blog/najlepsze-prompty-chatgpt/

https://www.exaity.pl/prompt-co-to-jest-i-jak-pisac-prompty-aby-osiagnac-to-czego-oczekujesz/

 

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

SKUTECZNE METODY KONTROLI RODZICIELSKIEJ W INTERNECIE

Temat skutecznej kontroli rodzicielskiej w sieci staje się coraz ważniejszy, zwłaszcza teraz, gdy cyfrowy świat wkracza w każdy zakamarek życia. Dzieciaki mają przecież niemal nieograniczony dostęp do smartfonów, tabletów czy komputerów. Jasne, internet to skarbnica wiedzy i rozrywki, ale też miejsce, gdzie łatwo natknąć się na rzeczy, które niekoniecznie są dla nich odpowiednie. I tu właśnie zaczyna się problem dla rodziców — jak zadbać o bezpieczeństwo swoich pociech. Autorzy raportu Nastolatki 3.0 z 2021 roku zwracają uwagę, że rodzice często nie zdają sobie sprawy, ile faktycznie czasu ich dzieci spędzają online, a dodatkowo często brakuje kontroli, zwłaszcza w nocy, kiedy niby powinien być spokój.

 

dziecko przed komputerem

Źródło: Copilot

Kontrola rodzicielska to narzędzie, które pomaga filtrować to, co młody użytkownik widzi i robi w sieci. W wielu systemach operacyjnych można już znaleźć wbudowane funkcje ochrony, a na rynku roi się od różnych specjalnych aplikacji stworzonych właśnie do tego celu. Na przykład, mOchrona — projekt prowadzony przez NASK PIB — pozwala rodzicom w dość prosty sposób ustawić limity czasu korzystania z internetu czy też blokować dostęp do wybranych stron i aplikacji. Takie rozwiązania są naprawdę pomocne, choć oczywiście nie zastąpią zdrowego rozsądku i rozmowy z dzieckiem, ale o tym każdy chyba wie, prawda?

Funkcje oferowane przez aplikację mOchrona od NASK PIB:

  • Konto rodzica – pozwala na wybór kategorii stron internetowych i aplikacji, do których dziecko nie powinno mieć dostępu.

  • Domyślnie zablokowane kategorie witryn zawierających przemoc oraz treści powszechnie uznawane za nieodpowiednie dla dzieci (można to zmienić).

  • Możliwość wysłania przez dziecko prośby o dostęp do zablokowanych treści.

  • Raportowanie czasu spędzonego przez dziecko, np. w mediach społecznościowych.

  • Przycisk S.O.S. – dziecko może zaalarmować opiekuna o treści, która budzi jego niepokój.

Skuteczna kontrola rodzicielska opiera się na połączeniu rozwiązań technicznych i szczerej rozmowy. Rodzice powinni edukować dzieci o zagrożeniach płynących z Internetu oraz pokazywać im, jak bezpiecznie korzystać z sieci. Narzędzia kontrolne wspierają budowanie świadomości cyfrowej i pomagają ustalić jasne reguły. Wdrożenie zabezpieczeń nie zastępuje dialogu z dzieckiem – wspólne ustalanie zasad sprzyja budowaniu zaufania i umożliwia szybką reakcję w razie wykrycia niepokojących sygnałów.

Nowoczesne programy kontroli rodzicielskiej pozwalają na bieżąco monitorować aktywność online. Rodzic może sprawdzić, które strony odwiedza dziecko oraz ile czasu spędza przy urządzeniach. Systemy te oferują możliwość blokowania treści dotyczących przemocy, pornografii oraz innych nieodpowiednich materiałów. Łatwa konfiguracja oprogramowania sprawia, że zabezpieczenia można szybko wdrożyć na wszystkich urządzeniach używanych przez dziecko. Regularna aktualizacja ustawień oraz systematyczny monitoring to klucz do skutecznej ochrony młodych użytkowników sieci.

Źródła:

https://www.gov.pl/web/cyfryzacja/kontrola-rodzicielska-online–chron-swoje-dzieci

Kontrola rodzicielska: Programy do blokady i ochrony rodzicielskiej

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

„CZY WARTO PUBLIKOWAĆ ZDJĘCIA SWOICH DZIECI W INTERNECIE?”

Rodzice codziennie stają przed wyborem, czy publikować zdjęcia swoich dzieci w Internecie. W dobie mediów społecznościowych łatwo podzielić się dowolną chwilą życia. Jednak każda publikacja pozostawia trwały ślad w cyfrowym świecie. Zdjęcia, które wydają się niewinne, mogą stać się częścią wizerunku dziecka na wiele lat.

 

dziecko z aparatem

 

Źródło: https://pixabay.com

Opublikowane zdjęcie może trafić w ręce osób o nieuczciwych zamiarach. Cyberprzestępcy wykorzystują każdy dostępny fragment informacji. Wizerunek dziecka może zostać powiązany z danymi osobowymi, co zwiększa ryzyko kradzieży tożsamości. Taka sytuacja może mieć daleko idące konsekwencje – zarówno w sferze bezpieczeństwa, jak i codziennego komfortu życia.

Decyzja o publikacji zdjęć ma także aspekt psychologiczny. Dziecko, którego obraz zostaje rozprzestrzeniony w sieci, nie zawsze wyraża na to zgodę. Jego cyfrowa przeszłość może wpłynąć na przyszłość – kontakty, relacje i perspektywy zawodowe. Dziecko, niezależnie od wieku, zasługuje na przestrzeń, w której sam decyduje o ujawnianiu swojego wizerunku. Warto o tym pamiętać już od najmłodszych lat.

Nowe zjawisko, zwane sharentingiem, pokazuje rosnącą tendencję rodziców do dzielenia się zdjęciami swoich pociech. Chwilowe emocje często przesłaniają długoterminowe ryzyko. Niekontrolowany dostęp do zdjęć może stać się przyczyną hejtu, cyberprzemocy czy nawet kontaktów z osobami o niewłaściwych zamiarach. Rodzice powinni zdawać sobie sprawę, że raz opublikowane zdjęcie nie znika z Internetu.

W praktyce warto ograniczyć publikację zdjęć do najbezpieczniejszych ujęć. Rodzice powinni sprawdzić ustawienia prywatności na profilach społecznościowych. Decydując się na publikację, lepiej unikać zdjęć, które ujawniają zbyt wiele informacji o miejscu zamieszkania czy codziennych zwyczajach. Dobrą praktyką jest także konsultacja z dzieckiem – jeśli ma już świadomość, warto zapytać, czy czuje się komfortowo z danym zdjęciem w sieci.

Eksperci z zakresu cyberbezpieczeństwa i psychologii podkreślają, że ochrona danych dziecka to inwestycja w jego przyszłość. Każda, nawet pozornie niewinna publikacja, wymaga odpowiedzialnej oceny ryzyka. Dbając o prywatność, rodzice chronią nie tylko bezpieczeństwo fizyczne, ale też emocjonalne dziecka. Odpowiedzialne podejście może uchronić przed przykrymi konsekwencjami wynikającymi z nieprzemyślanych decyzji.

Decyzja o publikacji zdjęć dziecka w Internecie musi być głęboko przemyślana. Rodzice powinni łączyć emocje z rozwagą. Warto korzystać z dostępnych narzędzi ochrony prywatności i pamiętać o długofalowych skutkach. Bezpieczeństwo oraz dobrostan dziecka muszą być zawsze na pierwszym miejscu. W ten sposób można cieszyć się wspomnieniami, nie narażając przyszłości najmłodszych na nieprzewidziane zagrożenia.

Źródła:

https://niebezpiecznik.pl/post/dlaczego-lepiej-nie-publikowac-zdjec-swojego-dziecka-w-sieci https://tvnstyle.pl/czy-warto-publikowac-zdjecia-dzieci-w-internecie-poznaj-potencjalne-zagrozenia-st8045499

https://newsy.mamotoja.pl/newsy/udostepniasz-zdjecia-dzieci-w-internecie-zastanow-sie-czy-warto-eksperci-ostrzegaja-o-nowych-zagrozeniach/

https://fundacja.orange.pl/strefa-wiedzy/post/publikowac-wizerunek-dziecka-w-internecie-czy-nie-co-warto-wziac-pod-uwage



AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.

Nastoletni mózg w mediach społecznościowych: Jak lajki kształtują decyzje i emocje młodych ludzi

Nastoletni mózg to struktura niezwykle wrażliwa na bodźce cyfrowe. Media społecznościowe wnikają w codzienne życie młodych ludzi. Lajki pełnią tu kluczową rolę. Każdy pozytywny sygnał wysyłany w sieci wywołuje silne emocje. Badania naukowe pokazują, że mózg nastolatka reaguje na nie tak, jak na bliskie relacje czy nagrody. Funkcjonalny rezonans magnetyczny jednoznacznie obrazuje, jak aktywny staje się układ nagrody przy odbiorze lajków.

 

nastolatek w telefonie

Źródło: https://copilot.microsoft.com

W eksperymencie przeprowadzonym przez naukowców z UCLA mierzono aktywność mózgu nastolatków podczas przeglądania zdjęć w stylu Instagrama. Uczestnicy widzieli zdjęcia z umieszczoną przy nich liczbą lajków. Wyniki pokazały, że im więcej polubień, tym silniejsza reakcja mózgu. Zaskakujące było to, że reakcje przy własnych zdjęciach były równie silne jak przy bardzo pozytywnych wydarzeniach w życiu. Takie odkrycia wskazują, że lajki wpływają na decyzje i emocje młodych ludzi, kształtując ich postrzeganie własnej wartości.

Lajki stają się znakiem akceptacji. Młodzi użytkownicy zaczynają postrzegać swoją tożsamość przez pryzmat popularności w sieci. Każdy brak lajków może odbić się negatywnie na samoocenie. W efekcie nastolatkowie coraz częściej szukają w mediach potwierdzenia swojej wartości. Tego rodzaju mechanizmy mogą prowadzić do uzależnienia od mediów społecznościowych i wzmacniać presję społeczną.

Ważne jest, aby rodzice, nauczyciele i opiekunowie rozmawiali z młodzieżą o skutkach takiego podejścia. Warto wyjaśniać, że liczba lajków nie definiuje osoby. Dobrą praktyką jest ustalanie zasad korzystania z mediów. Przykładowo, można wprowadzić ograniczenia czasowe czy wspólnie ustalać zasady publikacji. Takie działania pomagają wypracować zdrowe nawyki i chronić emocjonalny dobrostan młodych ludzi.

Kolejnym aspektem jest edukacja cyfrowa. Młodzież musi uczyć się krytycznego oceniania treści publikowanych w sieci. Znalezienie równowagi między światem online a realnym staje się kluczem do ochrony zdrowia psychicznego. Wsparcie dorosłych umożliwia lepsze radzenie sobie z presją i stresem wywołanym przez negatywny feedback. Przykładami mogą być wspólne warsztaty lub szkolenia dotyczące cyfrowej higieny, które uczą odpowiedzialnego korzystania z technologii.

Media społecznościowe kształtują nie tylko emocje, ale i decyzje. Młodzi ludzie angażują się w działania, które ich zdaniem będą miały szansę zdobyć więcej lajków. Taka logika często prowadzi do nieprzemyślanych wyborów. Dlatego tak istotna jest rozmowa o wartościach i autentyczności. Warto podkreślić, że wiarygodność i umiejętność krytycznego spojrzenia na informacje mają większe znaczenie niż chwilowa popularność.



Źródła użyte w tekście:

https://nask.pl/magazyn/nastoletni-mozg-w-mediach-spolecznosciowych

https://highlab.pl/lajki-nastroje-mlodych-osob/

https://issuu.com/zcdn/docs/refleksje_4_2021/s/12731943

 

AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.