CZY AI POMAGA HAKEROM?

Niestety AI pozwala przestępcom tworzyć bardzo realistyczne wiadomości, obrazy i głosy. Dzięki możliwości analizy bardzo dużej ilości danych i korelacji zależności oszuści mogą przygotować precyzyjne celowane ataki na wybrane instytucje w dotąd niespotykanej skali. Oszustwa stają się coraz bardziej wyrafinowane i trudniejsze do rozpoznania co powinno skłonić organizacje do opracowania nowych strategii ochrony.

 

sztuczna inteligencja

Źródło https://www.nask.pl

Nask przedstawia przykłady zastosowań sztucznej inteligencji przez hakerów:

  • Automatyzacja ataków phishingowych: Boty AI mogą masowo rozsyłać wiadomości phishingowe, oceniać szanse na oszustwo i selekcjonować ofiary.

  • Phishing głosowy (vishing): AI tworzy realistyczne fałszywe głosy, które są trudne do odróżnienia od prawdziwych rozmów telefonicznych, wymagając zaledwie kilku sekund próbki głosu.

  • Manipulacje audiowizualne (deepfake): AI modyfikuje lub generuje materiały audiowizualne z wizerunkami znanych osób, by promować narzędzia lub zachęcać do kliknięć/pobierania.

  • Tworzenie fałszywych tożsamości: AI generuje autentycznie wyglądające profile w mediach społecznościowych, w tym zdjęcia, posty i wirtualne grupy znajomych, zwiększając skuteczność oszustw socjotechnicznych.

  • Automatyzacja interakcji: Chatboty AI prowadzą realistyczne rozmowy z ofiarami, by skłonić je do ujawnienia informacji lub wykonania działań.

  • Personalizacja ataków: AI analizuje dane ofiar (np. z mediów społecznościowych) w celu tworzenia spersonalizowanych i trudniejszych do wykrycia wiadomości oraz scenariuszy ataków.



Źródła:

NASK, „Sztuczna inteligencja a oszustwa internetowe” https://bezpiecznymiesiac.pl/bm/aktualnosci/1434,Sztuczna-inteligencja-a-oszustwa-internetowe.html?sid=16c7452d62eaa24527875be7b02782b8



AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.