Niestety AI pozwala przestępcom tworzyć bardzo realistyczne wiadomości, obrazy i głosy. Dzięki możliwości analizy bardzo dużej ilości danych i korelacji zależności oszuści mogą przygotować precyzyjne celowane ataki na wybrane instytucje w dotąd niespotykanej skali. Oszustwa stają się coraz bardziej wyrafinowane i trudniejsze do rozpoznania co powinno skłonić organizacje do opracowania nowych strategii ochrony.

Źródło https://www.nask.pl
Nask przedstawia przykłady zastosowań sztucznej inteligencji przez hakerów:
-
Automatyzacja ataków phishingowych: Boty AI mogą masowo rozsyłać wiadomości phishingowe, oceniać szanse na oszustwo i selekcjonować ofiary.
-
Phishing głosowy (vishing): AI tworzy realistyczne fałszywe głosy, które są trudne do odróżnienia od prawdziwych rozmów telefonicznych, wymagając zaledwie kilku sekund próbki głosu.
-
Manipulacje audiowizualne (deepfake): AI modyfikuje lub generuje materiały audiowizualne z wizerunkami znanych osób, by promować narzędzia lub zachęcać do kliknięć/pobierania.
-
Tworzenie fałszywych tożsamości: AI generuje autentycznie wyglądające profile w mediach społecznościowych, w tym zdjęcia, posty i wirtualne grupy znajomych, zwiększając skuteczność oszustw socjotechnicznych.
-
Automatyzacja interakcji: Chatboty AI prowadzą realistyczne rozmowy z ofiarami, by skłonić je do ujawnienia informacji lub wykonania działań.
-
Personalizacja ataków: AI analizuje dane ofiar (np. z mediów społecznościowych) w celu tworzenia spersonalizowanych i trudniejszych do wykrycia wiadomości oraz scenariuszy ataków.
Źródła:
NASK, „Sztuczna inteligencja a oszustwa internetowe” https://bezpiecznymiesiac.pl/bm/aktualnosci/1434,Sztuczna-inteligencja-a-oszustwa-internetowe.html?sid=16c7452d62eaa24527875be7b02782b8
AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzi SI.
