przestępcze wykorzystanie generatywnej AI

Podczas konferencji RSA 2024, która skończyła się 9 maja w San Francisco, Trend Micro przedstawił wyniki swojego dochodzenia przeprowadzonego w 2023 r. w sprawie przestępczego wykorzystania generatywnej AI. Podsumowując ten raport, Trend Micro wskazuje tylko jednego kryminalistę LLM: WormGPT.

Dla przypomnienia, LLM to Duży Model Językowy (Large Language Model), czyli rodzaj zaawansowanego algorytmu sztucznej inteligencji, specjalizującego się w przetwarzaniu i generowaniu języka naturalnego. Wykorzystuje on ogromne zbiory danych tekstowych do nauki, pomagające rozumieć, interpretować i tworzyć ludzki język w taki sposób, by wydawał się naturalny i płynny.

Zamiast rozwoju LLM i AI opartej na tej koncepcji zwiększa się częstość występowania usług wykorzystujących jailbreaking. Przywołać możemy tu np. EscapeGPT, BlackHatGPT czy LoopGPT.

Wzrasta także liczba „usług”, których cel jest niejasny. Nie zapewniają one wersji demonstracyjnej i wspominają jedynie o swoich rzekomych możliwościach: dużo obietnic, mało dowodów. Trend Micro nie jest pewien co do przydatności ani wartości niektórych ofert i umieszcza je w osobnej kategorii oznaczonej jako oszustwo na GPT. Takie przykłady to XXX.GPT, WolfGPT, EvilGPT, DarkBARD, DarkBERT i DarkGPT.

Krótko mówiąc, przestępcy próbują oszukać innych przestępców lub koncentrują się na wykorzystaniu popularnych produktów sztucznej inteligencji, zamiast opracowywać własne systemy. Widać to w wykorzystaniu AI w innych usługach. Narzędzie hakerskie Predator zawiera funkcję GPT, wykorzystującą ChatGPT do oszustw w tworzeniu tekstu.

Widać to również po rosnącej liczbie usług typu deepfake. „Ogólnie rzecz biorąc, tworzenie deepfake’a, który jest wystarczająco dobry do szerokich ataków, skierowanych do odbiorców, którzy nie mają dogłębnej wiedzy, staje się dość łatwe i tanie obliczeniowo” – mówi Trend.

Deepfaki obrazu lub wideo mogą być obsługiwane przez deepfaki głosowe. Wynik jest na tyle dobry, że można oszukać osoby z niewielką bezpośrednią wiedzą na temat fałszywej osoby, dlatego usługi zwykle koncentrują się na elemencie polegającym na tworzeniu fałszywego konta.

Pomimo obecnego braku przestępczego wykorzystywania gen-AI na dużą skalę, badacze Trendu podkreślają przesłanki wskazujące, że może się to zmienić. Głównymi priorytetami przestępców jest nauczenie się korzystania ze sztucznej inteligencji bez zmiany preferencji „ewolucji nad rewolucją”, uzyskanie maksymalnego zwrotu z minimalnego wysiłku i ukrywanie się przed organami ścigania.

Pierwsza zasada wyjaśnia brak pilności. Sztuczna inteligencja jest rewolucyjna, a przestępcy niechętnie porzucają swoje sprawdzone i skuteczne metody. Zasada maksymalnego zwrotu z wysiłku wyjaśnia niedostatek LLM stworzonych przez przestępczość: po co tracić czas, energię i pieniądze na opracowywanie nowych metod, skoro istniejące są już bardzo skuteczne? Trzecia zasada wyjaśnia rozwój usług jailbreakowania.

Usługi jailbreakowania umożliwiają przestępcom korzystanie z istniejących LLM – obecnie prawie wyłącznie z ChatGPT – przy minimalnym prawdopodobieństwie wyśledzenia. Microsoft i OpenAI wykazały już możliwość profilowania użycia ChatGPT przez APT na podstawie treści pytań i lokalizacji źródłowych adresów IP.

Według badaczy z Trend Micro przestępcy niechętnie korzystają bezpośrednio z usług takich jak ChatGPT czy Gemini, ponieważ można je zdemaskować i prześledzić. Właśnie dlatego widzimy, jak podziemie przestępcze oferuje w zasadzie usługi proxy, które próbują rozwiązać wszystkie problemy, takie jak anonimowość, prywatność i bariery wokół LLM. Usługi jailbreakowania dają przestępcom anonimowy dostęp do LLM, prawdopodobnie poprzez skradzione konta.

Obecnie nie widzimy odrzucenia sztucznej inteligencji przez cyberprzestępców ani nawet braku jej zrozumienia, ale raczej ostrożne i metodyczne uwzględnianie jej możliwości. Proces ten prawdopodobnie nabierze tempa i ostatecznie obejmie bezpośrednie wykorzystanie wyspecjalizowanych kryminalnych LLM.

„Oczekujemy”, mówią badacze, „że usługi, które obecnie udostępniamy, staną się bardziej wyrafinowane i być może zaadoptują inne LLM”. Na razie ChatGPT jest liderem rynku zarówno pod względem użytkowania, jak i wydajności, ale inne LLM są udoskonalane. HuggingFace obsługuje już ponad 6700 LLM. Zwykle są to mniejsze i bardziej wyspecjalizowane modele, ale według Trenda „są konkurencją dla ChatGPT i Gemini oraz Anthropic i Mistral”.

Inną kategorią są deepfaki. Ulepszone mogą znaleźć się wśród najwcześniejszych zastosowań. „Zaczęliśmy sprawdzać, jak deepfaki można zastosować w praktycznych scenariuszach, takich jak omijanie weryfikacji Know Your Customer. Może to prowadzić do kolejnej zabawy w kotka i myszkę, w której instytucje finansowe będą zmuszone znaleźć lepsze sposoby uwierzytelniania użytkowników, a przestępcy znajdą nowe techniki unikania weryfikacji użytkownika, wykorzystując na przykład bardziej wyrafinowane deepfaki”.

Jednak firma Trend Micro w dalszym ciągu powstrzymuje się od przyłączania się do scenariusza „zagłady i mroku” związanego ze sztuczną inteligencją. Oceniając ogólnie całość rywalizacji w obszarze AI pomiędzy przestępcami a obrońcami, obrońcy mają obecnie przewagę.

Podziel się z innymi tym artykułem!