Menu dostępności

przestępcze wykorzystanie generatywnej AI

Czy w dziedzinie sztucznej inteligencji cyberprzestępcy pozostają w tyle?

Podczas konferencji RSA 2024, która skończyła się 9 maja w San Francisco, Trend Micro przedstawił wyniki swojego dochodzenia przeprowadzonego w 2023 r. w sprawie przestępczego wykorzystania generatywnej AI. Podsumowując ten raport, Trend Micro wskazuje tylko jednego kryminalistę LLM: WormGPT.

Dla przypomnienia, LLM to Duży Model Językowy (Large Language Model), czyli rodzaj zaawansowanego algorytmu sztucznej inteligencji, specjalizującego się w przetwarzaniu i generowaniu języka naturalnego. Wykorzystuje on ogromne zbiory danych tekstowych do nauki, pomagające rozumieć, interpretować i tworzyć ludzki język w taki sposób, by wydawał się naturalny i płynny.

Zamiast rozwoju LLM i AI opartej na tej koncepcji zwiększa się częstość występowania usług wykorzystujących jailbreaking. Przywołać możemy tu np. EscapeGPT, BlackHatGPT czy LoopGPT.

Wzrasta także liczba „usług”, których cel jest niejasny. Nie zapewniają one wersji demonstracyjnej i wspominają jedynie o swoich rzekomych możliwościach: dużo obietnic, mało dowodów. Trend Micro nie jest pewien co do przydatności ani wartości niektórych ofert i umieszcza je w osobnej kategorii oznaczonej jako oszustwo na GPT. Takie przykłady to XXX.GPT, WolfGPT, EvilGPT, DarkBARD, DarkBERT i DarkGPT.

Krótko mówiąc, przestępcy próbują oszukać innych przestępców lub koncentrują się na wykorzystaniu popularnych produktów sztucznej inteligencji, zamiast opracowywać własne systemy. Widać to w wykorzystaniu AI w innych usługach. Narzędzie hakerskie Predator zawiera funkcję GPT, wykorzystującą ChatGPT do oszustw w tworzeniu tekstu.

Widać to również po rosnącej liczbie usług typu deepfake. „Ogólnie rzecz biorąc, tworzenie deepfake’a, który jest wystarczająco dobry do szerokich ataków, skierowanych do odbiorców, którzy nie mają dogłębnej wiedzy, staje się dość łatwe i tanie obliczeniowo” – mówi Trend.

Deepfaki obrazu lub wideo mogą być obsługiwane przez deepfaki głosowe. Wynik jest na tyle dobry, że można oszukać osoby z niewielką bezpośrednią wiedzą na temat fałszywej osoby, dlatego usługi zwykle koncentrują się na elemencie polegającym na tworzeniu fałszywego konta.

Pomimo obecnego braku przestępczego wykorzystywania gen-AI na dużą skalę, badacze Trendu podkreślają przesłanki wskazujące, że może się to zmienić. Głównymi priorytetami przestępców jest nauczenie się korzystania ze sztucznej inteligencji bez zmiany preferencji „ewolucji nad rewolucją”, uzyskanie maksymalnego zwrotu z minimalnego wysiłku i ukrywanie się przed organami ścigania.

Pierwsza zasada wyjaśnia brak pilności. Sztuczna inteligencja jest rewolucyjna, a przestępcy niechętnie porzucają swoje sprawdzone i skuteczne metody. Zasada maksymalnego zwrotu z wysiłku wyjaśnia niedostatek LLM stworzonych przez przestępczość: po co tracić czas, energię i pieniądze na opracowywanie nowych metod, skoro istniejące są już bardzo skuteczne? Trzecia zasada wyjaśnia rozwój usług jailbreakowania.

Usługi jailbreakowania umożliwiają przestępcom korzystanie z istniejących LLM – obecnie prawie wyłącznie z ChatGPT – przy minimalnym prawdopodobieństwie wyśledzenia. Microsoft i OpenAI wykazały już możliwość profilowania użycia ChatGPT przez APT na podstawie treści pytań i lokalizacji źródłowych adresów IP.

Według badaczy z Trend Micro przestępcy niechętnie korzystają bezpośrednio z usług takich jak ChatGPT czy Gemini, ponieważ można je zdemaskować i prześledzić. Właśnie dlatego widzimy, jak podziemie przestępcze oferuje w zasadzie usługi proxy, które próbują rozwiązać wszystkie problemy, takie jak anonimowość, prywatność i bariery wokół LLM. Usługi jailbreakowania dają przestępcom anonimowy dostęp do LLM, prawdopodobnie poprzez skradzione konta.

Obecnie nie widzimy odrzucenia sztucznej inteligencji przez cyberprzestępców ani nawet braku jej zrozumienia, ale raczej ostrożne i metodyczne uwzględnianie jej możliwości. Proces ten prawdopodobnie nabierze tempa i ostatecznie obejmie bezpośrednie wykorzystanie wyspecjalizowanych kryminalnych LLM.

„Oczekujemy”, mówią badacze, „że usługi, które obecnie udostępniamy, staną się bardziej wyrafinowane i być może zaadoptują inne LLM”. Na razie ChatGPT jest liderem rynku zarówno pod względem użytkowania, jak i wydajności, ale inne LLM są udoskonalane. HuggingFace obsługuje już ponad 6700 LLM. Zwykle są to mniejsze i bardziej wyspecjalizowane modele, ale według Trenda „są konkurencją dla ChatGPT i Gemini oraz Anthropic i Mistral”.

Inną kategorią są deepfaki. Ulepszone mogą znaleźć się wśród najwcześniejszych zastosowań. „Zaczęliśmy sprawdzać, jak deepfaki można zastosować w praktycznych scenariuszach, takich jak omijanie weryfikacji Know Your Customer. Może to prowadzić do kolejnej zabawy w kotka i myszkę, w której instytucje finansowe będą zmuszone znaleźć lepsze sposoby uwierzytelniania użytkowników, a przestępcy znajdą nowe techniki unikania weryfikacji użytkownika, wykorzystując na przykład bardziej wyrafinowane deepfaki”.

Jednak firma Trend Micro w dalszym ciągu powstrzymuje się od przyłączania się do scenariusza „zagłady i mroku” związanego ze sztuczną inteligencją. Oceniając ogólnie całość rywalizacji w obszarze AI pomiędzy przestępcami a obrońcami, obrońcy mają obecnie przewagę.

Popularne

Nowe podatności w architekturze sieci 5G

Nowe podatności w architekturze sieci 5G

Nowe badania nad architekturą 5G ujawniły lukę w zabezpieczeniach modelu dzielenia sieci oraz zwirtualizowanych funkcjach sieciowych, które można wykorzystać do nieautoryzowanego dostępu do danych, a tak...
Czym są non-human identities (NHI)? Jak możemy je chronić i jakie zagrożenia stwarzają dla organizacji?

Czym są non-human identities (NHI)? Jak możemy je chronić i jakie zagrożenia stwarzają dla organizacji?

W dzisiejszym artykule opisujemy pewien problem istniejący w firmach i organizacjach, związany z tożsamościami nieludzkimi (non-human identities), czyli inaczej – tożsamościami niezwiązanymi z pracow...
Pięć prognoz cyberbezpieczeństwa na 2026 rok

Pięć prognoz cyberbezpieczeństwa na 2026 rok

Końcówka roku to tradycyjnie czas podsumowań – ale również przewidywań. Dr Torsten George pokusił się właśnie o te ostatnie. Portal SecurityWeek opublikował jego pięć prognoz cyberbezpieczeństwa na rok 2026. Do...
Polowanie na eskalację uprawnień w Windows: sterowniki jądra i Named Pipe pod lupą

Polowanie na eskalację uprawnień w Windows: sterowniki jądra i Named Pipe pod lupą

Podatności typu Local Privilege Escalation (LPE) pozostają jednym z kluczowych elementów realnych ataków na systemy Windows. Nawet przy poprawnie skonfigurowanym systemie i aktualnym oprogramowaniu bł...
Sekrety, które powinny pozostać sekretami – czyli jak chronić poświadczenia (credentials) NHI – część 2

Sekrety, które powinny pozostać sekretami – czyli jak chronić poświadczenia (credentials) NHI – część 2

Skoro znamy już źródła problemów, przejdźmy do drugiej części naszego opracowania, czyli poradnika. Poniżej przedstawiamy najlepsze praktyki w zarządzaniu sekretami kont maszynowych. Jakie są najlep...