Menu dostępności

To już się dzieje. Opisujemy, jak działa malware generowany przez AI

HP, a właściwie część korporacji odpowiedzialna za cyberbezpieczeństwo, przechwyciła kampanię e-mailową zawierającą standardowe złośliwe oprogramowanie, które dostarczył dropper generowany przez sztuczną inteligencję. Zastosowanie gen-AI w dropperze jest z pewnością istotnym krokiem ewolucyjnym – nowym etapem w tworzeniu ładunków złośliwego oprogramowania generowanego przez sztuczną inteligencję.

W czerwcu 2024 r. HP odkryło phishingową wiadomość e-mail, zawierającą popularną przynętę z motywem faktury i zaszyfrowanym załącznikiem HTML – czyli standardowy przemyt HTML w celu uniknięcia wykrycia przez brzegówkę. Nie ma tu nic nowego – może z wyjątkiem szyfrowania. Zwykle phisher wysyła do celu gotowy, zaszyfrowany plik archiwum. „W tym wypadku – wyjaśnił Patrick Schlapfer, główny badacz zagrożeń w HP – osoba atakująca zaimplementowała w załączniku klucz deszyfrujący AES w języku JavaScript. Nie jest to częste zjawisko i był to główny powód, dla którego przyjrzeliśmy się bliżej temu przypadkowi”.

Odszyfrowany załącznik otwiera się w sposób przypominający stronę internetową, ale zawiera skrypt VBScript i ogólnodostępną aplikację do kradzieży informacji AsyncRAT. VBScript jest dropperem dla ładunku służącego do kradzieży informacji. Zapisuje różne zmienne w rejestrze i upuszcza plik JavaScript do katalogu użytkownika, który jest następnie wykonywany jako zaplanowane zadanie. Tworzony jest skrypt PowerShell, który ostatecznie powoduje wykonanie ładunku AsyncRAT.

Wszystko to jest dość standardowe, ale nie pod jednym względem. „Skrypt VBScript miał przejrzystą strukturę, a każde ważne polecenie zostało skomentowane. To niezwykłe” – dodał Schlapfer. Złośliwe oprogramowanie jest zazwyczaj zaciemniane i nie zawiera komentarzy. Tu było odwrotnie. Ponadto skrypt został napisany w języku francuskim, który działa, ale nie jest językiem powszechnie wybieranym przez twórców szkodliwego oprogramowania. Takie wskazówki skłoniły badaczy do uznania, że scenariusz nie został napisany przez człowieka, ale dla człowieka przez gen-AI.

Badacze z HP przetestowali tę teorię, używając własnej gen-AI do stworzenia scenariusza o bardzo podobnej strukturze i komentarzach. Chociaż wynik nie jest stuprocentowym dowodem, badacze są pewni, że szkodliwe oprogramowanie typu dropper zostało wytworzone za pośrednictwem gen-AI.

I, jak zawsze przy inwestygacji, pojawiły się kolejne pytania. Dlaczego nie zostało to zaciemnione? Dlaczego osoba atakująca nie usunęła komentarzy? Czy szyfrowanie również zostało wdrożone przy pomocy sztucznej inteligencji? Odpowiedź może być związana z powszechnym poglądem na zagrożenie AI – obniża ona barierę wejścia dla hakerskich nowicjuszy.

„Zazwyczaj kiedy oceniamy atak, sprawdzamy wymagane umiejętności i zasoby. W tym przypadku niezbędne zasoby są minimalne. Ładunek AsyncRAT jest swobodnie dostępny. Przemyt HTML nie wymaga wiedzy programistycznej. Poza jednym serwerem C&C nie ma infrastruktury umożliwiającej kontrolę nad złodziejem informacji. Szkodnik ma charakter podstawowy i nie jest zaciemniony. Krótko mówiąc, jest to atak niskiej jakości” – wyjaśnił Alex Holland, współprowadzący wraz ze Schlapferem i główny badacz zagrożeń.

Wniosek ten wzmacnia podejrzenie, że atakujący jest nowicjuszem korzystającym z gen-AI i że być może to właśnie dlatego skrypt wygenerowany przez sztuczną inteligencję pozostał niezaciemniony i pozostały w nim komentarze, bez których prawie niemożliwe byłoby stwierdzenie, że mógł zostać wygenerowany przez sztuczną inteligencję.

To rodzi drugie pytanie. Jeśli założymy, że to szkodliwe oprogramowanie zostało wygenerowane przez niedoświadczonego przeciwnika, który pozostawił wskazówki dotyczące stosowania sztucznej inteligencji, czy sztuczna inteligencja mogłaby być wykorzystywana w szerszym zakresie przez bardziej doświadczonych przeciwników, którzy nie zostawiliby takich wskazówek? To możliwe. W rzeczywistości jest to prawdopodobne, ale w dużej mierze niewykrywalne i niemożliwe do udowodnienia.

„Od pewnego czasu wiemy, że gen-AI może zostać wykorzystane do generowania złośliwego oprogramowania” – powiedział Holland. „Ale nie widzieliśmy żadnego ostatecznego dowodu. Teraz mamy punkt danych, który mówi nam, że przestępcy wykorzystują sztuczną inteligencję w praktyce”. To kolejny krok na drodze do tego, czego się oczekuje: nowych ładunków generowanych przez sztuczną inteligencję, nie tylko dropperów.

„Myślę, że bardzo trudno jest przewidzieć, jak długo to zajmie” – kontynuował Holland. „Biorąc jednak pod uwagę, jak szybko rosną możliwości technologii gen-AI, nie jest to trend długoterminowy. Jeśli miałbym określić konkretną datę, z pewnością stanie się to w ciągu najbliższych kilku lat.

Popularne

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

W tym artykule pokażemy, jak możemy zmienić hasło administratora na komputerze posiadając do niego fizyczny dostęp. Artykuł ten można potraktować także jako przestrogę dla firm, które nie zaimplementowały jeszcze odpo...
Jak awaria Azure Front Door rzuciła cień na globalne usługi chmurowe

Jak awaria Azure Front Door rzuciła cień na globalne usługi chmurowe

W środę 9 października użytkownicy platformy Microsoft Azure na całym świecie doświadczyli poważnych zakłóceń. Wiele usług stało się niedostępnych, a administratorzy nie mogli nawet zalogować się do portalu...
Jak poznać hasło administratora lub użytkowników logujących się do Twojego komputera?

Jak poznać hasło administratora lub użytkowników logujących się do Twojego komputera?

Jeśli masz odrobinę szczęścia lub „odpowiednie umiejętności” i potrafisz zdobyć lokalne uprawnienia administracyjne na Twoim komputerze w firmie lub zaliczasz się do grona tych szczęściarzy, którzy pracuj...
Czego nie mówi Broadcom? Luka w VMware jest banalna do wykorzystania i korzysta z niej co najmniej jedna grupa hakerska!

Czego nie mówi Broadcom? Luka w VMware jest banalna do wykorzystania i korzysta z niej co najmniej jedna grupa hakerska!

Niedawno załatana wysoce poważna luka w zabezpieczeniach VMware jest wykorzystywana jako zero-day od października 2024 roku do wykonywania kodu z podwyższonymi uprawnieniami. Taką informacją podzieliło się w...
Uwaga, administratorzy oraz zespoły bezpieczeństwa Splunk! Sześć krytycznych luk w Splunk Enterprise – analiza i rekomendacje

Uwaga, administratorzy oraz zespoły bezpieczeństwa Splunk! Sześć krytycznych luk w Splunk Enterprise – analiza i rekomendacje

Splunk opublikował ważne informacje, dotyczące szeregu nowych podatności w swoich produktach Splunk Enterprise i Splunk Cloud Platform. Luki mogą umożliwić atakującym wykonanie nieautoryzowanego kodu Ja...