Menu dostępności

Jak sztuczna inteligencja wykorzystywana jest w złośliwym oprogramowaniu?

Technologia uczenia maszynowego, popularnie zwana sztuczną inteligencją, coraz częściej wykorzystywana jest nie tylko przez zaawansowane systemy obronne, ale również przez złośliwe oprogramowanie. Dzieje się tak, ponieważ rynek cyberbezpieczeństwa napędza sam siebie. Gdy pojawi się nowe zagrożenie, podatność czy backdoor, narzędzia obronne wprowadzają funkcjonalności i poprawki, aby łagodzić skutki lub zapobiegać nowym atakom. To samo dzieje się w drugą stronę. Gdy rozwiązania cybersecurity zaczęły bazować na uczeniu maszynowym i wykrywać anomalie, twórcy złośliwego oprogramowania w kontrataku również zaprzęgli do działania sztuczną inteligencję.


Teraźniejszość AI w malware

Obecnie coraz bardziej powszechne staje się używanie machine learningu do ukrywania złośliwego kodu w legalnych aplikacjach, odwlekania wywołania kodu w czasie czy analizy zainfekowanych użytkowników i maszyn. Opisany przez nas malware Dexphot wykorzystuje podobne metody.

Najbardziej popularnym zastosowaniem jest analiza środowiska już po dostarczeniu złośliwego oprogramowania i wykrycie odpowiedniego momentu do ataku, czyli uruchomienia złośliwego kodu ukrytego w paczce. Taki malware może być zaszyty w systemie nawet miesiącami i niezauważalnie karmić się danymi o środowisku. Po dokonaniu wnikliwej analizy i rozpatrzeniu wszystkich przypadków zaatakuje w najmniej spodziewanym momencie.

Dla przykładu, organizacja TaskRabbit została dotknięta w 2018 roku atakiem hackerskim, który naraził na kompromitacje i wyciek danych ponad 3,7 miliona użytkowników. Po przeprowadzeniu dochodzenia okazało się, że atak nie był w ogóle widoczny w środowisku informatycznym na żadnym z poziomów sieciowych i aplikacyjnych. Dopiero po znalezieniu złośliwego kodu i jego analizie okazało się, że wykorzystuje on sprytne algorytmy i uczy się środowiska, między innymi cyklu aktualizacji, zaufanych protokołów, dostępnych zasobów, tak aby zaatakować niezauważalnie i podszyć się pod zaufaną aplikacje.

Kolejnym przykładem malware wykorzystującym sztuczną inteligencję jest robot o nazwie TrickBot ze swoim najnowszym rozszerzeniem TrickBooster. Według raportu specjalistów z Deep Instinct udało mu się zebrać bazę 250 adresów mailowych wraz z poświadczeniami, z różnych domen i organizacji. Działanie bota polegało na rozsyłaniu złośliwych wiadomości ze skompromitowanych już skrzynek do nowych celów, a następnie kasowanie wiadomości z folderu „wysłane”, tak aby ukryć ślady kompromitacji. Nowe cele jak i treść wiadomości były wybierane na podstawie istniejącej korespondencji w przejętych skrzynkach mailowych.


Przyszłość AI w malware

Nietrudno wyobrazić sobie doskonałego robaka komputerowego, który rozprzestrzenia się w tempie WannaCry, a zarazem uczy się z każdego zdarzenia wykrycia i jest coraz bardziej niezawodny i niebezpieczny. Jeśli cyberprzestępcy pójdą w te stronę, możemy doświadczyć infekcji na niespotykaną dotąd skalę. Wystarczy sprytny mechanizm przesyłający jak najwięcej danych do analizy podczas wykrycia lub tuż przed wykryciem, a taka rodzina uczących się robaków mogłaby w błyskawicznym tempie ruchem bocznym opanować całą sieć. Jeśli chodzi o trojany, to scenariusz jest niewiele łagodniejszy. Malware o nazwie Swizzor posiada umiejętność tworzenia nowych wersji swoich plików, modyfikując tylko kilka linijek kodu. Pozwala to na skuteczne oszukanie sygnatur w antywirusach. Ulepszenie tej metody za pomocą sztucznej inteligencji może spowodować drastyczny spadek skuteczności rozwiązań bazujących na sygnaturach.

W 2018 roku, na konferencji Black Hat w USA, IBM zaprezentował możliwości złośliwego oprogramowania opartego o uczenie maszynowe. W ramach studium przypadku specjaliści IBM opracowali narzędzie o nazwie DeepLocker, który służy do przeprowadzania ataku z ukrycia. Wirus podszywa się pod oprogramowanie do wideokonferencji w niespotykany dotąd sposób. Jest instalowane w środowisku przez administratorów i działa jako w pełni wiarygodna aplikacja. W między czasie analizuje infrastrukturę sieciową i szuka konkretnego celu, aby we właściwym momencie użyć złośliwego kodu. To sprawia, że jego złośliwe działanie jest praktycznie niemożliwe do wykrycia, a kod i zachowanie nie da się odtworzyć za pomocą metod inżynierii wstecznej. Celem prezentacji było pokazanie i lepsze zrozumienie, w jaki sposób złośliwe oprogramowanie może już teraz wykorzystać istniejącą technologie uczenia maszynowego, aby stać się nowym, niespotykanie groźnym rodzajem malware.


Podsumowanie

Jeśli złośliwe oprogramowanie bazujące na sztucznej inteligencji będzie rozwijane, możemy doświadczyć przykrych konsekwencji. Malware będzie lepiej i szybciej rozpoznawał środowisko ataku, będzie dużo trudniejszy do wykrycia, będzie bardziej precyzyjnie wybierał cele i moment ataku. Doświadczymy bardziej przekonującego phishingu i fake newsów, więcej skuteczności przy atakach destrukcyjnych czy DDoS oraz więcej złośliwego oprogramowania skierowanego na kilka różnych systemów operacyjnych (do tej pory głównie istnieją wirusy typu „single-platform”).

Połączenie AI i Big Data w użyciu przez cyberprzestępców może być w niedalekiej przyszłości rewolucją. Analizowanie ogromnych zbiorów danych rozsianych po sieci spowoduje utratę niewielkiej ilości prywatności jaka nam została. Stworzenie bazy wiedzy o użytkownikach, celach ataków, pozwoli na wygenerowanie spersonalizowanego phishingu, którego poziom wiarygodności nie będzie odbiegał od rzeczywistej, zaufanej wiadomości.

Do tej pory, wszystkie technologie zawierające się w pojęciu „sztuczna inteligencja” przyniosły nam wiele dobrego. Sterowanie głosowe, autonomiczne samochody, wczesne wykrywanie chorób. Wykorzystanie jej przez twórców malware i cyberprzestępców może zmienić ten trend i rzucić na machine learning czarne światło.

Popularne

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Usługa Microsoft Teams stała się kluczowym narzędziem do komunikacji i współpracy w firmach na całym świecie. Z tego powodu wiele organizacji polega na zabezpieczeniach takich jak Microsoft Defender for Off...
Ważna zmiana w OWASP Top 10

Ważna zmiana w OWASP Top 10

OWASP, czyli Open Worldwide Application Security Project, zaproponowało nowe wydanie swojej klasycznej listy Top 10 ryzyk aplikacyjnych. Wersja z 2025 roku wprowadza kluczowe rozszerzenia dotyczące b...
Jak modele LLM automatyzują cyberprzestępczość

Jak modele LLM automatyzują cyberprzestępczość

Każdy Czytelnik Kapitana Hacka wie, że złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedaw...
Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Krótko o narzędziu Bloodhound to narzędzie służące do wizualizacji i analizy powiązań w Active Directory. Dla atakującego jest niezastąpioną pomocą do znajdowania ścieżki ataku na najbardziej c...
Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Odkryto niezwykle niebezpieczną dla użytkowników systemów Windows podatność. Błąd o numerze CVE‑2025‑11001 jest już częściowo wykorzystywany, a dotyczy popularnego programu 7-Zip. Polega na niewłaściwe...