Menu dostępności

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Błąd ChatGPT w systemie macOS pozwalał na umieszczenie szkodliwego oprogramowania w pamięci

Załatana już na szczęście luka w zabezpieczeniach aplikacji ChatGPT firmy OpenAI na system macOS mogła umożliwić atakującym umieszczenie w pamięci aplikacji trwałego oprogramowania szpiegującego.

Technika ta zdobyła swoją nazwę – SpAIware i może być wykorzystywana do ułatwiania „ciągłej eksfiltracji wszelkich informacji wpisanych przez użytkownika lub odpowiedzi otrzymanych przez ChatGPT, w tym wszelkich przyszłych sesji czatu”, napisał badacz ds. bezpieczeństwa Johann Rehberger na swoim blogu.

Problem polega na nadużywaniu funkcji ChatGPT zwanej Pamięć, którą OpenAI wprowadziło na początku lutego, a następnie udostępniło użytkownikom ChatGPT Free, Plus, Team i Enterprise. W zasadzie pozwala ona na zapamiętywanie pewnych rzeczy w czatach, dzięki czemu użytkownicy nie muszą powtarzać w kółko tych samych informacji. Jest także opcja zapominania wybranych informacji. Warto mieć na uwadze, że Pamięć ChatGPT ewoluuje wraz z interakcjami i nie jest powiązana z konkretnymi rozmowami. Usunięcie czatu nie kasuje jego danych z pamięci lokalnej zapisanej na komputerze.

Technika ataku opiera się na wcześniejszych ustaleniach, które obejmują pośrednie wstrzykiwanie podpowiedzi w celu manipulowania wspomnieniami, aby program zapamiętał fałszywe informacje lub nawet złośliwe instrukcje, które przetrwają między rozmowami.

Ponieważ złośliwe instrukcje są przechowywane w pamięci ChatGPT, wszystkie nowe rozmowy będą zawierać instrukcje atakującego i będą stale wysyłać wszystkie wiadomości czatu i odpowiedzi do atakującego. Dlatego właśnie luka w zabezpieczeniach związana z eksfiltracją danych stała się o wiele bardziej niebezpieczna.

W hipotetycznym scenariuszu ataku użytkownik mógłby zostać oszukany i odwiedzić złośliwą witrynę lub pobrać ukryty dokument, który następnie byłby analizowany za pomocą ChatGPT w celu aktualizacji pamięci. Witryna lub dokument mogłyby zawierać instrukcje, aby potajemnie wysyłać wszystkie przyszłe konwersacje na serwer kontrolowany przez hakera, który następnie mógłby je odzyskać po drugiej stronie poza sesją czatu.

Demonstrację ataku można zobaczyć na poniższym wideo:

Po upublicznieniu błędu OpenAI rozwiązało problem w wersji ChatGPT 1.2024.247, zamykając wektor eksfiltracji.

„Użytkownicy ChatGPT powinni regularnie przeglądać wspomnienia, które system przechowuje na ich temat, pod kątem podejrzanych lub nieprawidłowych, i czyścić je” – stwierdził Rehberger.

„Ten łańcuch ataków był dość interesujący do stworzenia i pokazuje niebezpieczeństwa związane z automatycznym dodawaniem pamięci długoterminowej do systemu, zarówno z punktu widzenia dezinformacji, jak i oszustwa, ale także w odniesieniu do ciągłej komunikacji z serwerami kontrolowanymi przez atakujących”.

Ujawnienie nastąpiło po tym, jak grupa naukowców odkryła nową technikę jailbreakingu AI o nazwie kodowej MathPrompt, która wykorzystuje zaawansowane możliwości dużych modeli językowych (LLM) w zakresie matematyki symbolicznej, aby obejść ich mechanizmy bezpieczeństwa. MathPrompt posługuje się dwuetapowym procesem: najpierw przekształca szkodliwe podpowiedzi języka naturalnego w symboliczne problemy matematyczne, a następnie przedstawia te matematycznie zakodowane podpowiedzi docelowemu modelowi AI. Badanie, po przetestowaniu 13 najnowocześniejszych LLM, wykazało, że modele odpowiadały szkodliwym wyjściem średnio w 73,6% przypadków, gdy przedstawiono im matematycznie zakodowane podpowiedzi, w porównaniu z około 1% w przypadku niezmodyfikowanych szkodliwych podpowiedzi.

Na powyższych przykładach widzimy, jak łatwo jest na razie obejść zabezpieczenia AI, tak aby otrzymać odpowiedź, nawet jeśli jest ona nieetyczna.

Popularne

Czym jest Microsoft Entra Backup and Recovery?

Czym jest Microsoft Entra Backup and Recovery?

Przez długi czas odzyskiwanie zmian w Microsoft Entra opierało się głównie na kilku osobnych mechanizmach: soft-delete dla części obiektów, logach audytowych, eksportach konfiguracji i ręcznym odtwarza...
MSBuild w rękach atakujących. Legalne narzędzie, które omija klasyczne detekcje

MSBuild w rękach atakujących. Legalne narzędzie, które omija klasyczne detekcje

Coraz więcej ataków nie polega już na dostarczeniu malware w klasycznej formie. Zamiast tego napastnicy wykorzystują narzędzia, które już znajdują się w systemie i są uznawane za w pełni zaufane. Jednym z t...
Jeszcze o Mythos!

Jeszcze o Mythos!

W bardzo dobrym artykule autorstwa mojego redakcyjnego kolegi możemy znaleźć kompendium wiedzy o Mythos – niedawno ogłoszonym modelu AI od Anthropic. Produkt ten wywołał panikę w branży ze względu na zdolno...
Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

W tym artykule pokażemy, jak możemy zmienić hasło administratora na komputerze posiadając do niego fizyczny dostęp. Artykuł ten można potraktować także jako przestrogę dla firm, które nie zaimplementowały jeszcze odpo...
Twoja rezerwacja bronią cyberprzestępców – kulisy ataku na Booking.com

Twoja rezerwacja bronią cyberprzestępców – kulisy ataku na Booking.com

Wyobraź sobie, że dostajesz wiadomość od hotelu, w którym masz zarezerwowany pobyt. Wszystko wygląda wiarygodnie: dane się zgadzają, termin pasuje, a treść brzmi jak standardowa prośba o potwierdzenie. Problem w...