Menu dostępności

Włamanie w OpenAI

4 lipca 2024 r. dziennik „The New York Times” poinformował, że na początku 2023 r. w OpenAI doszło do nieujawnionego naruszenia bezpieczeństwa. O OpenAI pisaliśmy wielokrotnie, ponieważ w naszej opinii jest to obecnie jedna z najważniejszych firm technologicznych.

NYT zauważa, że osoba atakująca nie uzyskała dostępu do systemów, w których buduje się sztuczną inteligencję, ale ukradła dyskusje z forum pracowników. OpenAI nie ujawniło publicznie zdarzenia ani nie poinformowało FBI, ponieważ – jak twierdzi – nie wykradziono żadnych informacji o klientach i partnerach, a naruszenie nie zostało uznane za zagrożenie dla bezpieczeństwa narodowego. Firma zdecydowała, że ataku dokonała jedna osoba, niepowiązana z żadnym obcym rządem.

Niemniej incydent doprowadził do wewnętrznych dyskusji personelu na temat tego, jak poważnie OpenAI podchodzi do problemów związanych z bezpieczeństwem.

„Po włamaniu Leopold Aschenbrenner, menedżer programu technicznego OpenAI, skupił się na zapewnieniu, że przyszłe rozwiązania AI będą działać, a projektowane technologie nie wyrządzają poważnych szkód. Wysłał jednak notatkę do zarządu OpenAI, w której argumentował, że firma nie zrobiła wystarczająco dużo, aby uniemożliwić chińskiemu rządowi i innym zagranicznym przeciwnikom kradzież jej tajemnic” – pisze NYT.

Na początku tego roku menedżer został zwolniony, rzekomo z powodu wycieku informacji (ale bardziej prawdopodobnie, że z powodu notatki). Aschenbrenner ma nieco inną wersję zdarzeń. W podcaście z Dwarkeshem Patelem (4 czerwca 2024) powiedział: „OpenAI przekazała pracownikom, że zostałem zwolniony za wyciek. Razem z innymi namawialiśmy ich, aby powiedzieli, na czym on polegał. Oto pełna ich odpowiedź – gdzieś w zeszłym roku napisałem dokument będący burzą mózgów na temat gotowości, bezpieczeństwa i środków ochrony potrzebnych w przyszłości na drodze do AGI. Udostępniłem to trzem zewnętrznym badaczom w celu uzyskania opinii. To jest wyciek… Zanim go udostępniłem, sprawdziłem go pod kątem jakichkolwiek wrażliwych informacji. Wersja wewnętrzna zawierała odniesienie do przyszłego klastra, które zredagowałem na potrzeby kopii zewnętrznej”.

Najwyraźniej OpenAI nie jest szczęśliwym, rajskim miejscem pracy. Pisaliśmy o tym tutaj. Trwają dyskusje, nie tylko firmowe, ale również polityczne, na temat tego, jak działa i jak powinien działać oraz dokąd powinien zmierzać proces produkcji w obszarze AI. Obawy dotyczą nie tyle OpenGPT (czyli gen-AI), ile przede wszystkim modelu AGI.

Ten pierwszy ostatecznie przekształca wiedzę, której się uczy (zwykle ze „skrobania” Internetu), podczas gdy drugi jest zdolny do oryginalnego rozumowania. Gen-AI nie jest uważana za zagrożenie dla bezpieczeństwa narodowego, chociaż może zwiększyć skalę i wyrafinowanie obecnych cyberataków.

AGI to inna sprawa. Będzie w stanie tworzyć nowe zagrożenia w cyberprzestrzeni. Niestety OpenAI, DeepMind, Anthropic i inne wiodące firmy i technologie w zakresie sztucznej inteligencji spieszą się, aby jako pierwsze wejść na rynek. Obawy związane z włamaniem do OpenAI w 2023 r. polegają na tym, że może ono świadczyć o braku gotowości w zakresie bezpieczeństwa, co może naprawdę zagrozić bezpieczeństwu narodowemu w przyszłości.

„Wiele dramatów wynika z tego, że OpenAI naprawdę wierzy, że buduje AGI. To nie jest tylko twierdzenie marketingowe” – powiedział Aschenbrenner, dodając: „Ludzi denerwuje dysonans poznawczy między wiarą w AGI a niepoważnym traktowaniem niektórych innych implikacji. Technologia ta będzie niezwykle potężna, co będzie miało dobre, jak i złe skutki. To implikuje kwestie bezpieczeństwa narodowego. Czy chronisz tajemnice przed Chinami? Czy Ameryka kontroluje podstawową infrastrukturę AGI, czy też kontroluje ją bliskowschodni dyktator?”.

W miarę rozwoju AGI zagrożenia cybernetyczne przesuną się z przestępców na elitarnych napastników na państwa narodowe – i raz po raz widzimy, że nasze bezpieczeństwo jest niewystarczające. W związku ze stosunkowo nieznacznym naruszeniem w OpenAI (a musimy założyć, że nie było ono groźniejsze, niż firma powiedziała swoim pracownikom), Aschenbrenner wyraził ogólne i rzeczywiste obawy dotyczące bezpieczeństwa – i prawdopodobnie za to został zwolniony, konkluduje artykuł NYT.

Popularne

Grupa ransomware zyskuje pełną kontrolę nad platformą Azure! Analiza ataku

Grupa ransomware zyskuje pełną kontrolę nad platformą Azure! Analiza ataku

Ciekawe informacje przynoszą badacze Microsoft. Opisali oni, w jaki sposób często omawiane przez nas ataki na AD mogą posłużyć do przejęcia całego środowiska chmurowego. Jako przykład służy Storm-0501 ...
PromptLock – pierwszy ransomware oparty na sztucznej inteligencji!

PromptLock – pierwszy ransomware oparty na sztucznej inteligencji!

MalwareAI, czyli złośliwe oprogramowanie oparte na sztucznej inteligencji, jest bliżej, niż oczekiwano. Odkryto pierwszą rodzinę ransomware wykorzystującą systemy sztucznej inteligencji do operacji lokalny...
Popularne oszustwa na WhatsAppie i jak ich uniknąć

Popularne oszustwa na WhatsAppie i jak ich uniknąć

Z ponad dwoma miliardami użytkowników WhatsApp oferuje ogromną pulę potencjalnych celów dla scamerów. Aby jeszcze bardziej skomplikować sprawę, oszuści cały czas zdobywają nowe wyrafinowane umiejętno...
Cyberprzestępcy sięgają po formularze „Contact Us” – nowy atak phishingowy na firmy produkcyjne

Cyberprzestępcy sięgają po formularze „Contact Us” – nowy atak phishingowy na firmy produkcyjne

Najnowsza kampania phishingowa, ujawniona przez badaczy z Check Point, koncentruje się na firmach z sektora produkcyjnego oraz innych kluczowych elementach łańcuchów dostaw. Jej szczególna złośliwość polega n...
Uwaga! Ataki na użytkowników Apple wykorzystujące lukę zero-day w WhatsAppie!

Uwaga! Ataki na użytkowników Apple wykorzystujące lukę zero-day w WhatsAppie!

O platformie WhatsApp pisaliśmy wielokrotnie. Dzisiaj mamy ku temu kolejny powód. WhatsApp udostępnił szczegóły dotyczące podatności typu zero-day, która została wykorzystana w kampanii szpiegującej, w ukierunk...