Menu dostępności

Włamanie w OpenAI

4 lipca 2024 r. dziennik „The New York Times” poinformował, że na początku 2023 r. w OpenAI doszło do nieujawnionego naruszenia bezpieczeństwa. O OpenAI pisaliśmy wielokrotnie, ponieważ w naszej opinii jest to obecnie jedna z najważniejszych firm technologicznych.

NYT zauważa, że osoba atakująca nie uzyskała dostępu do systemów, w których buduje się sztuczną inteligencję, ale ukradła dyskusje z forum pracowników. OpenAI nie ujawniło publicznie zdarzenia ani nie poinformowało FBI, ponieważ – jak twierdzi – nie wykradziono żadnych informacji o klientach i partnerach, a naruszenie nie zostało uznane za zagrożenie dla bezpieczeństwa narodowego. Firma zdecydowała, że ataku dokonała jedna osoba, niepowiązana z żadnym obcym rządem.

Niemniej incydent doprowadził do wewnętrznych dyskusji personelu na temat tego, jak poważnie OpenAI podchodzi do problemów związanych z bezpieczeństwem.

„Po włamaniu Leopold Aschenbrenner, menedżer programu technicznego OpenAI, skupił się na zapewnieniu, że przyszłe rozwiązania AI będą działać, a projektowane technologie nie wyrządzają poważnych szkód. Wysłał jednak notatkę do zarządu OpenAI, w której argumentował, że firma nie zrobiła wystarczająco dużo, aby uniemożliwić chińskiemu rządowi i innym zagranicznym przeciwnikom kradzież jej tajemnic” – pisze NYT.

Na początku tego roku menedżer został zwolniony, rzekomo z powodu wycieku informacji (ale bardziej prawdopodobnie, że z powodu notatki). Aschenbrenner ma nieco inną wersję zdarzeń. W podcaście z Dwarkeshem Patelem (4 czerwca 2024) powiedział: „OpenAI przekazała pracownikom, że zostałem zwolniony za wyciek. Razem z innymi namawialiśmy ich, aby powiedzieli, na czym on polegał. Oto pełna ich odpowiedź – gdzieś w zeszłym roku napisałem dokument będący burzą mózgów na temat gotowości, bezpieczeństwa i środków ochrony potrzebnych w przyszłości na drodze do AGI. Udostępniłem to trzem zewnętrznym badaczom w celu uzyskania opinii. To jest wyciek… Zanim go udostępniłem, sprawdziłem go pod kątem jakichkolwiek wrażliwych informacji. Wersja wewnętrzna zawierała odniesienie do przyszłego klastra, które zredagowałem na potrzeby kopii zewnętrznej”.

Najwyraźniej OpenAI nie jest szczęśliwym, rajskim miejscem pracy. Pisaliśmy o tym tutaj. Trwają dyskusje, nie tylko firmowe, ale również polityczne, na temat tego, jak działa i jak powinien działać oraz dokąd powinien zmierzać proces produkcji w obszarze AI. Obawy dotyczą nie tyle OpenGPT (czyli gen-AI), ile przede wszystkim modelu AGI.

Ten pierwszy ostatecznie przekształca wiedzę, której się uczy (zwykle ze „skrobania” Internetu), podczas gdy drugi jest zdolny do oryginalnego rozumowania. Gen-AI nie jest uważana za zagrożenie dla bezpieczeństwa narodowego, chociaż może zwiększyć skalę i wyrafinowanie obecnych cyberataków.

AGI to inna sprawa. Będzie w stanie tworzyć nowe zagrożenia w cyberprzestrzeni. Niestety OpenAI, DeepMind, Anthropic i inne wiodące firmy i technologie w zakresie sztucznej inteligencji spieszą się, aby jako pierwsze wejść na rynek. Obawy związane z włamaniem do OpenAI w 2023 r. polegają na tym, że może ono świadczyć o braku gotowości w zakresie bezpieczeństwa, co może naprawdę zagrozić bezpieczeństwu narodowemu w przyszłości.

„Wiele dramatów wynika z tego, że OpenAI naprawdę wierzy, że buduje AGI. To nie jest tylko twierdzenie marketingowe” – powiedział Aschenbrenner, dodając: „Ludzi denerwuje dysonans poznawczy między wiarą w AGI a niepoważnym traktowaniem niektórych innych implikacji. Technologia ta będzie niezwykle potężna, co będzie miało dobre, jak i złe skutki. To implikuje kwestie bezpieczeństwa narodowego. Czy chronisz tajemnice przed Chinami? Czy Ameryka kontroluje podstawową infrastrukturę AGI, czy też kontroluje ją bliskowschodni dyktator?”.

W miarę rozwoju AGI zagrożenia cybernetyczne przesuną się z przestępców na elitarnych napastników na państwa narodowe – i raz po raz widzimy, że nasze bezpieczeństwo jest niewystarczające. W związku ze stosunkowo nieznacznym naruszeniem w OpenAI (a musimy założyć, że nie było ono groźniejsze, niż firma powiedziała swoim pracownikom), Aschenbrenner wyraził ogólne i rzeczywiste obawy dotyczące bezpieczeństwa – i prawdopodobnie za to został zwolniony, konkluduje artykuł NYT.

Popularne

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Usługa Microsoft Teams stała się kluczowym narzędziem do komunikacji i współpracy w firmach na całym świecie. Z tego powodu wiele organizacji polega na zabezpieczeniach takich jak Microsoft Defender for Off...
Ważna zmiana w OWASP Top 10

Ważna zmiana w OWASP Top 10

OWASP, czyli Open Worldwide Application Security Project, zaproponowało nowe wydanie swojej klasycznej listy Top 10 ryzyk aplikacyjnych. Wersja z 2025 roku wprowadza kluczowe rozszerzenia dotyczące b...
Jak modele LLM automatyzują cyberprzestępczość

Jak modele LLM automatyzują cyberprzestępczość

Każdy Czytelnik Kapitana Hacka wie, że złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedaw...
Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Krótko o narzędziu Bloodhound to narzędzie służące do wizualizacji i analizy powiązań w Active Directory. Dla atakującego jest niezastąpioną pomocą do znajdowania ścieżki ataku na najbardziej c...
Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Odkryto niezwykle niebezpieczną dla użytkowników systemów Windows podatność. Błąd o numerze CVE‑2025‑11001 jest już częściowo wykorzystywany, a dotyczy popularnego programu 7-Zip. Polega na niewłaściwe...