Pierwszy światowy przypadek wykrycia luki w oprogramowaniu przez AI

Big Sleep to agent sztucznej inteligencji opracowany przez zespoły DeepMind i Project Zero od Google. Został zaprojektowany do aktywnego wyszukiwania nieznanych luk w zabezpieczeniach oprogramowania. Właśnie pojawiły się publikacje, w których Google twierdzi, że agent odkrył niedawno krytyczną lukę w zabezpieczeniach SQLite i udaremnił próby jej wykorzystania przez cyberprzestępców.

Google nie ujawnia szczegółów na temat tego, w jaki sposób AI Big Sleep udaremnił próby wykorzystania luki w zabezpieczeniach SQLite, ale przyjrzymy się dzisiaj chronologii zdarzeń i pokusimy o kilka spekulacji.

Już w listopadzie 2024 roku Google ogłosiło, że Big Sleep zdołał znaleźć swoją pierwszą rzeczywistą lukę w zabezpieczeniach – przepełnienie bufora w powszechnie używanym silniku baz danych open source SQLite. Gigant technologiczny poinformował wówczas, że jego badacze próbowali znaleźć tę samą podatność za pomocą fuzzingu (czyli automatycznego lub półautomatycznego testowania oprogramowania), ale im się nie powiodło. Luka w zabezpieczeniach SQLite została odkryta w niewydanej jeszcze wersji oprogramowania, co oznacza, że użytkownicy nie byli narażeni.

We wpisie opublikowanym na blogu we wtorek 15 lipca Google poinformowało, że Big Sleep odkrył kolejną lukę w zabezpieczeniach SQLite, która „była znana tylko cyberprzestępcom i istniało ryzyko jej wykorzystania”.

Luka, oznaczona jako CVE-2025-6965, została opisana jako problem związany z faktem, że liczba zagregowanych terminów może przekroczyć liczbę dostępnych kolumn, co prowadzi do uszkodzenia pamięci. Luka została załatana pod koniec czerwca wraz z wydaniem wersji 3.50.2.

Nie ma innych szczegółów, ale luki w zabezpieczeniach związane z uszkodzeniem pamięci mogą zazwyczaj prowadzić do wykonania dowolnego kodu, eskalacji uprawnień, wycieku danych lub odmowy usługi.

„Dzięki połączeniu analizy zagrożeń i technologii Big Sleep Google było w stanie przewidzieć, że luka w zabezpieczeniach zostanie wkrótce wykorzystana i udało nam się ją wcześniej zablokować” – informują specjaliści Google. „Uważamy, że to pierwszy przypadek, gdy agent sztucznej inteligencji został wykorzystany do bezpośredniego udaremnienia prób wykorzystania luki w zabezpieczeniach w środowisku rzeczywistym”.

Google konsekwentnie odmawia prośbom o udostępnienie dodatkowych szczegółów technicznych, dlatego nie jest jasne, jakie informacje przekazali Big Sleep eksperci ds. analizy zagrożeń, ani w jaki sposób firma ustaliła, że luka jest narażona na wykorzystanie.

Potencjalnie krytyczne luki w zabezpieczeniach SQLite pojawiają się co jakiś czas, ale nie ma żadnych raportów opisujących ich rzeczywiste wykorzystanie.

Katalog znanych luk wykorzystywanych przez CISA (KEV) nie zawiera na przykład żadnych luk w SQLite, chociaż wiadomo, że lista agencji rządowej jest niekompletna. We wtorek Google ogłosiło również, że przekaże dane ze swojego Secure AI Framework organizacji Coalition for Secure AI (CoSAI), której celem jest zwalczanie zagrożeń cyberbezpieczeństwa związanych ze sztuczną inteligencją. Pisaliśmy o tej koalicji tutaj. Firma poinformowała, że „przyspieszy to prace CoSAI w zakresie sztucznej inteligencji, cyberobrony i bezpieczeństwa łańcucha dostaw oprogramowania”.

Podziel się z innymi tym artykułem!