Jeszcze niedawno sztuczna inteligencja była przedstawiana jako narzędzie przyszłości – mające usprawnić pracę, zwiększyć produktywność i napędzić rozwój gospodarki. Dziś coraz częściej mówi się o niej językiem zagrożeń (w piątek opisywaliśmy nowe zagrożenia związane z internetowymi agentami AI. Najnowsze doniesienia z USA pokazują, że rozwój najbardziej zaawansowanych modeli AI osiągnął poziom, który zaczyna budzić realny niepokój regulatorów, banków i rządów.

Z jednej strony pojawiają się ostrzeżenia ze strony amerykańskich władz finansowych, które w trybie pilnym zwołują spotkania z największymi bankami. Z drugiej – europejskie analizy opisują nowe modele jako „cyberwytrych”, zdolny do omijania zabezpieczeń i automatyzowania cyberataków. Wspólny mianownik tych narracji jest jeden: sztuczna inteligencja przestaje być tylko narzędziem, a zaczyna być czynnikiem ryzyka systemowego.

Nagły alarm w USA: AI jako zagrożenie dla systemu finansowego

W kwietniu 2026 roku doszło do sytuacji bez precedensu. Sekretarz skarbu USA oraz przewodniczący Rezerwy Federalnej zwołali pilne spotkanie z prezesami największych banków. Powodem nie była inflacja ani kryzys kredytowy, lecz nowy model sztucznej inteligencji, opracowany przez firmę Anthropic.

Według dostępnych informacji model ten – określany jako Mythos – posiada zdolność do identyfikowania i wykorzystywania luk w zabezpieczeniach praktycznie wszystkich głównych systemów operacyjnych i przeglądarek internetowych.

To właśnie ta cecha wywołała największe obawy. W przeciwieństwie do tradycyjnych narzędzi hakerskich, które wymagają specjalistycznej wiedzy, nowoczesne modele AI mogą automatyzować cały proces ataku: od analizy kodu, przez wykrywanie podatności, aż po ich wykorzystanie.

Amerykańskie władze finansowe ostrzegły banki, że rozwój takich systemów może doprowadzić do nowej ery cyberzagrożeń. Instytucje zostały wezwane do wzmocnienia zabezpieczeń i przygotowania się na scenariusze, które jeszcze niedawno wydawały się czysto teoretyczne.

„Cyberwytrych” – nowa metafora sztucznej inteligencji

Równolegle w europejskich mediach pojawiło się określenie, które dobrze oddaje charakter nowych zagrożeń: sztuczna inteligencja jako cyberwytrych.

Metafora ta odnosi się do zdolności AI do omijania zabezpieczeń cyfrowych w sposób szybki, zautomatyzowany i dostępny nawet dla osób bez zaawansowanego przygotowania technicznego. W praktyce oznacza to, że:

  • systemy AI mogą generować kod exploitów,
  • potrafią tworzyć realistyczne ataki phishingowe dopasowane do konkretnej osoby,
  • są w stanie symulować komunikację człowieka w celu wyłudzania informacji,
  • a także analizować i łamać zabezpieczenia w czasie rzeczywistym.

To fundamentalna zmiana w krajobrazie cyberbezpieczeństwa. Dotychczas ataki były ograniczone przez umiejętności człowieka. Teraz ograniczeniem staje się jedynie dostęp do odpowiedniego modelu.

Jak działają nowoczesne modele AI?

Aby zrozumieć skalę zagrożenia, trzeba przyjrzeć się architekturze współczesnych systemów sztucznej inteligencji. Modele takie jak Mythos należą do kategorii tzw. modeli fundamentalnych (foundation models), czyli ogromnych sieci neuronowych trenowanych na gigantycznych zbiorach danych.

Ich działanie opiera się na analizie wzorców i przewidywaniu kolejnych elementów – na przykład słów w zdaniu lub fragmentów kodu. Jednak przy odpowiedniej skali pojawiają się tzw. zdolności emergentne, czyli umiejętności, które nie były bezpośrednio zaprogramowane.

W praktyce oznacza to, że model może:

  • rozumieć strukturę oprogramowania,
  • identyfikować błędy logiczne,
  • proponować sposoby ich wykorzystania,
  • łączyć różne techniki ataku w jedną spójną strategię.

Dodatkowo modele te mogą być integrowane z narzędziami zewnętrznymi, co pozwala im działać nie tylko jako „doradca”, ale jako aktywny uczestnik operacji – na przykład automatycznie testujący zabezpieczenia systemu.

Ryzyko systemowe: efekt domina w finansach

Największe obawy regulatorów nie dotyczą pojedynczych ataków, lecz efektów systemowych. Współczesny sektor finansowy jest silnie uzależniony od technologii i coraz częściej korzysta z podobnych narzędzi AI.

To rodzi ryzyko tzw. skorelowanych reakcji. Jeśli wiele instytucji korzysta z podobnych modeli, mogą one podejmować identyczne decyzje w odpowiedzi na te same dane. W sytuacji kryzysowej może to doprowadzić do gwałtownych, zsynchronizowanych ruchów na rynku.

Historia pokazuje, że takie mechanizmy mogą prowadzić do destabilizacji. Już wcześniej zwracano uwagę, że rozwój AI może wpływać na rynki finansowe poprzez zmiany w wycenach spółek technologicznych i powiązanych sektorów.

W połączeniu z możliwością przeprowadzania zautomatyzowanych cyberataków tworzy to nowy rodzaj ryzyka – trudnego do przewidzenia i jeszcze trudniejszego do kontrolowania.

Ograniczony dostęp i próby kontroli

Co istotne, twórcy modelu Mythos zdecydowali się ograniczyć jego dostępność. System ma być udostępniony jedynie wybranej grupie firm technologicznych, a jego pełne wdrożenie zostało wstrzymane ze względu na potencjalne zagrożenia.

To pokazuje, że nawet same firmy rozwijające AI są świadome ryzyka. Jednocześnie rodzi to pytanie o skuteczność takich działań. Historia technologii wielokrotnie pokazywała, że ograniczenia dostępu bywają tymczasowe, a wiedza i narzędzia prędzej czy później trafiają do szerszego grona użytkowników.

AI jako narzędzie i zagrożenie

Sytuacja, z jaką mamy dziś do czynienia, jest wyjątkowa. Sztuczna inteligencja jest jednocześnie:

  • narzędziem zwiększającym bezpieczeństwo (np. wykrywającym luki),
  • narzędziem ataku (wykorzystującym te same luki),
  • oraz obiektem ataków (np. poprzez manipulację danymi wejściowymi).

To sprawia, że tradycyjne podejście do cyberbezpieczeństwa przestaje być wystarczające. Zamiast prostego podziału na atakującego i broniącego się, pojawia się dynamiczny system, w którym obie strony korzystają z podobnych technologii.

Podsumowanie

Sztuczna inteligencja wchodzi w fazę, w której jej wpływ wykracza poza pojedyncze zastosowania i zaczyna oddziaływać na całe systemy – finansowe, technologiczne i społeczne. Określenie „cyberwytrych” nie jest przesadą, lecz próbą uchwycenia istoty problemu. Nowoczesne modele AI potrafią bowiem robić coś, co jeszcze niedawno było domeną wyspecjalizowanych ekspertów: znajdować i wykorzystywać słabe punkty złożonych systemów.

Reakcja władz USA pokazuje, że zagrożenie to traktowane jest bardzo poważnie. Pytanie jednak pozostaje otwarte: czy rozwój technologii da się skutecznie kontrolować, czy też – jak sugerują niektórzy eksperci – jesteśmy świadkami początków nowej ery, w której tempo zmian będzie wyznaczać AI, a nie człowiek.