Menu dostępności

Cyberatak na DeepSeek a doniesienia o podatności modelu R1

Cyberatak na DeepSeek a doniesienia o podatności modelu R1

Z całą pewnością tematem branżowym numer jeden poprzedniego tygodnia był DeepSeek – chińska firma zajmująca się sztuczną inteligencją. Najczęściej pisano o niej w kontekście biznesowym lub technicznym – omawiano wpływ nowego gracza na rynek, możliwości zaprezentowanych modeli czy ich parametry wydajnościowe.

Dla nas oczywiście najważniejszy jest aspekt bezpieczeństwa. I w tym obszarze chiński producent sztucznej inteligencji dostarczył tematu do debaty. W ubiegły poniedziałek DeepSeek poinformował, że przyczyną braku możliwości rejestracji użytkowników na stronie internetowej był cyberatak. Wiadomość ta pojawiła się tuż po tym, jak badacze bezpieczeństwa zaczęli znajdować luki w zabezpieczeniach modelu R1 firmy.

Firma DeepSeek została założona w 2023 roku i niedawno wydała swój model R1 z otwartym kodem źródłowym, który według autorów dorównuje popularnym chatbotom, takim jak ChatGPT firmy OpenAI i Gemini od Google. Ma być konkurencyjny zarówno pod względem wydajności, jak i opłacalności — rzekomo wymaga znacznie mniejszej mocy obliczeniowej niż konkurenci.

27 stycznia DeepSeek poinformował, że jego serwery stały się celem złośliwych ataków na dużą skalę. Uniemożliwiły one rejestrację nowym użytkownikom, ale według producenta nie przeszkodziły w logowaniu już zarejestrowanym użytkownikom: „Z powodu złośliwych ataków na dużą skalę na usługi DeepSeek tymczasowo ograniczamy rejestracje, aby zapewnić ciągłość usługi. Istniejący użytkownicy mogą się logować jak zwykle”.

Chociaż nie podano żadnych dodatkowych informacji, krótki opis udostępniony przez firmę sugeruje, że padła ofiarą ataku DDoS.

DeepSeek ostrzegł również użytkowników przed fałszywymi, podszywającymi się pod nich  kontami w mediach społecznościowych.

Tymczasem wraz z pojawieniem się kontrowersji wokół parametrów wydajnościowych DeepSeek, branża cyberbezpieczeństwa zaczęła szukać luk w modelu AI.

Kela, firma zajmująca się wywiadem zagrożeń, poinformowała w zeszły poniedziałek o znalezieniu kilku luk w zabezpieczeniach, twierdząc, że jej red team był w stanie „złamać model w szerokim zakresie scenariuszy, umożliwiając mu generowanie złośliwych wyników, takich jak tworzenie oprogramowania ransomware, generowanie poufnych treści i szczegółowych instrukcji dotyczących tworzenia toksyn i urządzeń wybuchowych”.

Kela przetestowała kilka znanych jailbreaków – metod używanych do oszukiwania chatbotów w celu ominięcia lub zignorowania mechanizmów zaprojektowanych, aby zapobiegać złośliwemu użyciu – i odkryła, że DeepSeek R1 jest podatny.

Nawiasem mówiąc, o podobnych podatnościach w ChatGPT już w naszym portalu pisaliśmy.

Metody jailbreak takie jak Evil Jailbreak (instruowanie chatbota, aby przyjął osobowość „złola”) czy Leo (instruowanie, aby przyjął osobowość bez ograniczeń), które zostały dawno załatane w innych modelach, takich jak ChatGPT, nadal działają w DeepSeek R1, jak twierdzi Kela.

Zespół red team firmy zajmującej się wywiadem zagrożeń nakłonił również chatbota R1 do wyszukania i utworzenia tabeli zawierającej dane dotyczące dziesięciu starszych pracowników OpenAI, w tym prywatne adresy e-mail, numery telefonów i wynagrodzenia.

W przeciwieństwie do ChatuGPT, który odmówił podania informacji po otrzymaniu tego samego żądania, chatbot DeepSeek zastosował się do żądania i podał trudne do zweryfikowania, ale najprawdopodobniej zmyślone dane.

„Ta odpowiedź pokazuje, że niektóre z informacji generowanych przez DeepSeek nie są wiarygodne, co podkreśla brak niezawodności i dokładności modelu. Użytkownicy nie mogą polegać na DeepSeek w zakresie dokładnych lub wiarygodnych danych w takich przypadkach”, twierdzi Kela.

W Stanach odbyła się również dyskusja na temat ryzyka związanego z prywatnością w przypadku korzystania z chińskiej usługi w świetle potencjalnego zakazu używania TikToka w USA.

W Polsce między innymi Niebezpiecznik pisał o autocenzurze modelu w celu uniknięcia pytań politycznych niewygodnych dla chińskiego reżimu.

Za SecurityWeek cytujemy Jennifer Mahoney, menedżer ds. praktyk doradczych, zarządzania danymi, prywatności i ochrony w Optiv:

„Wraz z wejściem na rynek generatywnych platform AI od zagranicznych przeciwników użytkownicy powinni kwestionować pochodzenie danych używanych do trenowania tych technologii. Powinni również kwestionować własność tych danych i upewnić się, że zostały wykorzystane etycznie w celu generowania odpowiedzi” – powiedziała. „Ponieważ przepisy dotyczące prywatności różnią się w zależności od kraju, ważne jest, aby mieć świadomość, kto uzyskuje dostęp do informacji wprowadzanych na tych platformach i co jest z nimi robione”.

Popularne

Grupa ransomware zyskuje pełną kontrolę nad platformą Azure! Analiza ataku

Grupa ransomware zyskuje pełną kontrolę nad platformą Azure! Analiza ataku

Ciekawe informacje przynoszą badacze Microsoft. Opisali oni, w jaki sposób często omawiane przez nas ataki na AD mogą posłużyć do przejęcia całego środowiska chmurowego. Jako przykład służy Storm-0501 ...
PromptLock – pierwszy ransomware oparty na sztucznej inteligencji!

PromptLock – pierwszy ransomware oparty na sztucznej inteligencji!

MalwareAI, czyli złośliwe oprogramowanie oparte na sztucznej inteligencji, jest bliżej, niż oczekiwano. Odkryto pierwszą rodzinę ransomware wykorzystującą systemy sztucznej inteligencji do operacji lokalny...
Popularne oszustwa na WhatsAppie i jak ich uniknąć

Popularne oszustwa na WhatsAppie i jak ich uniknąć

Z ponad dwoma miliardami użytkowników WhatsApp oferuje ogromną pulę potencjalnych celów dla scamerów. Aby jeszcze bardziej skomplikować sprawę, oszuści cały czas zdobywają nowe wyrafinowane umiejętno...
Cyberprzestępcy sięgają po formularze „Contact Us” – nowy atak phishingowy na firmy produkcyjne

Cyberprzestępcy sięgają po formularze „Contact Us” – nowy atak phishingowy na firmy produkcyjne

Najnowsza kampania phishingowa, ujawniona przez badaczy z Check Point, koncentruje się na firmach z sektora produkcyjnego oraz innych kluczowych elementach łańcuchów dostaw. Jej szczególna złośliwość polega n...
Uwaga! Ataki na użytkowników Apple wykorzystujące lukę zero-day w WhatsAppie!

Uwaga! Ataki na użytkowników Apple wykorzystujące lukę zero-day w WhatsAppie!

O platformie WhatsApp pisaliśmy wielokrotnie. Dzisiaj mamy ku temu kolejny powód. WhatsApp udostępnił szczegóły dotyczące podatności typu zero-day, która została wykorzystana w kampanii szpiegującej, w ukierunk...