Menu dostępności

Cyberatak na DeepSeek a doniesienia o podatności modelu R1

Cyberatak na DeepSeek a doniesienia o podatności modelu R1

Z całą pewnością tematem branżowym numer jeden poprzedniego tygodnia był DeepSeek – chińska firma zajmująca się sztuczną inteligencją. Najczęściej pisano o niej w kontekście biznesowym lub technicznym – omawiano wpływ nowego gracza na rynek, możliwości zaprezentowanych modeli czy ich parametry wydajnościowe.

Dla nas oczywiście najważniejszy jest aspekt bezpieczeństwa. I w tym obszarze chiński producent sztucznej inteligencji dostarczył tematu do debaty. W ubiegły poniedziałek DeepSeek poinformował, że przyczyną braku możliwości rejestracji użytkowników na stronie internetowej był cyberatak. Wiadomość ta pojawiła się tuż po tym, jak badacze bezpieczeństwa zaczęli znajdować luki w zabezpieczeniach modelu R1 firmy.

Firma DeepSeek została założona w 2023 roku i niedawno wydała swój model R1 z otwartym kodem źródłowym, który według autorów dorównuje popularnym chatbotom, takim jak ChatGPT firmy OpenAI i Gemini od Google. Ma być konkurencyjny zarówno pod względem wydajności, jak i opłacalności — rzekomo wymaga znacznie mniejszej mocy obliczeniowej niż konkurenci.

27 stycznia DeepSeek poinformował, że jego serwery stały się celem złośliwych ataków na dużą skalę. Uniemożliwiły one rejestrację nowym użytkownikom, ale według producenta nie przeszkodziły w logowaniu już zarejestrowanym użytkownikom: „Z powodu złośliwych ataków na dużą skalę na usługi DeepSeek tymczasowo ograniczamy rejestracje, aby zapewnić ciągłość usługi. Istniejący użytkownicy mogą się logować jak zwykle”.

Chociaż nie podano żadnych dodatkowych informacji, krótki opis udostępniony przez firmę sugeruje, że padła ofiarą ataku DDoS.

DeepSeek ostrzegł również użytkowników przed fałszywymi, podszywającymi się pod nich  kontami w mediach społecznościowych.

Tymczasem wraz z pojawieniem się kontrowersji wokół parametrów wydajnościowych DeepSeek, branża cyberbezpieczeństwa zaczęła szukać luk w modelu AI.

Kela, firma zajmująca się wywiadem zagrożeń, poinformowała w zeszły poniedziałek o znalezieniu kilku luk w zabezpieczeniach, twierdząc, że jej red team był w stanie „złamać model w szerokim zakresie scenariuszy, umożliwiając mu generowanie złośliwych wyników, takich jak tworzenie oprogramowania ransomware, generowanie poufnych treści i szczegółowych instrukcji dotyczących tworzenia toksyn i urządzeń wybuchowych”.

Kela przetestowała kilka znanych jailbreaków – metod używanych do oszukiwania chatbotów w celu ominięcia lub zignorowania mechanizmów zaprojektowanych, aby zapobiegać złośliwemu użyciu – i odkryła, że DeepSeek R1 jest podatny.

Nawiasem mówiąc, o podobnych podatnościach w ChatGPT już w naszym portalu pisaliśmy.

Metody jailbreak takie jak Evil Jailbreak (instruowanie chatbota, aby przyjął osobowość „złola”) czy Leo (instruowanie, aby przyjął osobowość bez ograniczeń), które zostały dawno załatane w innych modelach, takich jak ChatGPT, nadal działają w DeepSeek R1, jak twierdzi Kela.

Zespół red team firmy zajmującej się wywiadem zagrożeń nakłonił również chatbota R1 do wyszukania i utworzenia tabeli zawierającej dane dotyczące dziesięciu starszych pracowników OpenAI, w tym prywatne adresy e-mail, numery telefonów i wynagrodzenia.

W przeciwieństwie do ChatuGPT, który odmówił podania informacji po otrzymaniu tego samego żądania, chatbot DeepSeek zastosował się do żądania i podał trudne do zweryfikowania, ale najprawdopodobniej zmyślone dane.

„Ta odpowiedź pokazuje, że niektóre z informacji generowanych przez DeepSeek nie są wiarygodne, co podkreśla brak niezawodności i dokładności modelu. Użytkownicy nie mogą polegać na DeepSeek w zakresie dokładnych lub wiarygodnych danych w takich przypadkach”, twierdzi Kela.

W Stanach odbyła się również dyskusja na temat ryzyka związanego z prywatnością w przypadku korzystania z chińskiej usługi w świetle potencjalnego zakazu używania TikToka w USA.

W Polsce między innymi Niebezpiecznik pisał o autocenzurze modelu w celu uniknięcia pytań politycznych niewygodnych dla chińskiego reżimu.

Za SecurityWeek cytujemy Jennifer Mahoney, menedżer ds. praktyk doradczych, zarządzania danymi, prywatności i ochrony w Optiv:

„Wraz z wejściem na rynek generatywnych platform AI od zagranicznych przeciwników użytkownicy powinni kwestionować pochodzenie danych używanych do trenowania tych technologii. Powinni również kwestionować własność tych danych i upewnić się, że zostały wykorzystane etycznie w celu generowania odpowiedzi” – powiedziała. „Ponieważ przepisy dotyczące prywatności różnią się w zależności od kraju, ważne jest, aby mieć świadomość, kto uzyskuje dostęp do informacji wprowadzanych na tych platformach i co jest z nimi robione”.

Popularne

Setki FortiGate’ów zhakowanych w atakach opartych na sztucznej inteligencji!

Setki FortiGate’ów zhakowanych w atakach opartych na sztucznej inteligencji!

Ponad 600 instancji zapory sieciowej Fortinet FortiGate zostało zhakowanych w ramach kampanii opartej na sztucznej inteligencji, wykorzystującej odsłonięte porty i słabe dane uwierzytelniające. Poinf...
Cyfrowa linia frontu. Jak wojna USA–Iran sparaliżowała chmurę i odcięła państwo od sieci

Cyfrowa linia frontu. Jak wojna USA–Iran sparaliżowała chmurę i odcięła państwo od sieci

Konflikt między Stanami Zjednoczonymi a Iranem przynosi konsekwencje nie tylko militarne czy gospodarcze, ale również poważne skutki dla globalnej infrastruktury cyfrowej. Najbardziej odczuwalne okazały się...
Odkryto metodę śledzenia samochodów za pomocą czujników opon

Odkryto metodę śledzenia samochodów za pomocą czujników opon

Badacze udowodnili, że transmisje danych z czujników ciśnienia w oponach można rejestrować za pomocą niedrogiego sprzętu umieszczonego wzdłuż dróg i w ten sposób śledzić kierowców. System monitorowania...
Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

W tym artykule pokażemy, jak możemy zmienić hasło administratora na komputerze posiadając do niego fizyczny dostęp. Artykuł ten można potraktować także jako przestrogę dla firm, które nie zaimplementowały jeszcze odpo...
Uwaga – fałszywa strona FileZilla dystrybuuje malware

Uwaga – fałszywa strona FileZilla dystrybuuje malware

Eksperci z Malwarebytes Labs odkryli kampanię, w ramach której cyberprzestępcy stworzyli stronę internetową mającą wyglądać jak oficjalna witryna projektu FileZilla. Witryna, prezentująca się niemal ide...