Menu dostępności

Jak powinniśmy podejść do ryzyka utraty danych przez narzędzia GenAI?

Gdy pod koniec 2022 r. narzędzia generatywnej sztucznej inteligencji stały się szeroko dostępne, nie tylko osoby rozumiejące ich technikalia zwróciły na nie uwagę. Pracownicy ze wszystkich branż natychmiast dostrzegli potencjał generatywnej AI w zwiększaniu produktywności, usprawnianiu komunikacji i przyspieszaniu pracy. Podobnie jak wiele wcześniejszych fal innowacji IT – udostępnianie plików, przechowywanie w chmurze, telekonferencje – sztuczna inteligencja trafiła do przedsiębiorstw nie za pośrednictwem oficjalnych kanałów, ale przez pracowników, pragnących pracować łatwiej i wydajniej.

W obliczu ryzyka wprowadzania poufnych danych do publicznych interfejsów sztucznej inteligencji wiele organizacji zareagowało szybko i stanowczo, blokując dostęp. Choć można to zrozumieć jako początkowy środek obrony, blokowanie publicznych aplikacji GenAI nie jest długoterminową strategią – to rozwiązanie tymczasowe. A w większości przypadków nie jest nawet skuteczne.

Sztuczna inteligencja to niewidoczne ryzyko

Nasze dywagacje opieramy na nowym raporcie od Zscaler ThreatLabz, który śledził ruchy sztucznej inteligencji i uczenia maszynowego (ML) w przedsiębiorstwach. Tylko w 2024 r. ThreatLabz przeanalizował 36 razy więcej ruchu AI i ML niż w roku poprzednim, identyfikując ponad 800 różnych aplikacji AI w użyciu.

Blokowanie nie powstrzymało pracowników przed korzystaniem z AI. Wysyłają oni pliki e-mailem na konta osobiste, używają telefonów lub urządzeń domowych i robią zrzuty ekranu, aby wprowadzać je do systemów AI. Takie obejścia przenoszą wrażliwe interakcje w cień, poza zasięg monitorowania i ochrony przedsiębiorstwa. Rezultat? Rosnący martwy punkt, nazwany „Shadow AI”.

Blokowanie niezatwierdzonych aplikacji do AI może sprawić, że ich użycie spadnie do zera, ale tylko w raportach. W rzeczywistości organizacja nie będzie chroniona – tylko po prostu ślepa na to, co się naprawdę dzieje.

Przerabialiśmy już podobną sytuację z szybkim rozwojem platform SaaS. Kiedy pojawiło się oprogramowanie jako narzędzie usługowe, zespoły IT starały się kontrolować nieautoryzowane korzystanie z aplikacji do przechowywania plików w chmurze. Odpowiedzią nie było jednak zakazanie udostępniania plików, raczej chodziło o zaoferowanie bezpiecznej płynnej alternatywy z pojedynczym logowaniem, która spełniałaby oczekiwania pracowników co do wygody, użyteczności i szybkości.

Jednak tym razem stawka jest wyższa. W przypadku SaaS wyciek danych często oznacza zgubiony plik. W przypadku AI może to oznaczać nieumyślne trenowanie publicznego modelu na swojej własności intelektualnej bez możliwości usunięcia lub odzyskania danych po ich utracie. W pamięci dużego modelu językowego nie ma przycisku „cofnij” lub „znajdź”.

Najpierw widoczność, potem polityki

Zanim organizacja będzie mogła inteligentnie zarządzać wykorzystaniem AI, musi zrozumieć, jaka jest skala problemu. Blokowanie ruchu bez widoczności jest jak stawianie ogrodzenia bez wiedzy, gdzie przebiegają granice działki.

Jeśli chodzi o późniejsze reguły, wielu dostawców daje czarno-białe opcje „zezwól” lub „zablokuj”, tymczasem lepszym podejściem jest zarządzanie uwzględniające kontekst, oparte na polityce, zgodne z zasadami Zero Trust. Nie każde wykorzystanie AI wiąże się z tym samym poziomem ryzyka, a polityki powinny to odzwierciedlać.

Na przykład możemy zapewnić dostęp do aplikacji AI z zachowaniem ostrożności dla użytkownika lub zezwolić na transakcję tylko w trybie izolacji przeglądarki, co oznacza, że ​​użytkownicy nie mogą wklejać potencjalnie poufnych danych do aplikacji. Innym podejściem, które dobrze działa, jest przekierowywanie użytkowników do zatwierdzonej przez firmę alternatywnej aplikacji, która jest zarządzana lokalnie. Dzięki temu pracownicy mogą czerpać korzyści bez ryzyka ujawnienia danych.

Nie chodzi o zatrzymanie adopcji AI, ale o jej odpowiedzialne kształtowanie. Bezpieczeństwo i produktywność nie muszą być sprzeczne. Mając odpowiednie narzędzia i nastawienie, organizacje mogą osiągnąć jedno i drugie: wzmocnienie produktywności użytkowników i ochronę danych.

Popularne

Masowy wyciek danych PayPal – 15,8 miliona haseł w rękach cyberprzestępców

Masowy wyciek danych PayPal – 15,8 miliona haseł w rękach cyberprzestępców

16 sierpnia br. na forum cyberprzestępczym pojawiła się oferta sprzedaży ogromnej bazy danych, zawierającej ponad 15,8 miliona par adresów e-mail i haseł w formacie jawnego tekstu powiązanych z konta...
Groźna dziura w Microsoft IIS. Deserializacja usług może prowadzić do zdalnego wykonania kodu

Groźna dziura w Microsoft IIS. Deserializacja usług może prowadzić do zdalnego wykonania kodu

W połowie sierpnia 2025 roku ujawniono poważną lukę bezpieczeństwa w narzędziu Microsoft Web Deploy 4.0, używanym do publikacji aplikacji webowych na serwerach IIS. Luka – oznaczona jako CVE-2025-53772 – pozwal...
Co sprawia, że Deep Web jest cennym źródłem threat intelligence?

Co sprawia, że Deep Web jest cennym źródłem threat intelligence?

Deep Web, czyli warstwa Internetu niedostępna dla standardowych wyszukiwarek, często bywa pomijana w analizach bezpieczeństwa, mimo że stanowi niezwykle wartościowe źródło informacji o zagrożeniach. Jej tre...
Miliony laptopów Dell narażone na kompromitację

Miliony laptopów Dell narażone na kompromitację

Niedawno pisaliśmy o kłopotach Lenovo, dzisiaj czas na Dell. Okazuje się, że pięć luk w oprogramowaniu ControlVault3 i powiązanych interfejsach API systemu Windows naraża miliony laptopów na trwałe w...
WinRAR: krytyczna podatność zero-day CVE-2025-8088

WinRAR: krytyczna podatność zero-day CVE-2025-8088

W popularnym narzędziu do archiwizacji plików WinRAR wykryto poważną lukę bezpieczeństwa. Została oceniona na 8.8 w skali CVSS i otrzymała oznaczenie CVE-2025-8088. Błąd dotyczy wersji przeznaczonych dla syste...