Menu dostępności

Jak powinniśmy podejść do ryzyka utraty danych przez narzędzia GenAI?

Gdy pod koniec 2022 r. narzędzia generatywnej sztucznej inteligencji stały się szeroko dostępne, nie tylko osoby rozumiejące ich technikalia zwróciły na nie uwagę. Pracownicy ze wszystkich branż natychmiast dostrzegli potencjał generatywnej AI w zwiększaniu produktywności, usprawnianiu komunikacji i przyspieszaniu pracy. Podobnie jak wiele wcześniejszych fal innowacji IT – udostępnianie plików, przechowywanie w chmurze, telekonferencje – sztuczna inteligencja trafiła do przedsiębiorstw nie za pośrednictwem oficjalnych kanałów, ale przez pracowników, pragnących pracować łatwiej i wydajniej.

W obliczu ryzyka wprowadzania poufnych danych do publicznych interfejsów sztucznej inteligencji wiele organizacji zareagowało szybko i stanowczo, blokując dostęp. Choć można to zrozumieć jako początkowy środek obrony, blokowanie publicznych aplikacji GenAI nie jest długoterminową strategią – to rozwiązanie tymczasowe. A w większości przypadków nie jest nawet skuteczne.

Sztuczna inteligencja to niewidoczne ryzyko

Nasze dywagacje opieramy na nowym raporcie od Zscaler ThreatLabz, który śledził ruchy sztucznej inteligencji i uczenia maszynowego (ML) w przedsiębiorstwach. Tylko w 2024 r. ThreatLabz przeanalizował 36 razy więcej ruchu AI i ML niż w roku poprzednim, identyfikując ponad 800 różnych aplikacji AI w użyciu.

Blokowanie nie powstrzymało pracowników przed korzystaniem z AI. Wysyłają oni pliki e-mailem na konta osobiste, używają telefonów lub urządzeń domowych i robią zrzuty ekranu, aby wprowadzać je do systemów AI. Takie obejścia przenoszą wrażliwe interakcje w cień, poza zasięg monitorowania i ochrony przedsiębiorstwa. Rezultat? Rosnący martwy punkt, nazwany „Shadow AI”.

Blokowanie niezatwierdzonych aplikacji do AI może sprawić, że ich użycie spadnie do zera, ale tylko w raportach. W rzeczywistości organizacja nie będzie chroniona – tylko po prostu ślepa na to, co się naprawdę dzieje.

Przerabialiśmy już podobną sytuację z szybkim rozwojem platform SaaS. Kiedy pojawiło się oprogramowanie jako narzędzie usługowe, zespoły IT starały się kontrolować nieautoryzowane korzystanie z aplikacji do przechowywania plików w chmurze. Odpowiedzią nie było jednak zakazanie udostępniania plików, raczej chodziło o zaoferowanie bezpiecznej płynnej alternatywy z pojedynczym logowaniem, która spełniałaby oczekiwania pracowników co do wygody, użyteczności i szybkości.

Jednak tym razem stawka jest wyższa. W przypadku SaaS wyciek danych często oznacza zgubiony plik. W przypadku AI może to oznaczać nieumyślne trenowanie publicznego modelu na swojej własności intelektualnej bez możliwości usunięcia lub odzyskania danych po ich utracie. W pamięci dużego modelu językowego nie ma przycisku „cofnij” lub „znajdź”.

Najpierw widoczność, potem polityki

Zanim organizacja będzie mogła inteligentnie zarządzać wykorzystaniem AI, musi zrozumieć, jaka jest skala problemu. Blokowanie ruchu bez widoczności jest jak stawianie ogrodzenia bez wiedzy, gdzie przebiegają granice działki.

Jeśli chodzi o późniejsze reguły, wielu dostawców daje czarno-białe opcje „zezwól” lub „zablokuj”, tymczasem lepszym podejściem jest zarządzanie uwzględniające kontekst, oparte na polityce, zgodne z zasadami Zero Trust. Nie każde wykorzystanie AI wiąże się z tym samym poziomem ryzyka, a polityki powinny to odzwierciedlać.

Na przykład możemy zapewnić dostęp do aplikacji AI z zachowaniem ostrożności dla użytkownika lub zezwolić na transakcję tylko w trybie izolacji przeglądarki, co oznacza, że ​​użytkownicy nie mogą wklejać potencjalnie poufnych danych do aplikacji. Innym podejściem, które dobrze działa, jest przekierowywanie użytkowników do zatwierdzonej przez firmę alternatywnej aplikacji, która jest zarządzana lokalnie. Dzięki temu pracownicy mogą czerpać korzyści bez ryzyka ujawnienia danych.

Nie chodzi o zatrzymanie adopcji AI, ale o jej odpowiedzialne kształtowanie. Bezpieczeństwo i produktywność nie muszą być sprzeczne. Mając odpowiednie narzędzia i nastawienie, organizacje mogą osiągnąć jedno i drugie: wzmocnienie produktywności użytkowników i ochronę danych.

Popularne

Uwaga! Trwa praktyczne wykorzystywanie krytycznej luki w systemach Fortinet!

Uwaga! Trwa praktyczne wykorzystywanie krytycznej luki w systemach Fortinet!

Święta, święta i po świętach. I dzisiaj, zamiast malować pisanki, piszemy o Fortinecie. Naszym „ulubionym” producencie firewallów, który pojawia się na portalu dość często. Nową okazję do publikacji dała...
Grupa ransomware ALP-001 twierdzi, że zaatakowała Polsat

Grupa ransomware ALP-001 twierdzi, że zaatakowała Polsat

W niedzielę wieczorem na zagranicznych serwisach newsowych poświęconych malware pojawiły się informacje o cyberataku na serwis Polsatu. Według doniesień za incydent odpowiada grupa ransomware ALP-001, która...
DarkSword – cichy zabójca iPhone’ów. Nowy exploit, który przejmuje kontrolę nad urządzeniem w kilka sekund

DarkSword – cichy zabójca iPhone’ów. Nowy exploit, który przejmuje kontrolę nad urządzeniem w kilka sekund

Powstał nowy, zaawansowany zestaw exploitów wymierzony w użytkowników iPhone’ów. Narzędzie o nazwie DarkSword pokazuje, że nawet platformy uznawane za jedne z najbezpieczniejszych mogą stać się celem...
Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

W tym artykule pokażemy, jak możemy zmienić hasło administratora na komputerze posiadając do niego fizyczny dostęp. Artykuł ten można potraktować także jako przestrogę dla firm, które nie zaimplementowały jeszcze odpo...
WhatsApp jako wektor ataku – Microsoft ostrzega przed nową kampanią malware ukrytą w wiadomościach

WhatsApp jako wektor ataku – Microsoft ostrzega przed nową kampanią malware ukrytą w wiadomościach

Cyberprzestępcy po raz kolejny wykorzystują zaufanie użytkowników do popularnych komunikatorów. Najnowsze ostrzeżenie Microsoftu ujawnia zaawansowaną kampanię, w której złośliwe oprogramowanie jest rozsy...