Menu dostępności

Jak powinniśmy podejść do ryzyka utraty danych przez narzędzia GenAI?

Gdy pod koniec 2022 r. narzędzia generatywnej sztucznej inteligencji stały się szeroko dostępne, nie tylko osoby rozumiejące ich technikalia zwróciły na nie uwagę. Pracownicy ze wszystkich branż natychmiast dostrzegli potencjał generatywnej AI w zwiększaniu produktywności, usprawnianiu komunikacji i przyspieszaniu pracy. Podobnie jak wiele wcześniejszych fal innowacji IT – udostępnianie plików, przechowywanie w chmurze, telekonferencje – sztuczna inteligencja trafiła do przedsiębiorstw nie za pośrednictwem oficjalnych kanałów, ale przez pracowników, pragnących pracować łatwiej i wydajniej.

W obliczu ryzyka wprowadzania poufnych danych do publicznych interfejsów sztucznej inteligencji wiele organizacji zareagowało szybko i stanowczo, blokując dostęp. Choć można to zrozumieć jako początkowy środek obrony, blokowanie publicznych aplikacji GenAI nie jest długoterminową strategią – to rozwiązanie tymczasowe. A w większości przypadków nie jest nawet skuteczne.

Sztuczna inteligencja to niewidoczne ryzyko

Nasze dywagacje opieramy na nowym raporcie od Zscaler ThreatLabz, który śledził ruchy sztucznej inteligencji i uczenia maszynowego (ML) w przedsiębiorstwach. Tylko w 2024 r. ThreatLabz przeanalizował 36 razy więcej ruchu AI i ML niż w roku poprzednim, identyfikując ponad 800 różnych aplikacji AI w użyciu.

Blokowanie nie powstrzymało pracowników przed korzystaniem z AI. Wysyłają oni pliki e-mailem na konta osobiste, używają telefonów lub urządzeń domowych i robią zrzuty ekranu, aby wprowadzać je do systemów AI. Takie obejścia przenoszą wrażliwe interakcje w cień, poza zasięg monitorowania i ochrony przedsiębiorstwa. Rezultat? Rosnący martwy punkt, nazwany „Shadow AI”.

Blokowanie niezatwierdzonych aplikacji do AI może sprawić, że ich użycie spadnie do zera, ale tylko w raportach. W rzeczywistości organizacja nie będzie chroniona – tylko po prostu ślepa na to, co się naprawdę dzieje.

Przerabialiśmy już podobną sytuację z szybkim rozwojem platform SaaS. Kiedy pojawiło się oprogramowanie jako narzędzie usługowe, zespoły IT starały się kontrolować nieautoryzowane korzystanie z aplikacji do przechowywania plików w chmurze. Odpowiedzią nie było jednak zakazanie udostępniania plików, raczej chodziło o zaoferowanie bezpiecznej płynnej alternatywy z pojedynczym logowaniem, która spełniałaby oczekiwania pracowników co do wygody, użyteczności i szybkości.

Jednak tym razem stawka jest wyższa. W przypadku SaaS wyciek danych często oznacza zgubiony plik. W przypadku AI może to oznaczać nieumyślne trenowanie publicznego modelu na swojej własności intelektualnej bez możliwości usunięcia lub odzyskania danych po ich utracie. W pamięci dużego modelu językowego nie ma przycisku „cofnij” lub „znajdź”.

Najpierw widoczność, potem polityki

Zanim organizacja będzie mogła inteligentnie zarządzać wykorzystaniem AI, musi zrozumieć, jaka jest skala problemu. Blokowanie ruchu bez widoczności jest jak stawianie ogrodzenia bez wiedzy, gdzie przebiegają granice działki.

Jeśli chodzi o późniejsze reguły, wielu dostawców daje czarno-białe opcje „zezwól” lub „zablokuj”, tymczasem lepszym podejściem jest zarządzanie uwzględniające kontekst, oparte na polityce, zgodne z zasadami Zero Trust. Nie każde wykorzystanie AI wiąże się z tym samym poziomem ryzyka, a polityki powinny to odzwierciedlać.

Na przykład możemy zapewnić dostęp do aplikacji AI z zachowaniem ostrożności dla użytkownika lub zezwolić na transakcję tylko w trybie izolacji przeglądarki, co oznacza, że ​​użytkownicy nie mogą wklejać potencjalnie poufnych danych do aplikacji. Innym podejściem, które dobrze działa, jest przekierowywanie użytkowników do zatwierdzonej przez firmę alternatywnej aplikacji, która jest zarządzana lokalnie. Dzięki temu pracownicy mogą czerpać korzyści bez ryzyka ujawnienia danych.

Nie chodzi o zatrzymanie adopcji AI, ale o jej odpowiedzialne kształtowanie. Bezpieczeństwo i produktywność nie muszą być sprzeczne. Mając odpowiednie narzędzia i nastawienie, organizacje mogą osiągnąć jedno i drugie: wzmocnienie produktywności użytkowników i ochronę danych.

Popularne

Czym są non-human identities (NHI)? Jak możemy je chronić i jakie zagrożenia stwarzają dla organizacji?

Czym są non-human identities (NHI)? Jak możemy je chronić i jakie zagrożenia stwarzają dla organizacji?

W dzisiejszym artykule opisujemy pewien problem istniejący w firmach i organizacjach, związany z tożsamościami nieludzkimi (non-human identities), czyli inaczej – tożsamościami niezwiązanymi z pracow...
Filtrowanie URL i DNS, dlaczego to takie ważne?

Filtrowanie URL i DNS, dlaczego to takie ważne?

Filtrowanie adresów URL ogranicza zawartość stron internetowych, do których użytkownicy mają dostęp. Odbywa się to poprzez blokowanie określonych adresów URL przed załadowaniem. Firmy wdrażają filtrowanie...
Nowe podatności w architekturze sieci 5G

Nowe podatności w architekturze sieci 5G

Nowe badania nad architekturą 5G ujawniły lukę w zabezpieczeniach modelu dzielenia sieci oraz zwirtualizowanych funkcjach sieciowych, które można wykorzystać do nieautoryzowanego dostępu do danych, a tak...
Hakerzy z Dragon Breath z nową techniką ataku

Hakerzy z Dragon Breath z nową techniką ataku

Specjaliści z Sophos wykryli niedawno złośliwą aktywność polegającą na klasycznym DLL side-loadingu, ale ze zwiększoną złożonością i dodatkową warstwą wykonania. Co więcej, dochodzenie wskazuje, że oso...
Polowanie na eskalację uprawnień w Windows: sterowniki jądra i Named Pipe pod lupą

Polowanie na eskalację uprawnień w Windows: sterowniki jądra i Named Pipe pod lupą

Podatności typu Local Privilege Escalation (LPE) pozostają jednym z kluczowych elementów realnych ataków na systemy Windows. Nawet przy poprawnie skonfigurowanym systemie i aktualnym oprogramowaniu bł...