Menu dostępności

Cztery problemy z generatywną AI czekające nas w 2024 roku

Cztery problemy z generatywną AI czekające nas w 2024 roku

Generatywna sztuczna inteligencja w ostatnim roku ewoluowała w zawrotnym tempie. Dotyczy to również sfery IT, a w szczególności cyberbezpieczeństwa, gdzie uczenie maszynowe jest wykorzystywane od lat.

Niedawno opublikowane dane z ankiety ExtraHop dostarczają cennych informacji na temat obaw liderów IT i bezpieczeństwa oraz strategii, które mogą pomóc w nadchodzącym roku.

Przeprowadzono ankietę wśród 1250 liderów IT i oficerów cyberbezpieczeństwa na całym świecie, aby zrozumieć ich plany dotyczące zabezpieczania i zarządzania wykorzystaniem generatywnych narzędzi AI w ich organizacjach. Liderzy wdrażanych technologii znajdują się w kluczowym punkcie.

Na podstawie wyników ankiety można opisać cztery zagadnienia, które zespoły ds. bezpieczeństwa będą musiały wziąć pod uwagę w nadchodzącym roku przy wdrażaniu nowej generacji AI:

1. Zrozumienie zagrożeń związanych z generatywną sztuczną inteligencją

O dziwo badanie wykazało, że bezpieczeństwo nie jest główną troską liderów branży IT, jeśli chodzi o generatywną sztuczną inteligencję. Dane pokazują, że 40% ankietowanych bardziej martwi się otrzymaniem niedokładnych lub bezsensownych odpowiedzi/analiz niż kwestiami bezpośrednio związanymi z bezpieczeństwem. Jednakże 36% wskazało na ujawnienie danych osobowych klientów i pracowników, kolejne 33% stwierdziło, że tajemnice handlowe stanowią problem, a 25% zaobserwowało straty finansowe. Pomimo szerokiego zastosowania AI w ciągu ostatniego roku, możliwe, że liderzy IT i bezpieczeństwa nie traktują obecnie zagrożeń bezpieczeństwa priorytetowo. Ponieważ w najbliższej przyszłości będziemy obserwować kontynuację wdrażania i rozwoju sztucznej inteligencji, spodziewamy się tej zmiany i pojawienia się nowych produktów, które zapewnią niezbędną widoczność generatywnego wykorzystania sztucznej inteligencji w całym przedsiębiorstwie. W miarę dostępności zasobów firmy mogą rozważyć zbudowanie we własnym zakresie generatywnych narzędzi sztucznej inteligencji, aby uniknąć wszelkich obaw związanych z prywatnością przy korzystaniu z narzędzi publicznych.

2. Wdrożenie przemyślanej polityki korzystania z AI wewnątrz organizacji

ChatGPT OpenAI został udostępniony publicznie w listopadzie 2022 r. i w ciągu czterech dni od premiery zdobył ponad milion użytkowników. Nie było zaskoczeniem, gdy 73% respondentów stwierdziło, iż pracownicy ich organizacji czasami lub często korzystają z generatywnych narzędzi AI lub LLM. Oczywiste jest, że liczba ta będzie nadal rosła. Prawie jedna trzecia organizacji zdecydowała się na całkowity zakaz stosowania generatywnych narzędzi AI. Fakt, że 5% respondentów twierdzi, jakoby ich pracownicy nigdy nie korzystali z generatywnych narzędzi AI, sugeruje, że zakazy nie są tak skuteczne, jak początkowo sądzono. Jednak potencjał użytkowy tej wschodzącej klasy technologii jest sprawą najwyższej wagi i organizacje staną się bardziej otwarte na korzystanie z generatywnej sztucznej inteligencji, w miarę jak narzędzia te z czasem staną się coraz bardziej przydatne.

3. Poleganie na wiarygodnych zasadach rządowych i branżowych

Badanie pokazuje, że zdecydowana większość (90%) respondentów pragnie zaangażowania rządu w rozwiązanie problemu bezpieczeństwa generatywnej sztucznej inteligencji. 60% opowiada się za obowiązkowymi regulacjami, a 30% popiera standardy rządowe, które przedsiębiorstwa mogą przyjąć według własnego uznania. Wymaga to przepisów zapewniamjących w przyszłości odpowiedzialne wykorzystanie generatywnej sztucznej inteligencji. Utworzenie Krajowego Komitetu Doradczego ds. AI (NAIAC) w USA i przełomowe rozporządzenie wykonawcze administracji Bidena dotyczące sztucznej inteligencji to wyraźne pierwsze kroki na drodze do opracowania potencjalnych uchwał. W nadchodzącym roku wdrażanie nowych rozwiązań w różnych zastosowaniach będzie kontynuowane i coraz więcej firm będzie potrzebować jakiejś formy wskazówek, niezależnie od tego, czy wynika to z bezpieczeństwa, czy ze względów ostrożności.

4. Kontrolowanie podstawowej higieny cybernetycznej

Badania te udowadniają istnienie luki w zabezpieczeniach, która stawia organizacje w trudnej sytuacji ze względu na niezdolność do monitorowania zgodności z politykami i zapewnienia odpowiedzialnego korzystania ze sztucznej inteligencji. Większość organizacji włączy generatywną sztuczną inteligencję do swoich procesów i tak jak w ciągu ostatnich kilku lat zaobserwowaliśmy poprawę edukacji i higieny w zakresie bezpieczeństwa, to samo stanie się również tutaj.

Ostateczny wniosek uwydatnia niepokojącą rozbieżność między pewnością respondentów co do ich zdolności do obrony przed zagrożeniami związanymi ze sztuczną inteligencją a rzeczywistym stanem ich praktyk w zakresie bezpieczeństwa. Prawie 82% wyraża zaufanie w możliwości obronne swojej organizacji. Siedemdziesiąt cztery procent firm planuje w najbliższej przyszłości zainwestować w środki bezpieczeństwa generatywnej sztucznej inteligencji, a mniej niż 50% nie posiada żadnej technologii monitorowania wykorzystania narzędzi generatywnej sztucznej inteligencji. Co więcej, tylko 46% twierdzi, że posiada zasady regulujące dopuszczalne wykorzystanie narzędzi AI, a zaledwie 42% twierdzi, że szkoli użytkowników w zakresie bezpiecznego korzystania z nich.

Chociaż potrzebujemy technologii do monitorowania w pewnym zakresie wykorzystania generatywnej sztucznej inteligencji, równie ważne jest, aby pracownicy w pełni rozumieli, jak działają te narzędzia, jakie są zagrożenia i jak unikać szkodliwych nadużyć. Organizacje powinny również rozważyć utworzenie wielofunkcyjnej grupy zadaniowej składającej się z przedstawicieli działów IT, bezpieczeństwa, HR, prawnego, zarządzania ryzykiem, zgodności i innych, aby badać przypadki użycia technologii i być źródłem szkoleń.

Organizacje muszą stawić czoła dynamicznej naturze generatywnej sztucznej inteligencji, potrzebie uzyskania wskazówek od rządu i konieczności ulepszenia podstawowych środków bezpieczeństwa. Ponieważ generatywna sztuczna inteligencja w dalszym ciągu kształtuje przyszłość technologii, wnioski te dostarczają niezbędnych spostrzeżeń organizacjom, które chcą poruszać się po tym trudnym terenie i chronić swoje interesy w świecie w coraz większym stopniu opartym na sztucznej inteligencji.

Popularne

Czym są non-human identities (NHI)? Jak możemy je chronić i jakie zagrożenia stwarzają dla organizacji?

Czym są non-human identities (NHI)? Jak możemy je chronić i jakie zagrożenia stwarzają dla organizacji?

W dzisiejszym artykule opisujemy pewien problem istniejący w firmach i organizacjach, związany z tożsamościami nieludzkimi (non-human identities), czyli inaczej – tożsamościami niezwiązanymi z pracow...
Filtrowanie URL i DNS, dlaczego to takie ważne?

Filtrowanie URL i DNS, dlaczego to takie ważne?

Filtrowanie adresów URL ogranicza zawartość stron internetowych, do których użytkownicy mają dostęp. Odbywa się to poprzez blokowanie określonych adresów URL przed załadowaniem. Firmy wdrażają filtrowanie...
Nowe podatności w architekturze sieci 5G

Nowe podatności w architekturze sieci 5G

Nowe badania nad architekturą 5G ujawniły lukę w zabezpieczeniach modelu dzielenia sieci oraz zwirtualizowanych funkcjach sieciowych, które można wykorzystać do nieautoryzowanego dostępu do danych, a tak...
Hakerzy z Dragon Breath z nową techniką ataku

Hakerzy z Dragon Breath z nową techniką ataku

Specjaliści z Sophos wykryli niedawno złośliwą aktywność polegającą na klasycznym DLL side-loadingu, ale ze zwiększoną złożonością i dodatkową warstwą wykonania. Co więcej, dochodzenie wskazuje, że oso...
Alarmująca luka w Veeam Backup & Replication: krytyczne RCE grozi przejęciem serwerów kopii zapasowych

Alarmująca luka w Veeam Backup & Replication: krytyczne RCE grozi przejęciem serwerów kopii zapasowych

Veeam, czyli jeden z najpowszechniejszych produktów do tworzenia i odtwarzania kopii zapasowych w środowiskach korporacyjnych, załatał pilnie kilka poważnych luk bezpieczeństwa w swoim oprogramowaniu Backu...