Cztery problemy z generatywną AI czekające nas w 2024 roku

Generatywna sztuczna inteligencja w ostatnim roku ewoluowała w zawrotnym tempie. Dotyczy to również sfery IT, a w szczególności cyberbezpieczeństwa, gdzie uczenie maszynowe jest wykorzystywane od lat.

Niedawno opublikowane dane z ankiety ExtraHop dostarczają cennych informacji na temat obaw liderów IT i bezpieczeństwa oraz strategii, które mogą pomóc w nadchodzącym roku.

Przeprowadzono ankietę wśród 1250 liderów IT i oficerów cyberbezpieczeństwa na całym świecie, aby zrozumieć ich plany dotyczące zabezpieczania i zarządzania wykorzystaniem generatywnych narzędzi AI w ich organizacjach. Liderzy wdrażanych technologii znajdują się w kluczowym punkcie.

Na podstawie wyników ankiety można opisać cztery zagadnienia, które zespoły ds. bezpieczeństwa będą musiały wziąć pod uwagę w nadchodzącym roku przy wdrażaniu nowej generacji AI:

1. Zrozumienie zagrożeń związanych z generatywną sztuczną inteligencją

O dziwo badanie wykazało, że bezpieczeństwo nie jest główną troską liderów branży IT, jeśli chodzi o generatywną sztuczną inteligencję. Dane pokazują, że 40% ankietowanych bardziej martwi się otrzymaniem niedokładnych lub bezsensownych odpowiedzi/analiz niż kwestiami bezpośrednio związanymi z bezpieczeństwem. Jednakże 36% wskazało na ujawnienie danych osobowych klientów i pracowników, kolejne 33% stwierdziło, że tajemnice handlowe stanowią problem, a 25% zaobserwowało straty finansowe. Pomimo szerokiego zastosowania AI w ciągu ostatniego roku, możliwe, że liderzy IT i bezpieczeństwa nie traktują obecnie zagrożeń bezpieczeństwa priorytetowo. Ponieważ w najbliższej przyszłości będziemy obserwować kontynuację wdrażania i rozwoju sztucznej inteligencji, spodziewamy się tej zmiany i pojawienia się nowych produktów, które zapewnią niezbędną widoczność generatywnego wykorzystania sztucznej inteligencji w całym przedsiębiorstwie. W miarę dostępności zasobów firmy mogą rozważyć zbudowanie we własnym zakresie generatywnych narzędzi sztucznej inteligencji, aby uniknąć wszelkich obaw związanych z prywatnością przy korzystaniu z narzędzi publicznych.

2. Wdrożenie przemyślanej polityki korzystania z AI wewnątrz organizacji

ChatGPT OpenAI został udostępniony publicznie w listopadzie 2022 r. i w ciągu czterech dni od premiery zdobył ponad milion użytkowników. Nie było zaskoczeniem, gdy 73% respondentów stwierdziło, iż pracownicy ich organizacji czasami lub często korzystają z generatywnych narzędzi AI lub LLM. Oczywiste jest, że liczba ta będzie nadal rosła. Prawie jedna trzecia organizacji zdecydowała się na całkowity zakaz stosowania generatywnych narzędzi AI. Fakt, że 5% respondentów twierdzi, jakoby ich pracownicy nigdy nie korzystali z generatywnych narzędzi AI, sugeruje, że zakazy nie są tak skuteczne, jak początkowo sądzono. Jednak potencjał użytkowy tej wschodzącej klasy technologii jest sprawą najwyższej wagi i organizacje staną się bardziej otwarte na korzystanie z generatywnej sztucznej inteligencji, w miarę jak narzędzia te z czasem staną się coraz bardziej przydatne.

3. Poleganie na wiarygodnych zasadach rządowych i branżowych

Badanie pokazuje, że zdecydowana większość (90%) respondentów pragnie zaangażowania rządu w rozwiązanie problemu bezpieczeństwa generatywnej sztucznej inteligencji. 60% opowiada się za obowiązkowymi regulacjami, a 30% popiera standardy rządowe, które przedsiębiorstwa mogą przyjąć według własnego uznania. Wymaga to przepisów zapewniamjących w przyszłości odpowiedzialne wykorzystanie generatywnej sztucznej inteligencji. Utworzenie Krajowego Komitetu Doradczego ds. AI (NAIAC) w USA i przełomowe rozporządzenie wykonawcze administracji Bidena dotyczące sztucznej inteligencji to wyraźne pierwsze kroki na drodze do opracowania potencjalnych uchwał. W nadchodzącym roku wdrażanie nowych rozwiązań w różnych zastosowaniach będzie kontynuowane i coraz więcej firm będzie potrzebować jakiejś formy wskazówek, niezależnie od tego, czy wynika to z bezpieczeństwa, czy ze względów ostrożności.

4. Kontrolowanie podstawowej higieny cybernetycznej

Badania te udowadniają istnienie luki w zabezpieczeniach, która stawia organizacje w trudnej sytuacji ze względu na niezdolność do monitorowania zgodności z politykami i zapewnienia odpowiedzialnego korzystania ze sztucznej inteligencji. Większość organizacji włączy generatywną sztuczną inteligencję do swoich procesów i tak jak w ciągu ostatnich kilku lat zaobserwowaliśmy poprawę edukacji i higieny w zakresie bezpieczeństwa, to samo stanie się również tutaj.

Ostateczny wniosek uwydatnia niepokojącą rozbieżność między pewnością respondentów co do ich zdolności do obrony przed zagrożeniami związanymi ze sztuczną inteligencją a rzeczywistym stanem ich praktyk w zakresie bezpieczeństwa. Prawie 82% wyraża zaufanie w możliwości obronne swojej organizacji. Siedemdziesiąt cztery procent firm planuje w najbliższej przyszłości zainwestować w środki bezpieczeństwa generatywnej sztucznej inteligencji, a mniej niż 50% nie posiada żadnej technologii monitorowania wykorzystania narzędzi generatywnej sztucznej inteligencji. Co więcej, tylko 46% twierdzi, że posiada zasady regulujące dopuszczalne wykorzystanie narzędzi AI, a zaledwie 42% twierdzi, że szkoli użytkowników w zakresie bezpiecznego korzystania z nich.

Chociaż potrzebujemy technologii do monitorowania w pewnym zakresie wykorzystania generatywnej sztucznej inteligencji, równie ważne jest, aby pracownicy w pełni rozumieli, jak działają te narzędzia, jakie są zagrożenia i jak unikać szkodliwych nadużyć. Organizacje powinny również rozważyć utworzenie wielofunkcyjnej grupy zadaniowej składającej się z przedstawicieli działów IT, bezpieczeństwa, HR, prawnego, zarządzania ryzykiem, zgodności i innych, aby badać przypadki użycia technologii i być źródłem szkoleń.

Organizacje muszą stawić czoła dynamicznej naturze generatywnej sztucznej inteligencji, potrzebie uzyskania wskazówek od rządu i konieczności ulepszenia podstawowych środków bezpieczeństwa. Ponieważ generatywna sztuczna inteligencja w dalszym ciągu kształtuje przyszłość technologii, wnioski te dostarczają niezbędnych spostrzeżeń organizacjom, które chcą poruszać się po tym trudnym terenie i chronić swoje interesy w świecie w coraz większym stopniu opartym na sztucznej inteligencji.

Podziel się z innymi tym artykułem!