Menu dostępności

Cztery problemy z generatywną AI czekające nas w 2024 roku

Cztery problemy z generatywną AI czekające nas w 2024 roku

Generatywna sztuczna inteligencja w ostatnim roku ewoluowała w zawrotnym tempie. Dotyczy to również sfery IT, a w szczególności cyberbezpieczeństwa, gdzie uczenie maszynowe jest wykorzystywane od lat.

Niedawno opublikowane dane z ankiety ExtraHop dostarczają cennych informacji na temat obaw liderów IT i bezpieczeństwa oraz strategii, które mogą pomóc w nadchodzącym roku.

Przeprowadzono ankietę wśród 1250 liderów IT i oficerów cyberbezpieczeństwa na całym świecie, aby zrozumieć ich plany dotyczące zabezpieczania i zarządzania wykorzystaniem generatywnych narzędzi AI w ich organizacjach. Liderzy wdrażanych technologii znajdują się w kluczowym punkcie.

Na podstawie wyników ankiety można opisać cztery zagadnienia, które zespoły ds. bezpieczeństwa będą musiały wziąć pod uwagę w nadchodzącym roku przy wdrażaniu nowej generacji AI:

1. Zrozumienie zagrożeń związanych z generatywną sztuczną inteligencją

O dziwo badanie wykazało, że bezpieczeństwo nie jest główną troską liderów branży IT, jeśli chodzi o generatywną sztuczną inteligencję. Dane pokazują, że 40% ankietowanych bardziej martwi się otrzymaniem niedokładnych lub bezsensownych odpowiedzi/analiz niż kwestiami bezpośrednio związanymi z bezpieczeństwem. Jednakże 36% wskazało na ujawnienie danych osobowych klientów i pracowników, kolejne 33% stwierdziło, że tajemnice handlowe stanowią problem, a 25% zaobserwowało straty finansowe. Pomimo szerokiego zastosowania AI w ciągu ostatniego roku, możliwe, że liderzy IT i bezpieczeństwa nie traktują obecnie zagrożeń bezpieczeństwa priorytetowo. Ponieważ w najbliższej przyszłości będziemy obserwować kontynuację wdrażania i rozwoju sztucznej inteligencji, spodziewamy się tej zmiany i pojawienia się nowych produktów, które zapewnią niezbędną widoczność generatywnego wykorzystania sztucznej inteligencji w całym przedsiębiorstwie. W miarę dostępności zasobów firmy mogą rozważyć zbudowanie we własnym zakresie generatywnych narzędzi sztucznej inteligencji, aby uniknąć wszelkich obaw związanych z prywatnością przy korzystaniu z narzędzi publicznych.

2. Wdrożenie przemyślanej polityki korzystania z AI wewnątrz organizacji

ChatGPT OpenAI został udostępniony publicznie w listopadzie 2022 r. i w ciągu czterech dni od premiery zdobył ponad milion użytkowników. Nie było zaskoczeniem, gdy 73% respondentów stwierdziło, iż pracownicy ich organizacji czasami lub często korzystają z generatywnych narzędzi AI lub LLM. Oczywiste jest, że liczba ta będzie nadal rosła. Prawie jedna trzecia organizacji zdecydowała się na całkowity zakaz stosowania generatywnych narzędzi AI. Fakt, że 5% respondentów twierdzi, jakoby ich pracownicy nigdy nie korzystali z generatywnych narzędzi AI, sugeruje, że zakazy nie są tak skuteczne, jak początkowo sądzono. Jednak potencjał użytkowy tej wschodzącej klasy technologii jest sprawą najwyższej wagi i organizacje staną się bardziej otwarte na korzystanie z generatywnej sztucznej inteligencji, w miarę jak narzędzia te z czasem staną się coraz bardziej przydatne.

3. Poleganie na wiarygodnych zasadach rządowych i branżowych

Badanie pokazuje, że zdecydowana większość (90%) respondentów pragnie zaangażowania rządu w rozwiązanie problemu bezpieczeństwa generatywnej sztucznej inteligencji. 60% opowiada się za obowiązkowymi regulacjami, a 30% popiera standardy rządowe, które przedsiębiorstwa mogą przyjąć według własnego uznania. Wymaga to przepisów zapewniamjących w przyszłości odpowiedzialne wykorzystanie generatywnej sztucznej inteligencji. Utworzenie Krajowego Komitetu Doradczego ds. AI (NAIAC) w USA i przełomowe rozporządzenie wykonawcze administracji Bidena dotyczące sztucznej inteligencji to wyraźne pierwsze kroki na drodze do opracowania potencjalnych uchwał. W nadchodzącym roku wdrażanie nowych rozwiązań w różnych zastosowaniach będzie kontynuowane i coraz więcej firm będzie potrzebować jakiejś formy wskazówek, niezależnie od tego, czy wynika to z bezpieczeństwa, czy ze względów ostrożności.

4. Kontrolowanie podstawowej higieny cybernetycznej

Badania te udowadniają istnienie luki w zabezpieczeniach, która stawia organizacje w trudnej sytuacji ze względu na niezdolność do monitorowania zgodności z politykami i zapewnienia odpowiedzialnego korzystania ze sztucznej inteligencji. Większość organizacji włączy generatywną sztuczną inteligencję do swoich procesów i tak jak w ciągu ostatnich kilku lat zaobserwowaliśmy poprawę edukacji i higieny w zakresie bezpieczeństwa, to samo stanie się również tutaj.

Ostateczny wniosek uwydatnia niepokojącą rozbieżność między pewnością respondentów co do ich zdolności do obrony przed zagrożeniami związanymi ze sztuczną inteligencją a rzeczywistym stanem ich praktyk w zakresie bezpieczeństwa. Prawie 82% wyraża zaufanie w możliwości obronne swojej organizacji. Siedemdziesiąt cztery procent firm planuje w najbliższej przyszłości zainwestować w środki bezpieczeństwa generatywnej sztucznej inteligencji, a mniej niż 50% nie posiada żadnej technologii monitorowania wykorzystania narzędzi generatywnej sztucznej inteligencji. Co więcej, tylko 46% twierdzi, że posiada zasady regulujące dopuszczalne wykorzystanie narzędzi AI, a zaledwie 42% twierdzi, że szkoli użytkowników w zakresie bezpiecznego korzystania z nich.

Chociaż potrzebujemy technologii do monitorowania w pewnym zakresie wykorzystania generatywnej sztucznej inteligencji, równie ważne jest, aby pracownicy w pełni rozumieli, jak działają te narzędzia, jakie są zagrożenia i jak unikać szkodliwych nadużyć. Organizacje powinny również rozważyć utworzenie wielofunkcyjnej grupy zadaniowej składającej się z przedstawicieli działów IT, bezpieczeństwa, HR, prawnego, zarządzania ryzykiem, zgodności i innych, aby badać przypadki użycia technologii i być źródłem szkoleń.

Organizacje muszą stawić czoła dynamicznej naturze generatywnej sztucznej inteligencji, potrzebie uzyskania wskazówek od rządu i konieczności ulepszenia podstawowych środków bezpieczeństwa. Ponieważ generatywna sztuczna inteligencja w dalszym ciągu kształtuje przyszłość technologii, wnioski te dostarczają niezbędnych spostrzeżeń organizacjom, które chcą poruszać się po tym trudnym terenie i chronić swoje interesy w świecie w coraz większym stopniu opartym na sztucznej inteligencji.

Popularne

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

W tym artykule pokażemy, jak możemy zmienić hasło administratora na komputerze posiadając do niego fizyczny dostęp. Artykuł ten można potraktować także jako przestrogę dla firm, które nie zaimplementowały jeszcze odpo...
Jak poznać hasło administratora lub użytkowników logujących się do Twojego komputera?

Jak poznać hasło administratora lub użytkowników logujących się do Twojego komputera?

Jeśli masz odrobinę szczęścia lub „odpowiednie umiejętności” i potrafisz zdobyć lokalne uprawnienia administracyjne na Twoim komputerze w firmie lub zaliczasz się do grona tych szczęściarzy, którzy pracuj...
Jak awaria Azure Front Door rzuciła cień na globalne usługi chmurowe

Jak awaria Azure Front Door rzuciła cień na globalne usługi chmurowe

W środę 9 października użytkownicy platformy Microsoft Azure na całym świecie doświadczyli poważnych zakłóceń. Wiele usług stało się niedostępnych, a administratorzy nie mogli nawet zalogować się do portalu...
Czego nie mówi Broadcom? Luka w VMware jest banalna do wykorzystania i korzysta z niej co najmniej jedna grupa hakerska!

Czego nie mówi Broadcom? Luka w VMware jest banalna do wykorzystania i korzysta z niej co najmniej jedna grupa hakerska!

Niedawno załatana wysoce poważna luka w zabezpieczeniach VMware jest wykorzystywana jako zero-day od października 2024 roku do wykonywania kodu z podwyższonymi uprawnieniami. Taką informacją podzieliło się w...
Uwaga, administratorzy oraz zespoły bezpieczeństwa Splunk! Sześć krytycznych luk w Splunk Enterprise – analiza i rekomendacje

Uwaga, administratorzy oraz zespoły bezpieczeństwa Splunk! Sześć krytycznych luk w Splunk Enterprise – analiza i rekomendacje

Splunk opublikował ważne informacje, dotyczące szeregu nowych podatności w swoich produktach Splunk Enterprise i Splunk Cloud Platform. Luki mogą umożliwić atakującym wykonanie nieautoryzowanego kodu Ja...