Menu dostępności

Cztery problemy z generatywną AI czekające nas w 2024 roku

Cztery problemy z generatywną AI czekające nas w 2024 roku

Generatywna sztuczna inteligencja w ostatnim roku ewoluowała w zawrotnym tempie. Dotyczy to również sfery IT, a w szczególności cyberbezpieczeństwa, gdzie uczenie maszynowe jest wykorzystywane od lat.

Niedawno opublikowane dane z ankiety ExtraHop dostarczają cennych informacji na temat obaw liderów IT i bezpieczeństwa oraz strategii, które mogą pomóc w nadchodzącym roku.

Przeprowadzono ankietę wśród 1250 liderów IT i oficerów cyberbezpieczeństwa na całym świecie, aby zrozumieć ich plany dotyczące zabezpieczania i zarządzania wykorzystaniem generatywnych narzędzi AI w ich organizacjach. Liderzy wdrażanych technologii znajdują się w kluczowym punkcie.

Na podstawie wyników ankiety można opisać cztery zagadnienia, które zespoły ds. bezpieczeństwa będą musiały wziąć pod uwagę w nadchodzącym roku przy wdrażaniu nowej generacji AI:

1. Zrozumienie zagrożeń związanych z generatywną sztuczną inteligencją

O dziwo badanie wykazało, że bezpieczeństwo nie jest główną troską liderów branży IT, jeśli chodzi o generatywną sztuczną inteligencję. Dane pokazują, że 40% ankietowanych bardziej martwi się otrzymaniem niedokładnych lub bezsensownych odpowiedzi/analiz niż kwestiami bezpośrednio związanymi z bezpieczeństwem. Jednakże 36% wskazało na ujawnienie danych osobowych klientów i pracowników, kolejne 33% stwierdziło, że tajemnice handlowe stanowią problem, a 25% zaobserwowało straty finansowe. Pomimo szerokiego zastosowania AI w ciągu ostatniego roku, możliwe, że liderzy IT i bezpieczeństwa nie traktują obecnie zagrożeń bezpieczeństwa priorytetowo. Ponieważ w najbliższej przyszłości będziemy obserwować kontynuację wdrażania i rozwoju sztucznej inteligencji, spodziewamy się tej zmiany i pojawienia się nowych produktów, które zapewnią niezbędną widoczność generatywnego wykorzystania sztucznej inteligencji w całym przedsiębiorstwie. W miarę dostępności zasobów firmy mogą rozważyć zbudowanie we własnym zakresie generatywnych narzędzi sztucznej inteligencji, aby uniknąć wszelkich obaw związanych z prywatnością przy korzystaniu z narzędzi publicznych.

2. Wdrożenie przemyślanej polityki korzystania z AI wewnątrz organizacji

ChatGPT OpenAI został udostępniony publicznie w listopadzie 2022 r. i w ciągu czterech dni od premiery zdobył ponad milion użytkowników. Nie było zaskoczeniem, gdy 73% respondentów stwierdziło, iż pracownicy ich organizacji czasami lub często korzystają z generatywnych narzędzi AI lub LLM. Oczywiste jest, że liczba ta będzie nadal rosła. Prawie jedna trzecia organizacji zdecydowała się na całkowity zakaz stosowania generatywnych narzędzi AI. Fakt, że 5% respondentów twierdzi, jakoby ich pracownicy nigdy nie korzystali z generatywnych narzędzi AI, sugeruje, że zakazy nie są tak skuteczne, jak początkowo sądzono. Jednak potencjał użytkowy tej wschodzącej klasy technologii jest sprawą najwyższej wagi i organizacje staną się bardziej otwarte na korzystanie z generatywnej sztucznej inteligencji, w miarę jak narzędzia te z czasem staną się coraz bardziej przydatne.

3. Poleganie na wiarygodnych zasadach rządowych i branżowych

Badanie pokazuje, że zdecydowana większość (90%) respondentów pragnie zaangażowania rządu w rozwiązanie problemu bezpieczeństwa generatywnej sztucznej inteligencji. 60% opowiada się za obowiązkowymi regulacjami, a 30% popiera standardy rządowe, które przedsiębiorstwa mogą przyjąć według własnego uznania. Wymaga to przepisów zapewniamjących w przyszłości odpowiedzialne wykorzystanie generatywnej sztucznej inteligencji. Utworzenie Krajowego Komitetu Doradczego ds. AI (NAIAC) w USA i przełomowe rozporządzenie wykonawcze administracji Bidena dotyczące sztucznej inteligencji to wyraźne pierwsze kroki na drodze do opracowania potencjalnych uchwał. W nadchodzącym roku wdrażanie nowych rozwiązań w różnych zastosowaniach będzie kontynuowane i coraz więcej firm będzie potrzebować jakiejś formy wskazówek, niezależnie od tego, czy wynika to z bezpieczeństwa, czy ze względów ostrożności.

4. Kontrolowanie podstawowej higieny cybernetycznej

Badania te udowadniają istnienie luki w zabezpieczeniach, która stawia organizacje w trudnej sytuacji ze względu na niezdolność do monitorowania zgodności z politykami i zapewnienia odpowiedzialnego korzystania ze sztucznej inteligencji. Większość organizacji włączy generatywną sztuczną inteligencję do swoich procesów i tak jak w ciągu ostatnich kilku lat zaobserwowaliśmy poprawę edukacji i higieny w zakresie bezpieczeństwa, to samo stanie się również tutaj.

Ostateczny wniosek uwydatnia niepokojącą rozbieżność między pewnością respondentów co do ich zdolności do obrony przed zagrożeniami związanymi ze sztuczną inteligencją a rzeczywistym stanem ich praktyk w zakresie bezpieczeństwa. Prawie 82% wyraża zaufanie w możliwości obronne swojej organizacji. Siedemdziesiąt cztery procent firm planuje w najbliższej przyszłości zainwestować w środki bezpieczeństwa generatywnej sztucznej inteligencji, a mniej niż 50% nie posiada żadnej technologii monitorowania wykorzystania narzędzi generatywnej sztucznej inteligencji. Co więcej, tylko 46% twierdzi, że posiada zasady regulujące dopuszczalne wykorzystanie narzędzi AI, a zaledwie 42% twierdzi, że szkoli użytkowników w zakresie bezpiecznego korzystania z nich.

Chociaż potrzebujemy technologii do monitorowania w pewnym zakresie wykorzystania generatywnej sztucznej inteligencji, równie ważne jest, aby pracownicy w pełni rozumieli, jak działają te narzędzia, jakie są zagrożenia i jak unikać szkodliwych nadużyć. Organizacje powinny również rozważyć utworzenie wielofunkcyjnej grupy zadaniowej składającej się z przedstawicieli działów IT, bezpieczeństwa, HR, prawnego, zarządzania ryzykiem, zgodności i innych, aby badać przypadki użycia technologii i być źródłem szkoleń.

Organizacje muszą stawić czoła dynamicznej naturze generatywnej sztucznej inteligencji, potrzebie uzyskania wskazówek od rządu i konieczności ulepszenia podstawowych środków bezpieczeństwa. Ponieważ generatywna sztuczna inteligencja w dalszym ciągu kształtuje przyszłość technologii, wnioski te dostarczają niezbędnych spostrzeżeń organizacjom, które chcą poruszać się po tym trudnym terenie i chronić swoje interesy w świecie w coraz większym stopniu opartym na sztucznej inteligencji.

Popularne

Grupa ransomware zyskuje pełną kontrolę nad platformą Azure! Analiza ataku

Grupa ransomware zyskuje pełną kontrolę nad platformą Azure! Analiza ataku

Ciekawe informacje przynoszą badacze Microsoft. Opisali oni, w jaki sposób często omawiane przez nas ataki na AD mogą posłużyć do przejęcia całego środowiska chmurowego. Jako przykład służy Storm-0501 ...
PromptLock – pierwszy ransomware oparty na sztucznej inteligencji!

PromptLock – pierwszy ransomware oparty na sztucznej inteligencji!

MalwareAI, czyli złośliwe oprogramowanie oparte na sztucznej inteligencji, jest bliżej, niż oczekiwano. Odkryto pierwszą rodzinę ransomware wykorzystującą systemy sztucznej inteligencji do operacji lokalny...
Popularne oszustwa na WhatsAppie i jak ich uniknąć

Popularne oszustwa na WhatsAppie i jak ich uniknąć

Z ponad dwoma miliardami użytkowników WhatsApp oferuje ogromną pulę potencjalnych celów dla scamerów. Aby jeszcze bardziej skomplikować sprawę, oszuści cały czas zdobywają nowe wyrafinowane umiejętno...
Cyberprzestępcy sięgają po formularze „Contact Us” – nowy atak phishingowy na firmy produkcyjne

Cyberprzestępcy sięgają po formularze „Contact Us” – nowy atak phishingowy na firmy produkcyjne

Najnowsza kampania phishingowa, ujawniona przez badaczy z Check Point, koncentruje się na firmach z sektora produkcyjnego oraz innych kluczowych elementach łańcuchów dostaw. Jej szczególna złośliwość polega n...
Uwaga! Ataki na użytkowników Apple wykorzystujące lukę zero-day w WhatsAppie!

Uwaga! Ataki na użytkowników Apple wykorzystujące lukę zero-day w WhatsAppie!

O platformie WhatsApp pisaliśmy wielokrotnie. Dzisiaj mamy ku temu kolejny powód. WhatsApp udostępnił szczegóły dotyczące podatności typu zero-day, która została wykorzystana w kampanii szpiegującej, w ukierunk...