Menu dostępności

Próby regulacji prawnych AI

Próby regulacji prawnych AI oraz ChatGPT kontra Garante

Rosnąca popularność generatywnych systemów sztucznej inteligencji, takich jak ChatGPT, przyciąga coraz częściej uwagę organów regulacyjnych w Europie i po drugiej stronie Atlantyku.

W zeszłym tygodniu Federalna Komisja Handlu Stanów Zjednoczonych wszczęła dochodzenie w sprawie powiązań między start-upami zajmującymi się sztuczną inteligencją OpenAI i Anthropic a gigantami technologicznymi, którzy je finansują – Amazonem, Google i Microsoftem. Jednocześnie organy regulacyjne ds. konkurencji w UE i Wielkiej Brytanii analizują inwestycje Microsoftu w OpenAI.

UE wzięła na tapet systemy sztucznej inteligencji. Unia finalizuje prace nad przełomową ustawą o sztucznej inteligencji – pierwszym na świecie kompleksowym zbiorem przepisów dotyczących AI. Oczekuje się, że 27 państw członkowskich bloku wyrazi zgodę w kluczowym głosowaniu w piątek 2 lutego.

Polska również przygotowuje się do spodziewanej „cyfrowej rewolucji”. Ministerstwo Cyfryzacji ogłosiło powołanie zespołu doradczego PL/AI Sztuczna Inteligencja dla Polski.

Oczywiście, jak to w naszym kraju bywa, od razu pojawiły się kontrowersje, o czym pisze Cyberdefence24.

Podobna rada istnieje już w Stanach Zjednoczonych. Niedawno prasa informowała, że rada ds. sztucznej inteligencji Białego Domu spotkała się, aby dokonać przeglądu postępów w realizacji rozporządzenia wykonawczego podpisanego przez prezydenta Joe Bidena trzy miesiące temu.

Najważniejszym z 90-dniowych celów stawianych przed radą był nakaz wynikający z ustawy o produkcji obronnej, zgodnie z którym firmy zajmujące się sztuczną inteligencją mają udostępniać Departamentowi Handlu istotne informacje, w tym testy bezpieczeństwa.

Ben Buchanan, specjalny doradca Białego Domu ds. sztucznej inteligencji, powiedział w wywiadzie, że rząd chce „wiedzieć, że systemy sztucznej inteligencji są bezpieczne, zanim zostaną udostępnione społeczeństwu – prezydent dał jasno do zrozumienia, że firmy muszą spełnić ten wymóg”.

Producenci oprogramowania zobowiązali się do stosowania zestawu kategorii testów bezpieczeństwa, ale nie muszą jeszcze przestrzegać wspólnego standardu dotyczącego takich testów. Rządowy Narodowy Instytut Standardów i Technologii opracuje jednolite ramy oceny bezpieczeństwa w ramach wspomnianego, podpisanego w październiku, zarządzenia Bidena.

Włochy z kolei podjęły chyba najbardziej radykalną próbę unormowania działania AI. Włoskie organy regulacyjne poinformowały OpenAI, że chatbot ChatGPT oparty na sztucznej inteligencji naruszył zasady Unii Europejskiej dotyczące prywatności danych. Krajowy organ ochrony danych, znany jako Garante, oświadczył w poniedziałek, że powiadomił OpenAI o naruszeniu przepisów UE, znanych jako Ogólne rozporządzenie o ochronie danych (GDPR, czyli RODO).

Organ nadzorczy rozpoczął dochodzenie w sprawie ChatGPT w zeszłym roku, kiedy tymczasowo zablokował we Włoszech chatbota. Na podstawie wyników swoich „działań wyjaśniających” stwierdził, iż „doszedł do wniosku, że dostępne dowody wskazują na istnienie naruszeń przepisów dotyczących prywatności”.

OpenAI ma 30 dni na ustosunkowanie się do zarzutów. W zeszłym roku firma oświadczyła, że spełniła szereg warunków, które postawiło Garante w celu zniesienia zakazu używania ChatGPT.

Organ nadzorczy nałożył zakaz po stwierdzeniu, że wiadomości i informacje o płatnościach niektórych użytkowników zostały ujawnione, a także dlatego, że ChatGPT nie posiadał systemu weryfikacji wieku użytkowników, co umożliwiało dzieciom uzyskiwanie z narzędzia AI treści nieodpowiednich dla ich wieku.

Garante kwestionuje również, czy istnieje podstawa prawna do gromadzenia przez OpenAI ogromnych ilości danych wykorzystywanych do uczenia algorytmów ChatGPT i wyraża obawy, że system może czasami generować fałszywe informacje o poszczególnych osobach.

Popularne

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Usługa Microsoft Teams stała się kluczowym narzędziem do komunikacji i współpracy w firmach na całym świecie. Z tego powodu wiele organizacji polega na zabezpieczeniach takich jak Microsoft Defender for Off...
Ważna zmiana w OWASP Top 10

Ważna zmiana w OWASP Top 10

OWASP, czyli Open Worldwide Application Security Project, zaproponowało nowe wydanie swojej klasycznej listy Top 10 ryzyk aplikacyjnych. Wersja z 2025 roku wprowadza kluczowe rozszerzenia dotyczące b...
Jak modele LLM automatyzują cyberprzestępczość

Jak modele LLM automatyzują cyberprzestępczość

Każdy Czytelnik Kapitana Hacka wie, że złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedaw...
Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Krótko o narzędziu Bloodhound to narzędzie służące do wizualizacji i analizy powiązań w Active Directory. Dla atakującego jest niezastąpioną pomocą do znajdowania ścieżki ataku na najbardziej c...
Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Odkryto niezwykle niebezpieczną dla użytkowników systemów Windows podatność. Błąd o numerze CVE‑2025‑11001 jest już częściowo wykorzystywany, a dotyczy popularnego programu 7-Zip. Polega na niewłaściwe...