Menu dostępności

Meta zatrzymuje trenowanie modeli AI na użytkownikach w Unii Europejskiej

Meta oświadczyła kilka dni temu, że opóźnia prace mające na celu przeszkolenie dużych modeli językowych AI (LLM) przy użyciu treści publicznych udostępnianych przez dorosłych użytkowników na Facebooku i Instagramie w Unii Europejskiej w związku z wnioskiem irlandzkiej Komisji Ochrony Danych (DPC).

Firma wyraziła rozczarowanie koniecznością wstrzymania planów dotyczących sztucznej inteligencji, stwierdzając, że wzięła pod uwagę opinie organów regulacyjnych i organów ochrony danych w danym regionie.

Sporny jest natomiast plan Mety polegający na wykorzystywaniu danych osobowych do szkolenia modeli sztucznej inteligencji bez konieczności uzyskania wyraźnej zgody użytkowników i zamiast tego opieraniu się na podstawie prawnej „uzasadnionych interesów” w celu przetwarzania danych własnych i stron trzecich w danej geolokalizacji.

Oczekiwano, że zapowiadane zmiany wejdą w życie 26 czerwca, kiedy Meta stwierdziła, że ​​użytkownicy mogą zrezygnować z wykorzystywania swoich danych, przesyłając wniosek. Firma wykorzystuje już treści generowane przez użytkowników do szkolenia swojej sztucznej inteligencji na innych rynkach, takich jak USA.

„To krok wstecz w stosunku do europejskich innowacji, konkurencji w rozwoju sztucznej inteligencji i dalsze opóźnienia w udostępnianiu korzyści płynących ze sztucznej inteligencji obywatelom Europy” – powiedział Stefano Fratta, dyrektor ds. globalnego zaangażowania w politykę prywatności firmy Meta.

„Jesteśmy pewni, że nasze podejście jest zgodne z europejskimi przepisami i regulacjami. Szkolenia w zakresie sztucznej inteligencji nie są cechą charakterystyczną naszych usług i jesteśmy bardziej przejrzyści niż wielu naszych odpowiedników z branży” (zapewne Meta ma tu na myśli Tik-Toka czy Snapchat).

Firma stwierdziła również, że nie może wprowadzić Meta AI do Europy, jeśli nie będzie w stanie przeszkolić swoich modeli sztucznej inteligencji na podstawie informacji zebranych lokalnie, uwzględniających różnorodne języki, położenie geograficzne i odniesienia kulturowe, zauważając, że w przeciwnym razie byłoby to „doświadczeniem drugiej kategorii”.

Oprócz współpracy z DPC nad wprowadzeniem narzędzia sztucznej inteligencji do Europy zauważono, że opóźnienie pomoże odpowiedzieć na prośby otrzymane od brytyjskiego organu regulacyjnego, Biura Komisarza ds. Informacji (ICO), przed rozpoczęciem szkolenia.

„Aby w pełni wykorzystać generatywną sztuczną inteligencję i możliwości, jakie ona niesie, ważne jest, aby społeczeństwo mogło mieć pewność, że jej prawa do prywatności będą od samego początku szanowane” – powiedział Stephen Almond, dyrektor wykonawczy ds. ryzyka regulacyjnego w ICO.

„Będziemy nadal monitorować głównych twórców generatywnej sztucznej inteligencji, w tym Metę, aby dokonać przeglądu wprowadzonych przez nich zabezpieczeń i zapewnić ochronę praw informacyjnych użytkowników w Wielkiej Brytanii”.

Rozwój nastąpił po tym, jak austriacka organizacja non-profit o nazwie Noyb złożyła skargę w 11 krajach Europy, zarzucając naruszenie Ogólnego rozporządzenia o ochronie danych (RODO) w regionie poprzez zbieranie danych użytkowników w celu opracowywania nieokreślonych technologii sztucznej inteligencji i udostępnianie ich stronom trzecim.

„Meta zasadniczo mówi, że może wykorzystywać «dowolne dane z dowolnego źródła w dowolnym celu i udostępniać je każdemu na świecie», pod warunkiem, że odbywa się to za pomocą «technologii sztucznej inteligencji»” – powiedział założyciel Noyb, Max Schrems. „Jest to wyraźne przeciwieństwo zgodności z RODO”.

„Meta nie mówi, do czego będzie wykorzystywać dane, więc może to być prosty chatbot, wyjątkowo agresywna spersonalizowana reklama lub nawet zabójczy dron. Meta twierdzi również, że dane użytkownika mogą zostać udostępnione dowolnej „stronie trzeciej” – co może oznaczać każdego na świecie.

Noyb skrytykował także firmę Meta za wysuwanie nieszczerych twierdzeń i traktowanie opóźnienia jako „kary zbiorowej”, wskazując, że przepisy dotyczące prywatności RODO zezwalają na przetwarzanie danych osobowych, o ile użytkownicy wyrażą świadomą zgodę.

Wydaje się więc, że Meta mogłaby pewnie bez komplikacji wdrożyć technologię sztucznej inteligencji w Europie, gdyby tylko zadała sobie trud poproszenia odpowiednich organów o zgodę, zachowując przy tym przejrzystość działań.

Popularne

Masowy wyciek danych PayPal – 15,8 miliona haseł w rękach cyberprzestępców

Masowy wyciek danych PayPal – 15,8 miliona haseł w rękach cyberprzestępców

16 sierpnia br. na forum cyberprzestępczym pojawiła się oferta sprzedaży ogromnej bazy danych, zawierającej ponad 15,8 miliona par adresów e-mail i haseł w formacie jawnego tekstu powiązanych z konta...
Groźna dziura w Microsoft IIS. Deserializacja usług może prowadzić do zdalnego wykonania kodu

Groźna dziura w Microsoft IIS. Deserializacja usług może prowadzić do zdalnego wykonania kodu

W połowie sierpnia 2025 roku ujawniono poważną lukę bezpieczeństwa w narzędziu Microsoft Web Deploy 4.0, używanym do publikacji aplikacji webowych na serwerach IIS. Luka – oznaczona jako CVE-2025-53772 – pozwal...
Wyciek kodu źródłowego trojana bankowego ERMAC V3.0

Wyciek kodu źródłowego trojana bankowego ERMAC V3.0

Świat cyberbezpieczeństwa odnotował kolejne znaczące wydarzenie – ujawniono pełny kod źródłowy zaawansowanego trojana bankowego ERMAC V3.0, stworzonego z myślą o urządzeniach z systemem Android i działające...
Co sprawia, że Deep Web jest cennym źródłem threat intelligence?

Co sprawia, że Deep Web jest cennym źródłem threat intelligence?

Deep Web, czyli warstwa Internetu niedostępna dla standardowych wyszukiwarek, często bywa pomijana w analizach bezpieczeństwa, mimo że stanowi niezwykle wartościowe źródło informacji o zagrożeniach. Jej tre...
Miliony laptopów Dell narażone na kompromitację

Miliony laptopów Dell narażone na kompromitację

Niedawno pisaliśmy o kłopotach Lenovo, dzisiaj czas na Dell. Okazuje się, że pięć luk w oprogramowaniu ControlVault3 i powiązanych interfejsach API systemu Windows naraża miliony laptopów na trwałe w...