Meta oświadczyła kilka dni temu, że opóźnia prace mające na celu przeszkolenie dużych modeli językowych AI (LLM) przy użyciu treści publicznych udostępnianych przez dorosłych użytkowników na Facebooku i Instagramie w Unii Europejskiej w związku z wnioskiem irlandzkiej Komisji Ochrony Danych (DPC).
Firma wyraziła rozczarowanie koniecznością wstrzymania planów dotyczących sztucznej inteligencji, stwierdzając, że wzięła pod uwagę opinie organów regulacyjnych i organów ochrony danych w danym regionie.
Sporny jest natomiast plan Mety polegający na wykorzystywaniu danych osobowych do szkolenia modeli sztucznej inteligencji bez konieczności uzyskania wyraźnej zgody użytkowników i zamiast tego opieraniu się na podstawie prawnej „uzasadnionych interesów” w celu przetwarzania danych własnych i stron trzecich w danej geolokalizacji.
Oczekiwano, że zapowiadane zmiany wejdą w życie 26 czerwca, kiedy Meta stwierdziła, że użytkownicy mogą zrezygnować z wykorzystywania swoich danych, przesyłając wniosek. Firma wykorzystuje już treści generowane przez użytkowników do szkolenia swojej sztucznej inteligencji na innych rynkach, takich jak USA.
„To krok wstecz w stosunku do europejskich innowacji, konkurencji w rozwoju sztucznej inteligencji i dalsze opóźnienia w udostępnianiu korzyści płynących ze sztucznej inteligencji obywatelom Europy” – powiedział Stefano Fratta, dyrektor ds. globalnego zaangażowania w politykę prywatności firmy Meta.
„Jesteśmy pewni, że nasze podejście jest zgodne z europejskimi przepisami i regulacjami. Szkolenia w zakresie sztucznej inteligencji nie są cechą charakterystyczną naszych usług i jesteśmy bardziej przejrzyści niż wielu naszych odpowiedników z branży” (zapewne Meta ma tu na myśli Tik-Toka czy Snapchat).
Firma stwierdziła również, że nie może wprowadzić Meta AI do Europy, jeśli nie będzie w stanie przeszkolić swoich modeli sztucznej inteligencji na podstawie informacji zebranych lokalnie, uwzględniających różnorodne języki, położenie geograficzne i odniesienia kulturowe, zauważając, że w przeciwnym razie byłoby to „doświadczeniem drugiej kategorii”.
Oprócz współpracy z DPC nad wprowadzeniem narzędzia sztucznej inteligencji do Europy zauważono, że opóźnienie pomoże odpowiedzieć na prośby otrzymane od brytyjskiego organu regulacyjnego, Biura Komisarza ds. Informacji (ICO), przed rozpoczęciem szkolenia.
„Aby w pełni wykorzystać generatywną sztuczną inteligencję i możliwości, jakie ona niesie, ważne jest, aby społeczeństwo mogło mieć pewność, że jej prawa do prywatności będą od samego początku szanowane” – powiedział Stephen Almond, dyrektor wykonawczy ds. ryzyka regulacyjnego w ICO.
„Będziemy nadal monitorować głównych twórców generatywnej sztucznej inteligencji, w tym Metę, aby dokonać przeglądu wprowadzonych przez nich zabezpieczeń i zapewnić ochronę praw informacyjnych użytkowników w Wielkiej Brytanii”.
Rozwój nastąpił po tym, jak austriacka organizacja non-profit o nazwie Noyb złożyła skargę w 11 krajach Europy, zarzucając naruszenie Ogólnego rozporządzenia o ochronie danych (RODO) w regionie poprzez zbieranie danych użytkowników w celu opracowywania nieokreślonych technologii sztucznej inteligencji i udostępnianie ich stronom trzecim.
„Meta zasadniczo mówi, że może wykorzystywać «dowolne dane z dowolnego źródła w dowolnym celu i udostępniać je każdemu na świecie», pod warunkiem, że odbywa się to za pomocą «technologii sztucznej inteligencji»” – powiedział założyciel Noyb, Max Schrems. „Jest to wyraźne przeciwieństwo zgodności z RODO”.
„Meta nie mówi, do czego będzie wykorzystywać dane, więc może to być prosty chatbot, wyjątkowo agresywna spersonalizowana reklama lub nawet zabójczy dron. Meta twierdzi również, że dane użytkownika mogą zostać udostępnione dowolnej „stronie trzeciej” – co może oznaczać każdego na świecie.
Noyb skrytykował także firmę Meta za wysuwanie nieszczerych twierdzeń i traktowanie opóźnienia jako „kary zbiorowej”, wskazując, że przepisy dotyczące prywatności RODO zezwalają na przetwarzanie danych osobowych, o ile użytkownicy wyrażą świadomą zgodę.
Wydaje się więc, że Meta mogłaby pewnie bez komplikacji wdrożyć technologię sztucznej inteligencji w Europie, gdyby tylko zadała sobie trud poproszenia odpowiednich organów o zgodę, zachowując przy tym przejrzystość działań.