Menu dostępności

wykrywanie deep fake w czasie rzeczywistym

Jak wykorzystać sztuczną inteligencję do walki z deepfake’ami?

Kilka lat temu deepfake wydawał się nowatorską technologią, której twórcy polegali na ogromnej mocy obliczeniowej. Dzisiaj deepfake’i są wszechobecne i mogą zostać wykorzystane do dezinformacji, hakowania i innych niecnych celów.

Aby przeciwdziałać temu narastającemu problemowi, firma Intel Labs opracowała technologię wykrywania „głębokich zafałszowanych informacji” w czasie rzeczywistym. Ilke Demir, starszy naukowiec z Intel, wyjaśnia technologię stojącą za deepfake’ami, nowatorskie metody wykrywania firmy Intel oraz kwestie etyczne związane z opracowywaniem i wdrażaniem takich narzędzi.

Deepfake to filmy, nagrania głosowe lub obrazy, w których aktor lub akcja nie są prawdziwe, ale stworzone przez sztuczną inteligencję (AI). Deepfake wykorzystuje złożone architektury głębokiego uczenia się, takie jak generatywne sieci kontradyktoryjne, wariacyjne automatyczne kodery i inne modele sztucznej inteligencji, aby tworzyć wysoce realistyczne i wiarygodne treści. Modele te mogą generować syntetyczne osobowości, filmy z synchronizacją ruchu ust, a nawet konwersje tekstu na obraz, co utrudnia rozróżnienie prawdziwych i fałszywych treści.

Termin „deepfake” jest czasami stosowany do autentycznych treści, które zostały zmienione. Na przykład wideo byłej przewodniczącej Izby Reprezentantów Nancy Pelosi z 2019 r., które zostało przerobione w taki sposób, by kobieta wyglądała na nietrzeźwą.

Zespół Demira bada komputerowe deepfake’i, czyli syntetyczne formy treści generowane przez maszyny. „Powodem, dla którego nazywa się to deepfake, jest skomplikowana architektura głębokiego uczenia się w generatywnej sztucznej inteligencji, która tworzy całą tę treść” – mówi naukowiec.

Cyberprzestępcy i inne złe podmioty często nadużywają technologii deepfake. Niektóre przypadki użycia obejmują dezinformację polityczną, treści dla dorosłych przedstawiające celebrytów lub osoby niewyrażające na to zgody, manipulacje na rynku finansowym. Te negatywne skutki podkreślają potrzebę skutecznych metod wykrywania deepfake’ów.

Intel Labs opracowało jedną z pierwszych na świecie platform wykrywania głębokich zafałszowanych danych w czasie rzeczywistym. Zamiast szukać fałszywych artefaktów, technologia koncentruje się na wykrywaniu tego, co jest prawdziwe, na przykład tętna. Wykorzystując technikę zwaną fotopletyzmografią, system wykrywania analizuje zmiany koloru w żyłach spowodowane zawartością tlenu, co jest widoczne komputerowo – technologia może wykryć, czy nagrana postać jest prawdziwym człowiekiem, czy syntetycznym algorytmem.

„Staramy się spojrzeć na to, co jest prawdziwe i autentyczne. Tętno jest jednym z sygnałów”­– tłumaczy Demir. „Kiedy serce pompuje krew, trafia ona do twoich żył, a żyły zmieniają kolor z powodu zawartości tlenu. Nie jest to widoczne dla naszych oczu; nie można po prostu spojrzeć na film i zobaczyć tej zmiany. Zmiana ta jest jednak widoczna obliczeniowo”.

Technologia wykrywania oszustw Intela jest wdrażana w różnych sektorach i platformach, w tym w narzędziach mediów społecznościowych, agencjach informacyjnych, narzędziach do tworzenia treści, start-upach i organizacjach non-profit. Integrując technologię z przepływami pracy, organizacje te mogą lepiej identyfikować i ograniczać rozprzestrzenianie się deepfake’ów i dezinformacji.

Pomimo możliwości nadużyć technologia deepfake ma legalne zastosowania. Jednym z wczesnych zastosowań było tworzenie awatarów, aby lepiej reprezentować osoby w środowiskach cyfrowych. Demir odnosi się do konkretnego przypadku użycia o nazwie „MyFace, MyChoice”, który wykorzystuje deepfake do zwiększenia prywatności na platformach internetowych.

Mówiąc prościej, podejście to pozwala jednostkom kontrolować swój wygląd na zdjęciach internetowych, zastępując twarz „kwantyfikowalnie niepodobnym deepfake”, jeśli chcą uniknąć rozpoznania. Takie zabiegi zapewniają większą prywatność i kontrolę nad tożsamością, pomagając przeciwdziałać algorytmom automatycznego rozpoznawania twarzy.

Kluczowe znaczenie ma zapewnienie etycznego rozwoju i wdrażania technologii sztucznej inteligencji. Zespół Trusted Media firmy Intel współpracuje z antropologami, naukowcami społecznymi i badaczami zachowań użytkowników w celu oceny i udoskonalenia technologii. Firma posiada również Radę ds. Odpowiedzialnej Sztucznej Inteligencji, która dokonuje przeglądu systemów AI pod kątem odpowiedzialnych i etycznych zasad, w tym potencjalnych uprzedzeń, ograniczeń i możliwych szkodliwych przypadków użycia. To multidyscyplinarne podejście pomaga zapewnić, że technologie takie jak wykrywanie deepfake służą ludziom zamiast wyrządzać szkody.

„Mamy prawników, mamy socjologów, mamy psychologów i wszyscy oni spotykają się, aby wskazać ograniczenia, aby znaleźć stronniczość – błąd algorytmiczny, błąd systematyczny, błąd danych, każdy rodzaj błędu” – mówi Demir. Zespół skanuje kod, aby znaleźć „wszelkie możliwe przypadki użycia technologii, która może zaszkodzić ludziom”.

W miarę jak deepfake’i stają się coraz bardziej rozpowszechnione i zaawansowane, coraz ważniejsze staje się opracowywanie i wdrażanie technologii wykrywania w celu zwalczania dezinformacji i innych szkodliwych konsekwencji. Technologia rozpoznawania deepfake’ów w czasie rzeczywistym firmy Intel Labs oferuje skalowalne i skuteczne rozwiązanie tego narastającego problemu. Uwzględniając względy etyczne i współpracując z ekspertami z różnych dziedzin, Intel pracuje nad przyszłością, w której technologie sztucznej inteligencji będą wykorzystywane w sposób odpowiedzialny i dla dobra społeczeństwa.

Popularne

Nowy poziom bezpieczeństwa. Android 16 wzmacnia ochronę przed kradzieżą – co to oznacza dla Twojego smartfona?

Nowy poziom bezpieczeństwa. Android 16 wzmacnia ochronę przed kradzieżą – co to oznacza dla Twojego smartfona?

W erze, gdy smartfony zawierają całą naszą cyfrową tożsamość - od zdjęć i danych osobowych po dostęp do bankowości - kradzież telefonu to już nie tylko strata sprzętu, ale potencjalna furtka do finansowej...
Od kart perforowanych do hasła. Historia logowania

Od kart perforowanych do hasła. Historia logowania

Dziś logowanie jest czynnością banalną: login, hasło, kliknięcie. Trudno sobie wyobrazić komputer bez kont użytkowników i uwierzytelniania. A jednak przez pierwsze dekady informatyki logowanie w ogóle...
Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

Jak zmienić nieznane/zapomniane hasło Administratora na Windows?

W tym artykule pokażemy, jak możemy zmienić hasło administratora na komputerze posiadając do niego fizyczny dostęp. Artykuł ten można potraktować także jako przestrogę dla firm, które nie zaimplementowały jeszcze odpo...
Jak zoptymalizować budżet na cyberbezpieczeństwo w 2026 roku

Jak zoptymalizować budżet na cyberbezpieczeństwo w 2026 roku

W czasach rosnących zagrożeń i coraz bardziej zaawansowanych ataków wydatki na cyberbezpieczeństwo nie są już tylko „kosztem” -  stały się strategiczną inwestycją chroniącą integralność danych, reputację o...
Uwaga na PDFSider – nowy zaawansowany malware używany przez grupy ransomware

Uwaga na PDFSider – nowy zaawansowany malware używany przez grupy ransomware

Nowo zidentyfikowana rodzina złośliwego oprogramowania o zaawansowanych możliwościach jest wykorzystywana w atakach ukierunkowanych (APT) – również przez wiele grup ransomware. Zagrożenie zostało...