Menu dostępności

wykrywanie deep fake w czasie rzeczywistym

Jak wykorzystać sztuczną inteligencję do walki z deepfake’ami?

Kilka lat temu deepfake wydawał się nowatorską technologią, której twórcy polegali na ogromnej mocy obliczeniowej. Dzisiaj deepfake’i są wszechobecne i mogą zostać wykorzystane do dezinformacji, hakowania i innych niecnych celów.

Aby przeciwdziałać temu narastającemu problemowi, firma Intel Labs opracowała technologię wykrywania „głębokich zafałszowanych informacji” w czasie rzeczywistym. Ilke Demir, starszy naukowiec z Intel, wyjaśnia technologię stojącą za deepfake’ami, nowatorskie metody wykrywania firmy Intel oraz kwestie etyczne związane z opracowywaniem i wdrażaniem takich narzędzi.

Deepfake to filmy, nagrania głosowe lub obrazy, w których aktor lub akcja nie są prawdziwe, ale stworzone przez sztuczną inteligencję (AI). Deepfake wykorzystuje złożone architektury głębokiego uczenia się, takie jak generatywne sieci kontradyktoryjne, wariacyjne automatyczne kodery i inne modele sztucznej inteligencji, aby tworzyć wysoce realistyczne i wiarygodne treści. Modele te mogą generować syntetyczne osobowości, filmy z synchronizacją ruchu ust, a nawet konwersje tekstu na obraz, co utrudnia rozróżnienie prawdziwych i fałszywych treści.

Termin „deepfake” jest czasami stosowany do autentycznych treści, które zostały zmienione. Na przykład wideo byłej przewodniczącej Izby Reprezentantów Nancy Pelosi z 2019 r., które zostało przerobione w taki sposób, by kobieta wyglądała na nietrzeźwą.

Zespół Demira bada komputerowe deepfake’i, czyli syntetyczne formy treści generowane przez maszyny. „Powodem, dla którego nazywa się to deepfake, jest skomplikowana architektura głębokiego uczenia się w generatywnej sztucznej inteligencji, która tworzy całą tę treść” – mówi naukowiec.

Cyberprzestępcy i inne złe podmioty często nadużywają technologii deepfake. Niektóre przypadki użycia obejmują dezinformację polityczną, treści dla dorosłych przedstawiające celebrytów lub osoby niewyrażające na to zgody, manipulacje na rynku finansowym. Te negatywne skutki podkreślają potrzebę skutecznych metod wykrywania deepfake’ów.

Intel Labs opracowało jedną z pierwszych na świecie platform wykrywania głębokich zafałszowanych danych w czasie rzeczywistym. Zamiast szukać fałszywych artefaktów, technologia koncentruje się na wykrywaniu tego, co jest prawdziwe, na przykład tętna. Wykorzystując technikę zwaną fotopletyzmografią, system wykrywania analizuje zmiany koloru w żyłach spowodowane zawartością tlenu, co jest widoczne komputerowo – technologia może wykryć, czy nagrana postać jest prawdziwym człowiekiem, czy syntetycznym algorytmem.

„Staramy się spojrzeć na to, co jest prawdziwe i autentyczne. Tętno jest jednym z sygnałów”­– tłumaczy Demir. „Kiedy serce pompuje krew, trafia ona do twoich żył, a żyły zmieniają kolor z powodu zawartości tlenu. Nie jest to widoczne dla naszych oczu; nie można po prostu spojrzeć na film i zobaczyć tej zmiany. Zmiana ta jest jednak widoczna obliczeniowo”.

Technologia wykrywania oszustw Intela jest wdrażana w różnych sektorach i platformach, w tym w narzędziach mediów społecznościowych, agencjach informacyjnych, narzędziach do tworzenia treści, start-upach i organizacjach non-profit. Integrując technologię z przepływami pracy, organizacje te mogą lepiej identyfikować i ograniczać rozprzestrzenianie się deepfake’ów i dezinformacji.

Pomimo możliwości nadużyć technologia deepfake ma legalne zastosowania. Jednym z wczesnych zastosowań było tworzenie awatarów, aby lepiej reprezentować osoby w środowiskach cyfrowych. Demir odnosi się do konkretnego przypadku użycia o nazwie „MyFace, MyChoice”, który wykorzystuje deepfake do zwiększenia prywatności na platformach internetowych.

Mówiąc prościej, podejście to pozwala jednostkom kontrolować swój wygląd na zdjęciach internetowych, zastępując twarz „kwantyfikowalnie niepodobnym deepfake”, jeśli chcą uniknąć rozpoznania. Takie zabiegi zapewniają większą prywatność i kontrolę nad tożsamością, pomagając przeciwdziałać algorytmom automatycznego rozpoznawania twarzy.

Kluczowe znaczenie ma zapewnienie etycznego rozwoju i wdrażania technologii sztucznej inteligencji. Zespół Trusted Media firmy Intel współpracuje z antropologami, naukowcami społecznymi i badaczami zachowań użytkowników w celu oceny i udoskonalenia technologii. Firma posiada również Radę ds. Odpowiedzialnej Sztucznej Inteligencji, która dokonuje przeglądu systemów AI pod kątem odpowiedzialnych i etycznych zasad, w tym potencjalnych uprzedzeń, ograniczeń i możliwych szkodliwych przypadków użycia. To multidyscyplinarne podejście pomaga zapewnić, że technologie takie jak wykrywanie deepfake służą ludziom zamiast wyrządzać szkody.

„Mamy prawników, mamy socjologów, mamy psychologów i wszyscy oni spotykają się, aby wskazać ograniczenia, aby znaleźć stronniczość – błąd algorytmiczny, błąd systematyczny, błąd danych, każdy rodzaj błędu” – mówi Demir. Zespół skanuje kod, aby znaleźć „wszelkie możliwe przypadki użycia technologii, która może zaszkodzić ludziom”.

W miarę jak deepfake’i stają się coraz bardziej rozpowszechnione i zaawansowane, coraz ważniejsze staje się opracowywanie i wdrażanie technologii wykrywania w celu zwalczania dezinformacji i innych szkodliwych konsekwencji. Technologia rozpoznawania deepfake’ów w czasie rzeczywistym firmy Intel Labs oferuje skalowalne i skuteczne rozwiązanie tego narastającego problemu. Uwzględniając względy etyczne i współpracując z ekspertami z różnych dziedzin, Intel pracuje nad przyszłością, w której technologie sztucznej inteligencji będą wykorzystywane w sposób odpowiedzialny i dla dobra społeczeństwa.

Popularne

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Usługa Microsoft Teams stała się kluczowym narzędziem do komunikacji i współpracy w firmach na całym świecie. Z tego powodu wiele organizacji polega na zabezpieczeniach takich jak Microsoft Defender for Off...
Ważna zmiana w OWASP Top 10

Ważna zmiana w OWASP Top 10

OWASP, czyli Open Worldwide Application Security Project, zaproponowało nowe wydanie swojej klasycznej listy Top 10 ryzyk aplikacyjnych. Wersja z 2025 roku wprowadza kluczowe rozszerzenia dotyczące b...
Jak modele LLM automatyzują cyberprzestępczość

Jak modele LLM automatyzują cyberprzestępczość

Każdy Czytelnik Kapitana Hacka wie, że złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedaw...
Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Krótko o narzędziu Bloodhound to narzędzie służące do wizualizacji i analizy powiązań w Active Directory. Dla atakującego jest niezastąpioną pomocą do znajdowania ścieżki ataku na najbardziej c...
Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Odkryto niezwykle niebezpieczną dla użytkowników systemów Windows podatność. Błąd o numerze CVE‑2025‑11001 jest już częściowo wykorzystywany, a dotyczy popularnego programu 7-Zip. Polega na niewłaściwe...