Wszyscy znamy pojęcie „fake newsów”. Informacje o farmach troll, internetowym hejcie i działaniach „piarowych” z wykorzystaniem nowoczesnych środków przekazu dominują w wiadomości na całym Świecie. Jaka będzie przyszłość wpływania na opinię publiczną w kontekście rozwoju sztucznej inteligencji? Jakie już teraz obserwujemy trendy?

ZDNet pisze o ciekawym zjawisku. Komercjalizacji „fake newsów”. Według portalu cyberprzestępcy podążają śladami niektórych państw, oferując usługi dezinformacyjne – ale zamiast próbować wpływać na wybory lub dyskurs polityczny, te kampanie są skierowane do sektora prywatnego. Okazuje się, że za kilkaset dolarów członkowie forów przestępczych opracują kampanie dezinformacyjne na dużą skalę, których organizacje mogą użyć, aby fałszywie wygenerować pozytywną propagandę na swój temat – lub wygenerować kampanie dezinformacyjne mające na celu oczernianie rywali kłamstwami i złośliwym materiałem.
W obu przypadkach kampanie mogą być z powodzeniem uruchomione w niecały miesiąc i niewiele kosztować.

Zjawisko szczegółowo opisał zespół badawczy Insikt Group z Recorded Future, który był świadkiem, że grupy rosyjskojęzyczne coraz częściej reklamują swoje usługi osobom z zewnątrz dotychczasowej grupy docelowej.

„Doskonalili swoje umiejętności przez wiele lat, a teraz zaczynają sprzedawać kampanie dezinformacyjne w całej Europie Wschodniej.” powiedział Roman Sannikov, szef działu analityków w Recorded Future. „Gdy ten rodzaj działalności stał się znacznie bardziej znany na Zachodzie, uważamy, że niektórzy z tych których definiowaliśmy jako podstawowych aktorów dezinformacji postanowili wykorzystać swoją nową sławę i spróbować zarobić na pozbawionych skrupułów firmach i podmiotach.” dodał.

Researcherzy stworzyli fikcyjną firmę i wykorzystali dwa osobne konta, aby skontaktować się z dwoma użytkownikami darknetu, którzy oferowali usługi dezinformacyjne. Jeden został poproszony o zbudowanie pozytywnej kampanii dezinformacyjnej na temat firmy, a drugi został poproszony o skierowanie ataku za pomocą kampanii negatywnej.

Portale zostały wypełnione historiami o głośnych naruszeniach bezpieczeństwa cybernetycznego w dużych firmach. Hakowanie spowodowało spustoszenie na różnych poziomach, zagrażając kontom bankowym, zawstydzając dyrektorów korporacyjnych i umożliwiając kradzież tożsamości.
W obu przypadkach dostawcy usług cyberprzestępczych oferowali wysoce spersonalizowane kampanie, wykorzystując media społecznościowe do generowania wpływów.

Kampanie były zgodne z podobnymi strategiami, jak wspierane przez państwo kampanie dezinformacyjne, wykorzystując nowo utworzone lub istniejące od dawna konta na „głównych platformach społecznościowych”, aby pomóc w rozpowszechnianiu informacji. W niektórych przypadkach prawdziwi użytkownicy odpowiadali na konta firm.

Do kampanii wykorzystano media społecznościowe, jednak osoby sprzedające usługi dezinformacyjne w darknecie opisując swoją działalność obiecały, że będą tworzyć własne artykuły i blogi, aby pomóc w realizacji założonego planu.

Na przykład użytkownik oferujący pozytywne relacje napisał artykuły – wraz z edycjami po otrzymaniu opinii – i podał ceny za umieszczenie artykułów w różnych miejscach w Internecie.

Researcherzy twierdzą, że artykuł został opublikowany jako wiadomość w dwóch źródłach medialnych, ilustrując łatwość rozprzestrzeniania się informacji.

Drugi użytkownik zaoferował również edycje oparte na opiniach, zanim zdecydował o udostępnianiu dezinformacji za pomocą kont w mediach społecznościowych, w tym starszych, bardziej znanych kont – które następnie zostały wzmocnione przez boty.

Niektóre z tych kont posunęły się nawet do komunikowania się z użytkownikami w docelowych krajach lub próbowania zaprzyjaźnienia się z nimi w celu zwiększenia skuteczności kampanii poprzez zachęcanie prawdziwych ludzi do dzielenia się dezinformacją.

W sumie naukowcy wydali 6500 USD w dwóch kampaniach wokół fikcyjnej firmy – kwota, która prawdopodobnie byłaby przysłowiowym „małym jasnym” dla firmy, która próbowała by zaangażować się w taki proceder na serio. Zespół researcher -ów określają jako „alarmująco prosty” proces rozpoczęcia kampanii dezinformacyjnej. I jest prawdopodobne, że to dopiero początek wydarzeń.

„Istnieje wiele zastosowań tego rodzaju kampanii dezinformacyjnych i wpływowych. Wystarczy pomyśleć o konsekwencjach manipulacji cenami akcji. Gracze mogą skorzystać z tej samej usługi dezinformacyjnej, aby najpierw poprawić reputację jednostki, a następnie ją zniszczyć”, powiedział Sannikov.

Co ciekawe sami możemy wygenerować informacje wyglądające jak newsy i od razu publikować je na Facebooku. Wystarczy wpisać w wyszukiwarkę „fake news generator” pojawią się strony grafiki i layouty w które możemy wpisywać dowolne informacje. To stosunkowo proste narzędzia. Zabawa zacznie się, kiedy do tego typu narzędzi dołączymy sztuczną inteligencję. Wyobraźmy to sobie. Automatyzujemy tworzenie kont i źródeł dotarcia a za kontem stoi AI, która generuje kontent. Jaki? To zależy od intencji zleceniodawcy.


Sztuczna inteligencja tworzy opowiadania

Dochodzi już do takich sytuacji, że twórcy systemu sztucznej inteligencji, który może pisać opowiadania i fikcje – nazwane „deepfakes for text” – podjęli niezwykły krok, być może marketingowy, ale zdecydowali się nie opublikować swoich badań publicznie z obawy przed potencjalnym niewłaściwym użyciem.

OpenAI, niekomercyjna firma badawcza wspierana przez Elona Muska, Reida Hoffmana, Sama Altmana i innych, twierdzi, że jej nowy model AI, zwany GPT2, jest tak dobry, a ryzyko złośliwego użycia jest tak wysokie, że zrywa z normalną praktyką udostępniania pełnych badań opinii publicznej, aby dać więcej czasu na omówienie konsekwencji przełomu technologicznego.
U podstaw GPT2 jest generator tekstu. System AI podaje tekst, od kilku słów do całej strony i jest proszony o napisanie kilku następnych zdań na podstawie przewidywań do tego, co będzie pisane dalej. System przesuwa granice możliwości dotychczasowych AI, zarówno pod względem jakości produkcji, jak i szerokiej gamy potencjalnych zastosowań. Kiedy GPT2 jest używany do prostego generowania nowego tekstu, jest w stanie napisać wiarygodne fragmenty, które pasują do tego, co podano pod względem stylu i tematu. Rzadko pokazuje jakieś dziwactwa, które wyróżniają poprzednie systemy AI, takie jak zapominanie o czym pisze w połowie akapitu lub zmienianie składni długich zdań.

Na przykład po wpisaniu pierwszej linii „1980” George’a Orwella – system rozpoznał nieco futurystyczny ton i powieściowy styl i kontynuował akapitem, który w wolnym tłumaczeniu może brzmieć: „Byłem w samochodzie w drodze do nowej pracy w Seattle. Wkładam gaz, wkładam klucz, a potem pozwalam mu odpłynąć. Wyobraziłem sobie, jak będzie wyglądał ten dzień. Za sto lat. W 2045 r. Byłem nauczycielem w jakiejś szkole w biednej części wiejskich Chin. Zacząłem od historii Chin i nauki”.

Kiedy system „nakarmiono” kilkoma pierwszymi akapitami z Guardiana o dotyczącymi Brexitu jego rezultatem była wiarygodna proza prasowa, pełna „cytatów” Jeremy’ego Corbyna, wzmianek o granicy z Irlandią i odpowiedzi rzecznika premiera.

Ten model AI jest przełomowy ze względu na dwa czynniki. Jednym z nich jest jego rozmiar. Model były 12 razy, a zestawy danych był 15 razy większe i znacznie szersze niż poprzedni, najnowocześniejszy model AI. System przeszkolono w zbiorze danych zawierającym około 10 milionów artykułów, wybranych przez przeszukanie portalu społecznościowego Reddit. Ogromna kolekcja tekstu ważyła 40 GB, co wystarczy do przechowywania około 35 000 kopii Moby Dicka. Ilość danych, na których GPT2 została przeszkolona, wpłynęła bezpośrednio na jakość percepcji tekstu pisanego. Doprowadziło to do drugiego przełomu. GPT2 ma znacznie bardziej ogólny cel niż poprzednie modele tekstowe. Dzięki strukturze tekstu, który jest wprowadzany, może on wykonywać zadania, w tym tłumaczenie i podsumowanie, oraz przechodzić proste testy rozumienia czytania, często działające równie dobrze lub lepiej niż inne sztuczne inteligencje, które zostały stworzone specjalnie do tych zadań.

Właśnie ta jakość sprawiła, że OpenAI sprzeciwiło się rozwijaniu AI. Zdecydowano się ocenić najpierw, co złośliwi użytkownicy mogą zrobić z technologią.

Aby pokazać, co to oznacza, OpenAI stworzyło jedną wersję GPT2 z kilkoma skromnymi poprawkami, których można użyć do wygenerowania nieskończonej liczby pozytywnych lub negatywnych recenzji produktów. Spam i fałszywe wiadomości to dwa inne oczywiste potencjalne wady, podobnie jak niefiltrowana natura AI.

O tym jak sztuczną inteligencję będą wykorzystywać przestępcy pisaliśmy już Tutaj.
Niemniej wyobraźmy sobie jak można wykorzystać algorytm podobny do opisywanego OpenAI. Szkolimy go w Internecie, więc nie jest trudno zachęcić go do generowania bigoteryjnego tekstu, teorii spiskowych i tak dalej. Otwiera to drzwi do dowolnego publikowania kreatywnych komentarzy „pro” albo „anty” albo pisania opinii pod produktami lub usługami. Ponieważ usługa będzie zautomatyzowana będzie najprawdopodobniej tania, i możliwa do użycia w dowolnej skali.