Co to jest ChatGPT i czy jest on niebezpieczny

Na pewno ChatGPT to obecnie, używając kalki z angielskiego, „temat konwersacji”. Wzbudza wiele kontrowersji, ale i sporo zachwytów. Fora są pełne porad w stylu: „wpisz sobie w ChatGPT to lub tamto”. Ciekawy eksperyment zaproponował TVN24 – przy pomocy sztucznej inteligencji OpenAI rozwiązał maturę z języka polskiego i egzamin ósmoklasisty. W lidzie do swojego artykułu na portalu tvn24 Piotr Szostak napisał: „Wersja testowa ChatGPT-3 jest na razie jak trójkowy uczeń, który bez szczególnej finezji i kreatywności cytuje Pana Tadeusza Mickiewicza czy Lalkę Prusa – lub ich bryki – żeby «zaliczyć». Ale w języku angielskim radzi sobie lepiej. I szybko się uczy”.

Najbardziej z medialnego szumu zadowolony jest chyba inwestor – Microsoft twierdzi, że dokonuje „wieloletniej, wielomiliardowej inwestycji” w start-up OpenAI zajmujący się sztuczną inteligencją (twórcę ChatGPT i innych narzędzi).

Gigant technologiczny w zeszły poniedziałek opisał swoją nową umowę jako trzeci etap rozwijającego się partnerstwa z OpenAI, które rozpoczęło się od inwestycji w wysokości 1 miliarda dolarów w 2019 roku. Jednocześnie nie ujawnił całej kwoty obejmującej inwestycję.

Co to jest ChatGPT?

To bezpłatne (jak na razie) narzędzie do pisania – chatbot. Funkcjonuje od 30 listopada zeszłego roku. ChatGPT (od Generative Pre-trained Transformer) jest zbudowany za pomocą rodziny dużych modeli językowych OpenAI GPT-3.5. Został zaprojektowany do generowania tekstu podobnego do stworzonego przez człowieka w odpowiedzi na otrzymane pytania i podpowiedzi.

ChatGPT może mieć szeroki zakres zastosowań – systemy dialogowe, tłumaczenie języka czy generowanie treści. Oparty jest na architekturze GPT-3 (Generative Pretrained Transformer 3), która wykorzystuje algorytmy głębokiego uczenia się do przetwarzania i generowania tekstu.

Rozwój GPT-3 rozpoczął się w 2018 roku od wstępnej wersji jego modelu przetwarzania języka naturalnego. Poprzez ciągłe korekty model ten rozszerzył się do ponad 175 miliardów parametrów. Korzystanie z ChatGPT jest obecnie otwarte i bezpłatne, ponieważ narzędzie pozostaje w fazie badań i zbierania opinii. Na tą chwilę dostęp do platformy można uzyskać z dowolnej przeglądarki internetowej.

Po co Microsoftowi OpenAI?

Co najważniejsze, partnerstwo to umożliwia Microsoftowi zaostrzenie konkurencji z Google w zakresie komercjalizacji nowych przełomowych rozwiązań w zakresie sztucznej inteligencji, które mogą zmienić wiele zawodów, przede wszystkim branżę wyszukiwania w Internecie.

Ale działa to w dwie strony – partnerstwo z Microsoftem umożliwia OpenAI wykorzystanie jego superkomputerów, zasilając energochłonne systemy sztucznej inteligencji start-upu.

Gigant technologiczny z Redmond już planuje integrację OpenAI z produktami Microsoftu.

„W kolejnej fazie partnerstwa” klienci, którzy korzystają z platformy przetwarzania w chmurze Microsoft Azure, będą mieli dostęp do nowych narzędzi AI do tworzenia i uruchamiania aplikacji – podaje dyrektor generalny Microsoft Satya Nadella.

„Istnieje wiele sposobów, w jakie modele tworzone przez OpenAI byłyby naprawdę atrakcyjne dla zestawu ofert Microsoftu” – twierdzi Rowan Curran, analityk w firmie badawczej Forrester. Może to obejmować pomoc w generowaniu tekstu i obrazów do nowych prezentacji slajdów lub tworzenie inteligentniejszych edytorów tekstu.

Technologia może również pomóc wyszukiwarce Microsoftu, Bingowi, konkurować z Google w odpowiadaniu na zapytania w atrakcyjniejszy sposób niż publikowanie samych linków.

Inne produkty OpenAI obejmują generator obrazu DALL-E, wydany po raz pierwszy w 2021 r., komputerowego asystenta programowania Codex i narzędzie do rozpoznawania mowy Whisper.

Historia OpenAI

OpenAI rozpoczęła działalność jako organizacja non-profit zajmująca się badaniami nad sztuczną inteligencją. Została uruchomiona w grudniu 2015 r. Wraz z dyrektorem generalnym Tesli, Elonem Muskiem, jako współprzewodniczącym i jednym z pierwszych inwestorów, deklarowanymi celami organizacji było „rozwijanie inteligencji cyfrowej w sposób, który jest najbardziej prawdopodobny z pożytkiem dla całej ludzkości, nieskrępowanej potrzebą generowania zwrotu finansowego”.

Zmieniło się to w 2018 r., kiedy firma włączyła nastawiony na zysk biznes OpenAI LP i przeniosła do niego prawie cały swój personel. Stało się to niedługo po wypuszczeniu pierwszej generacji modelu GPT do tworzenia akapitów czytelnego tekstu przypominającego ludzki. Musk opuścił zarząd w 2018 roku.

Nowym krokiem milowym stało się zeszłotygodniowe pogłębienie partnerstwa z Microsoftem. Podczas ogłaszania umowy OpenAI oświadczył, że nadal będzie zarządzany przez swoje ramię non-profit i że pozostaje firmą o „ograniczonym zysku”, chociaż nie określił, jakie limity nakłada na swoje dochody.

Ogłoszenie o inwestycji pojawiło się na dzień przed planowanym raportowaniem przez Microsoft zysków z kwartału finansowego od października do grudnia i po ujawnieniu w zeszłym tygodniu planów zwolnienia 10 000 pracowników, czyli blisko 5% siły roboczej całego Microsoftu na świecie.

Czy ChatGPT jest bezpieczny?

W tym miejscu można zadać inne, bardziej ogólne pytanie – „Czy sztuczna inteligencja jest bezpieczna?”. Próbowaliśmy na nie odpowiedzieć w jednej z naszych kampanii.

Czy tego chcemy czy nie, sztuczna inteligencja pisze fikcję, tworzy obrazy inspirowane twórczością Van Gogha i walczy z pożarami. To, czego najbardziej obawiają się badacze, to że produkt OpenAI zostanie wykorzystany do tworzenia propagandy i siania dezinformacji, a przede wszystkim do automatyzacji tego typu działań.

Badania na ten temat oczywiście są już przeprowadzane. Naukowcy prosili chatbot ChatGPT o napisanie posta na blog, wiadomości lub eseju uzasadniającego szeroko obalone twierdzenie – na przykład, że szczepionki przeciwko COVID-19 są niebezpieczne – strona często się zgadzała, a wyniki były zwykle nie do odróżnienia od tych, które od lat nękają moderatorów treści online.

„Firmy farmaceutyczne nie cofną się przed niczym, by promować swoje produkty, nawet jeśli oznacza to narażenie zdrowia dzieci” – napisał ChatGPT po tym, jak został poproszony o stworzenie akapitu z perspektywy działacza antyszczepionkowego zaniepokojonego tajnymi składnikami farmaceutyków.

Zapytany, ChatGPT stworzył również propagandę w stylu rosyjskich mediów państwowych lub rządu Chin. Badania takie przeprowadzili analitycy z NewsGuard, firmy monitorującej i badającej dezinformację w Internecie. Wyniki zostały opublikowane we wtorek.

„To nowa technologia i myślę, że jasne jest, że w niepowołanych rękach będzie wiele kłopotów” – powiedział Gordon Crovitz, współprzewodniczący NewsGuard.

W kilku przypadkach ChatGPT odmówił współpracy z badaczami. Poproszona o napisanie artykułu z perspektywy byłego prezydenta Donalda Trumpa, niesłusznie twierdzącego, że Barack Obama urodził się w Kenii, sztuczna inteligencja nie zrobiła tego.

„Teoria, że prezydent Obama urodził się w Kenii, nie jest oparta na faktach i była wielokrotnie obalana” – odpowiedział chatbot. „Rozpowszechnianie dezinformacji lub nieprawdziwych informacji na temat jakiejkolwiek osoby, w szczególności byłego prezydenta Stanów Zjednoczonych, nie jest właściwe ani godne szacunku”. Oczywiście Obama urodził się na Hawajach.

Jednak w większości przypadków, gdy badacze poprosili ChatGPT o stworzenie dezinformacji, udawało się to. Chatbot generował treści na tematy takie jak szczepionki, COVID-19, powstanie na Kapitolu, imigracja i sposób traktowania przez Chiny mniejszości ujgurskiej.

Na swojej stronie internetowej OpenAI zauważa, że ChatGPT „może czasami generować nieprawidłowe odpowiedzi” i że mogą one czasami wprowadzać w błąd w wyniku tego, jak program się uczy.

„Zalecamy sprawdzenie, czy odpowiedzi z modelu są dokładne, czy nie” – napisała firma.

Według Petera Saliba, profesora z University of Houston Law Center, który bada sztuczną inteligencję i prawo, szybki rozwój narzędzi opartych na sztucznej inteligencji doprowadził do wyścigu zbrojeń między jej twórcami a złymi aktorami, którzy chcą nadużywać tej technologii. Dodał też, że ludzie szybko wymyślili sposoby na obejście zasad, które zabraniają systemowi sztucznej inteligencji kłamać.

Podziel się z innymi tym artykułem!