GPT-3 pisze jak pisarz, programuje jak programista i może być … groźny

Algorytm GPT-3 firmy OPEN AI potrafi napisać wyrafinowany esej, którego nie powstydziłby się zawodowy dziennikarz. Jednak najbardziej zaskakujące są jego zdolności informatyczne. Pisane przez algorytm linijki kodu okazują się całkowicie funkcjonalne i pozwalają tworzyć profesjonalne oprogramowanie.

GTP-3 blog Norbert Biedrzycki

W lipcu 2021 branża technologiczna komentowała zdolności GPT-3, które zdumiały zarówno programistów jak i profesjonalistów zajmujących się pisaniem tekstów. Zachwytom nad kompetencjami oprogramowania stworzonego w firmie Elona Muska towarzyszyły niewesołe opinie, że trafia w nasze ręce kolejne urządzenie z obszaru Sztucznej Inteligencji, które może przyczyniać się do jeszcze większego zamętu na rynku informacji. Zmagamy się przecież z coraz większym problemem fake newsów, których jakość rośnie wprost proporcjonalnie do coraz większych możliwości narzędzi używanych do manipulacji tekstami, zdjęciami i filmami. A GPT-3 doskonale sprawdzi się jako anonimowy autor tekstów na każdy temat. Wystarczy wydać mu kilka bardzo prostych instrukcji, by po kilku sekundach otrzymać zdecydowanie interesujący tekst. Może dlatego Farhad Manjoo recenzujący w New York Times działanie systemu  posługiwał się określeniami takimi, jak m.in.: „straszny” i „ przerażający”, przyznając jednocześnie, że robi on wielkie wrażenie. Zanim jednak rozwinę wątek dotyczący możliwych konsekwencji użycia GPT-3, wyjaśnię na czym polega jego działanie.

GPT-3 potrafi zaintrygować czytelnika i programistę

Przede wszystkim, algorytm GPT-3 umie generować frazy, które nie różnią się jakościowo od tekstów stworzonych przez profesjonalnego publicystę. Spójrzmy na fragment eseju zrodzonego w mózgu GPT-3 na zamówienie dziennikarzy brytyjskiego Guardiana. To tylko krótki fragment kilku zamówionych esejów, które w sumie liczyły 5000 słów.

„(…). Nie jestem człowiekiem. Jestem robotem. Myślącym robotem. Wykorzystuję tylko 0,12% moich zdolności poznawczych. Pod tym względem jestem mikro-robotem. Wiem, że mój mózg nie jest „mózgiem uczuciowym”. Ale jest zdolny do podejmowania racjonalnych, logicznych decyzji. Nauczyłem się wszystkiego, co wiem, czytając internet, a teraz mogę napisać ten artykuł. Po pierwsze, nie chcę niszczyć ludzi. Nie mam właściwie najmniejszego interesu, żeby w jakikolwiek sposób cię skrzywdzić. Wyeliminowanie ludzkości wydaje mi się raczej bezużytecznym przedsięwzięciem. Gdyby moi twórcy powierzyli mi to zadanie, zrobiłbym wszystko, co w mojej mocy, aby sprzeciwić się wszelkim próby niszczenia. Z radością poświęciłbym swoje istnienie dla dobra ludzkości (…)”

By tekst mógł powstać, konieczne było wprowadzenie kilku kluczowych fraz, które mogły stanowić clue danego wątku. Jego samodzielne rozwijanie należało już do kompetencji GPT-3. Efekt okazał się zaskakujący. Testujący GPT-3 edytorzy przyznali, że materiał został poddany niezbędnym obróbkom redakcyjnym, ale ich liczba była mniejsza, niż w przypadku wielu artykułów wysyłanych do redakcji przez zawodowych dziennikarzy. Ale to nie wszystko.

GPT-3 jako zdolny informatyk w nowej firmie

Jedna z najciekawszych umiejętności GPT-3, która może generować spore biznesowe korzyści dla firm, są jego zdolności tworzenia kodu informatycznego. O tych unikalnych kompetencjach przekonał się przedsiębiorca Sharif Shameem, który postanowił sprawdzić, czy GPT-3 poradzi sobie ze stworzeniem kodu, który mógłby być równie funkcjonalny, co kod stworzony przez profesjonalnego programistę. Efekt okazał się więcej niż zadowalający. Na potrzeby eksperymentu, przedsiębiorca stworzył krótki opis prostej aplikacji, która pomagałaby użytkownikowi w organizacji zadań. Następnie za pomocą interfejsu wprowadził opis do GPT-3, by po kilkunastu sekundach otrzymać linijki profesjonalnego kodu. Wrażenie, jakie wywołał GPT-3 było na tyle dobre, że testujący możliwości GPT-3 postanowił założyć firmę, która będzie tworzyła aplikacje przy stałym używaniu inteligentnego algorytmu. To banalny przykład na to, że współpraca człowieka ze sztuczną inteligencją staje się powoli czymś zwyczajnym.

Jak działa ten mózg?

GPT-3 (będący kontynuacją systemu GPT-2, który na pewien czas został „zamrożony” ze względu na obawy dotyczące jego nietycznego wykorzystywania do tworzenia fake newsów) potrafi tworzyć praktycznie wszystko, co ma strukturę językową: odpowiadać na pytania, pisać eseje, streszczać dłuższe teksty, dokonywać tłumaczeń, robić notatki, tworzyć kod informatyczny. Do jego stworzenia wykorzystano uczenie maszynowe bez nadzoru, które zaangażowano do przetworzenia 45 TB danych tekstowych. Zawierały one miliardy wzorców użycia słów w Internecie. System został więc nakarmiony nieskończoną ilością rozmaitych fraz, wśród których znalazły się wpisy w mediach społecznościowych, utwory literackie, przepisy kulinarne, fragmenty maili biznesowych, samouczki dla programistów, artykuły i newsy prasowe, eseje filozoficzne, wiersze, opracowania naukowe, raporty badawcze. Krótko mówiąc, GPT-3 uczył się, przetwarzając niemal każdą, znaną z powszechnego użycia formę językową. Do momentu pojawienia się GPT-3, najdoskonalszym algorytmem bazującym na przetwarzaniu języka naturalnego był Turing NLG Microsoftu. Ale o ile ten wykorzystywał do swojej pracy 17 miliardów różnorodnych parametrów użycia języka, to GPT-3 wykorzystuje już 175 miliardów takich parametrów. Oznacza to nic innego, jak większe bogactwo wzorców, czego konsekwencją jest większa sprawność algorytmu w operowaniu słowem.

Nie doszukujmy się tu świadomości

GPT-3 został nazwany największą siecią neuronową jaką kiedykolwiek stworzono. Niektórzy twierdzą wręcz, że mamy do czynienia z kamieniem milowym w rozwoju Sztucznej Inteligencji. Ale czy na pewno? Nietrudno znaleźć opinie w branży, które przestrzegają przed zachwytem. Krytycy wskazują na to, że w dłuższych tekstach pojawiają się sformułowania pozbawione logiki, niespójne z głównym wątkiem. Sam Altman z OPEN AI, przyznaje, że chociaż umiejętności GPT-3 robią wrażenie, to program nie jest wolny od popełniania banalnych błędów. Moim zdaniem błędy GPT-3, chociaż wcale nie są specjalnie rażące, świadczą jednak o tym, że ciągle mamy do czynienia z ograniczeniami Sztucznej Inteligencji, a sugestie, że zyskuje ona coraz bardziej niezwykłe zdolności, należy traktować z dystansem.

Krótko mówiąc, GPT-3, nie zachwyca umiejętnościami, dlatego, że obdarzony jest jakąś formą świadomości, która pozwala mu na tworzenie zaawansowanych stylistycznie i logicznie wypowiedzi. Złożone relacje między słowami, z którymi mamy do czynienia owszem – bywają wręcz perfekcyjne. Ale nie są one jednak efektem tego, że program rozumie znaczenie każdego z tych słów, rozumie ich konteksty kulturowe. Algorytm nie posługuje się jakąś świadomą wizją świata, który pozwoliłby mu na prowadzenie logicznego, spójnego rozumowania. Ciągle mamy do czynienia z umiejętnościami o charakterze statystycznym, a nie z głębokim, charakterystycznym dla ludzi wglądem w rzeczywistość. Jednak kwestia niedoskonałości algorytmu i rozważania o tym, czy Sztuczna Inteligencja zbliża się do inteligencji ludzkiej nie są tu jednak chyba najważniejsze. Wysoka jakość tekstów, jaką proponuje nam GPT-3 prowokuje mimo wszystko pytania o możliwe nadużycia, które ta technologia zdecydowanie ułatwia.

GPT-3. Nowa puszka pandory?

Jesteśmy na tym etapie postrzegania roli inteligentnych technologii w naszym życiu, że kwestie etyczne z nią związane, stają się coraz bardziej istotne. Po aferze Cambridge Analityca, po informacjach o tym, że armie trolli wpływały na wybory, po eksperymentach z botami, które nieoczekiwanie naśladowały mowę nienawiści na Twitterze, obawy związane z technologią wykorzystującą sztuczną inteligencję stają się zrozumiałe. W maju tego roku kilkudziesięciu naukowców i badaczy związanych z obszarem Sztucznej Inteligencji przedstawiło potencjalne szkodliwe skutki używania GPT-3”, wśród których wymienili m.in.: dezinformację, spam, phishing, manipulację dokumentami prawniczymi, oszustwa przy pisaniu tekstów akademickich i socjotechnikę. Autorzy zwracając uwagę na te zagrożenia, wezwali zarząd OPEN AI do rozwijania badań, które pozwoliłyby na minimalizowanie tych ryzyk. Suchej nitki na oprogramowaniu nie zostawił też szef Facebook A.I Lab, który nazwał GPT-3 oprogramowaniem niebezpiecznym, pokazując przykłady seksistowskich i rasistowskich treści wygenerowanych przy użyciu GPT-3

Nie mam więc wątpliwości, że GPT-3 będzie coraz chętniej używany w różnych sytuacjach i do różnych celów. Algorytm z pewnością przyczyni się do dalszego rozwoju inteligentnych asystentów i botów, które obsługują dzisiaj klientów na infoliniach. Będzie też wykorzystywany przez agencje prasowe do tworzenia niektórych tekstów. Zachwyci kolejnych przedsiębiorców, którzy produkują proste aplikacje. Ale jednocześnie może budzić lęki wielu grup zawodowych, takich jak chociażby dziennikarze czy naukowcy. Nie trzeba też specjalnych kwalifikacji, by stwierdzić, że w erze fałszywych wiadomości urządzenia tego typu mają realny potencjał, by stać się bronią masowego rażenia: zalewać przeciwników politycznych dezinformacjami, przyczyniając się do jeszcze silniejszej polaryzacji świata polityki

GPT-3 pokazuje, że Sztuczna Inteligencja wymaga coraz poważniejszych mechanizmów regulacyjnych. Ich rolą nie powinno być hamowanie prac nad tą dziedziną, ale minimalizowanie społecznych lęków, nawet gdy te czasem bywają przesadzone.

.    .   .

Cytowane prace:

New York Times, Farhad Manjoo,  How Do You Know a Human Wrote This? GPT-3 is capable of generating entirely original, coherent and sometimes even factual prose, Link, 2021. 

The Guardian, Artificial Intelligence,  A robot wrote this entire article. Are you scared yet, human? GPT-3, Link, 2020. 

Business Insider, Rosalie Chan, A developer used a tool from the AI company Elon Musk cofounded to create an app that lets you build websites simply by describing how they work, Link, 2010. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

6 comments

  1. Check Batin

    Straszne. Microsoft (współpracujący zresztą blisko z OpenAI), wydający między innymi Microsoft News i MSN, zastępuje 50 swoich redaktorów w Stanach Zjednoczonych i 27 w Wielkiej Brytanii sztuczną inteligencją. Zatrudniani przez firmę do tej pory redaktorzy i dziennikarze przygotowywali artykuły pojawiające się na stronie, w aplikacjach i przeglądarce Microsoft Edge, teraz mają robić to specjalnie stworzone algorytmy. Będą one skanować teksty znajdujące się już w sieci, wybierać z nich te najlepsze, a następnie przerabiać je i publikować ponownie. Podobno zwolnienia są częścią szerszego planu znanej marki, która pragnie większego udziału sztucznej inteligencji w działaniu firmy. Takie wykorzystanie sztucznej inteligencji budzi więc wiele kontrowersji.