Starcie ciemnej strony mocy z jasną. Co to znaczy AI przyjazna ludziom?

Czy już teraz powinniśmy pomyśleć o “czerwonym przycisku bezpieczeństwa”, na wypadek niekontrolowanego zachowania sztucznej inteligencji w przyszłości? A może do lęku, że algorytmy mogą zgotować nam Armagedon, powinniśmy podejść konstruktywnie, tworząc projekt sztucznej inteligencji przyjaznej ludziom?

Podziel się

facebook twitter linkedin email
Human-friendly AI Norbert Biedrzycki

Myśl o istnieniu symbolicznego przycisku, który pozwoliłby błyskawicznie zneutralizować wrogo nastawione algorytmy, nie jest obca zarówno przeciętnemu zjadaczowi chleba, jak i znanym reprezentantom branży technologicznej oraz naukowcom. Nie ma sensu kolejny raz przytaczać ostrzeżeń Elona Muska, Billa Gatesa, Yuvala Harrari czy Stephena Hawkinga, którzy wielokrotnie mówili o tym, że do zagrożeń związanych z niekontrolowaną sztuczną inteligencją, należy podchodzić poważnie. Zanim jednak przejdę do refleksji na temat tego, na czym miałoby polegać działanie algorytmów przyjaznych ludziom, przyjrzę się wizji cywilizacyjnych i technologicznych pesymistów. Czy AI może być przyjazna.

Kosmiczna obojętność

Popularność zyskują koncepcje, zgodnie z którymi sztuczna inteligencja na drodze do swojego samorozwoju nie będzie uznawała żadnych ograniczeń. Byłby to wbrew jej naturze. W takim ujęciu można by ją porównać do samoreplikującego się, coraz bardziej złożonego, wirusa, który będzie wkraczać w kolejne obszary naszego istnienia – zarówno te biologiczne, jak emocjonalne oraz intelektualne. Coraz lepiej organizujące się algorytmy zdominują nas w sposób analogiczny do tego, jak my dzisiaj dominujemy nad zwierzętami. Zyskają zdolność organizacji, a właściwie dezorganizacji życia społecznego, bez oglądania się na nasze poglądy, prawa i protesty. W takim ujęciu sztuczna inteligencja niekoniecznie musi działać w oparciu o racjonalny – z naszego punktu widzenia – zamiar, jakim jest dominacja nad ludźmi.

Katastrofa

Katastrofa może polegać na tym, że algorytmy, ustanowią tylko sobie znaną hierarchię celów, w której my w ogóle nie zostaniemy uwzględnieni. Nie chodzi więc o to, że pewnego dnia zobaczymy przed sobą cyborga, który skieruje w naszym kierunku broń plującą laserem. Nie będzie to wrogie zdominowanie jednego gatunku istot przez drugi. Może to raczej być coś w rodzaju wyeliminowania nas z gry, przy zachowaniu obojętności i braku świadomości, że my – homo sapiens – w ogóle istniejemy. Zginiemy, bo zostaniemy pominięci na drodze do realizacji inteligentnego planu, do którego ani dzisiaj, ani w przyszłości nie będziemy mieć dostępu.

Na przykład zmienimy się w spinacze

Taką zimną eksterminację rodzaju ludzkiego, bez łatwo wyobrażalnych kataklizmów, za to przy całkowitej obojętności algorytmów, prezentuje eksperyment myślowy przeprowadzony przez duńskiego filozofa Nicka Bostroma w książce „Superinteligencja”. Wyobraźmy sobie, pisze Bostrom, że coraz lepiej, szybciej, rozwijająca się sztuczna inteligencja dochodzi do wniosku, że celem dla niej nadrzędnym na pewnym etapie istnienia jest stworzenie maksymalnej liczby spinaczy. W związku z tym, aby zrealizować to zadanie, algorytmy zaczynają podporządkowywać każdy element rzeczywistości temu celowi. Wszystko – cała materia organiczna i nieorganiczna, każdy najdrobniejszy element rzeczywistości zarządzany jest tak, by możliwe było stworzenie maksymalnej liczby spinaczy. Nie ma znaczenia, co jest czym, kto jest kim, nieistotne jest to, czy ktoś – ludzkość – uważa ten cel za absurdalny, niezrozumiały – takie rozważania są zarezerwowane jedynie dla ludzi. Najważniejsza jest sprawność, z jaką algorytmy zrealizują tę wizję, która z jakichś względów będzie im potrzebna na danym etapie ich rozwoju.

Osobliwość nadchodzi

Brzmi to nieco absurdalnie, ale pokazuje dobrze, jak bezbronni – jako gatunek – możemy czuć się w przyszłości, jeśli tylko za słuszną uznamy koncepcję ”osobliwości” (singularity), która zakłada, że już w ciągu najbliższych dwudziestu lat zdolności obliczeniowe wszystkich istniejących komputerów będą większe, niż zdolności obliczeniowe naszych mózgów. Jak w takim razie – w obliczu tak niepokojących i jednocześnie niepojmowalnych scenariuszy – miałoby wyglądać sensowne zachowanie się ludzi? Co możemy już dzisiaj zrobić, by nie dopuścić do realizacji opisanych katastroficznych wizji? Czy, jeśli założymy, że algorytmiczne technologie będą zyskiwać coraz większą samodzielność, uniezależniając swoje plany od naszych intencji, poglądów i planów, mamy szansę na wymyślenie przysłowiowego “czerwonego przycisku”?

Po jedenaste: jesteś zależna od naszej woli

Musiałaby to być jakaś ogólna, ale bezwzględnie respektowana zasada. Zasada, która stałaby się podstawą do zapewnienia naszego gatunkowego poczucia bezpieczeństwa. W tym momencie chciałbym wrócić do pojęcia sztucznej inteligencji przyjaznej ludziom. Jeśli mielibyśmy stworzyć scenariusze optymistyczne (analogicznie do opisanych – pesymistycznych) powinniśmy przyjąć założenie, że mimo faktu nieustannego powiększania swych możliwości, sztuczna inteligencja nie zyskuje niezależności. To my ciągle decydujemy o tym, w jakim kierunku się rozwija, znamy jej możliwości i dostrzegamy jej ograniczenia. W takim toku rozumowania pojęcie “black box” byłoby jedynie pewną formą naszych lęków, a nie faktycznym stanem algorytmów, na bazie którego rodziłoby się realne zagrożenie.

Przyjazna AI

Sztuczna inteligencja, która miałaby status przyjaznej, nie miałaby wpływu na każdy skrawek naszej rzeczywistości. Pewne obszary – ludzka świadomość, ludzkie subiektywne doznania, takie jak miłość lub przyjaźń, systemy wartości, które towarzyszą naszemu życiu, itd. – byłyby poza zasięgiem działania algorytmów. Algorytmów, które chociaż mogłyby bardzo dużo, to nie potrafiłyby przekroczyć pewnej granicy. Być może byłaby to granica między inteligencją, a świadomością, której sztuczna inteligencja nigdy samodzielnie nie zyska, ani my jej nią nie obdarzymy.

Dodatkowo, poprzez szereg decyzji o charakterze regulacyjnym, które będą musiały i tak zastać podjęte, moglibyśmy zadbać o nieprzekraczalne granice w eksperymentowaniu z technologią. Samoograniczenia, które narzucilibyśmy sobie z czasem, musiałyby prawdopodobnie dotyczyć takich działań, jak chipowanie ludzi, cyborgizacja, czy przetwarzanie naszych prywatnych danych.

Potrzebny jest wielki projekt

Tu warto przytoczyć słowa Jaana Tallinna, w przeszłości zaangażowanego w tworzenie aplikacji Skype, dzisiaj poświęcającego się pracom na rzecz etycznych, przyjaznych ludziom technologii. Cytuję za The Guardian: „Mamy nadzieję, że sztuczną inteligencję można nauczyć rozpoznawać takie niezmienne zasady. W tym procesie musiałaby ona zrozumieć i doceniać nielogiczną stronę ludzi: że często mówimy jedną rzecz, a mamy na myśli inną, że niektóre z naszych preferencji są sprzeczne z innymi, że ludzie są mniej wiarygodni, gdy są pijani, etc. Musimy przemyśleć kilka kroków do przodu… Stworzenie sztucznej inteligencji, która nie podziela naszych zainteresowań, byłoby strasznym błędem”. Jeśli udałoby się wprowadzić w życie taki globalny, utopijny projekt – co wymagałoby współpracy polityków, technologów, etyków i przedstawicieli technologicznego biznesu, sztuczna inteligencja stałaby się potężną siłą, która pomogłaby przenieść homo sapiens na wyższy poziom rozwoju. Taki, na którym możemy bardziej cieszyć się życiem – dostrzegając w nim jakości dotąd niedostępne i jednocześnie mniej się o nie bać.

Może więc należy to spuentować jednym zdaniem, które nie będzie wyrażać myśli specjalnie eleganckiej, ale jednak może dobrze, by się ona pojawiła. Sztuczna inteligencja przyjazna ludziom, to po prostu nasza ludzka, pełna władza nad algorytmami, do której za wszelką cenę powinniśmy dążyć i jej nie oddawać. Kto wie, czy nie znajdujemy się już na wstępnym etapie wojny o utrzymanie tej władzy.

.    .   .

Cytowane prace:

The University of Cambridge, Centre of the study for Existential RiskJess Whittlestone, Risks from Artificial Intelligence, Link, 2020. 

Observer, Michael Sainato, Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence, Link, 2018. 

NickBostrom.com, HOW LONG BEFORE SUPERINTELLIGENCE?, Link, 2019. 

The Guardian, Mara Hvistendahl, Can we stop AI outsmarting humanity. The spectre of superintelligent machines doing us harm is not just science fiction, technologists say – so how can we ensure AI remains ‘friendly’ to its makers? Link, 2019. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Sztuczna inteligencja jest sprawnym bankierem

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

15 comments

  1. CzarekZ23

    Pisze Pan straszne rzeczy. Ale z drugiej strony to mając odpowiednią infrastrukturę oraz zespół ekspertów, którzy potrafi zrealizować wdrożenie AI, możemy z powodzeniem wykorzystywać potencjał AI w kazdej firmie. Powstaje coraz więcej startupów, które próbują zdobyć kawałek z tego tortu AI dla siebie.

  2. Andrzej44

    Największym wyzwaniem dla rozwoju SI jest zbudowanie właściwego systemu pamięci. System ten musi być tak pojemny jak kora mózgowa człowieka. Podsta- wowe trudności z jej realizacją to pojemność i sieć połączeń pomiędzy komórkami pamięci. Jest to możliwe do realizacji, choć przy obecnym rozwoju technologicznym, nie pozwala osiągnąć miniaturyzacji pozwalającej mieścić np w mozgu

  3. Don Fisher

    Sztuczna inteligencja jest jedynie przystosowana do wyszukiwania oznak pasujących do konkretnego wzorca zachowania: a zatem dysponuje ona jedynie bazą wypowiedzi, które mogą wskazywać na to, że np. człowiek jest w złym humorze.

  4. AdaZombie

    Na szczescie ciagle odstawowym ograniczeniem AI fakt, że czerpie ona naukę z danych i nie zna innego sposobu na przyswojenie wiedzy. Oznacza to, że wszelka nieścisłość danych odzwierciedlona będzie w wynikach. Zaś wszelkie dodatkowe warstwy predykcji czy analizy muszą zostać dodane oddzielnie. Ponieważ dane jeszcze nigdy nie odgrywały tak istotnej roli, mogą one stanowić o przewadze konkurencyjnej. Jeśli firma działająca w branży o wysokiej konkurencyjności dysponuje najlepszymi danymi, to – nawet jeśli wszystkie przedsiębiorstwa stosują podobne techniki – jest w uprzywilejowanej pozycji.

  5. JacekPaczka

    Mózg traci swoją myślącą czapeczkę. W takiej sytuacji nasze działanie pozostaje w dużej mierze poza naszą kontrolą- rządzą nami emocje i impulsy. Wszystko po to, aby w sytuacji zagrożenia (czy to realnego czy domniemanego) móc zrobić wszystko, aby ochronić swoje życie. W takiej sytuacji liczy się przecież szybkie działanie, a nie analizowanie i wyciąganie wniosków.

  6. Tom Aray

    czy politycy w ogóle myślą o tych biednych woźnicach? samochód to diabelskie nasienie i musimy znaleźć rozwiązanie dla zmniejszającej się liczby woźniców. nikt nie będzie chciał zatrudnić do prostych prac tak dużego grona osób!
    obawiam się, że użytkowanie samochodów może oprowadzić do pogłębienia konfliktów i różnic społecznych, w tym do zamieszek na skalę światową

  7. Tom Aray

    Nie wiem czemu chcesz udawać, że automatyzacja to nowy problem, a nie coś co istnieje od zarania dziejów.
    Stanie się to co działo się zawsze: 100% automatyzacja nie jest możliwa – więc każde drzwi które zamknie automatyzacja otworzą się 2 nowe pt „specjalizacja”.
    Ludzie i społeczeństwa które to rozumieją będą stawiać na adaptowalność, społeczeństwo będzie się bogacić.
    Ludzie i społeczeństwa które tego nie rozumieją będą wprowadzać robotowe+, zakazywać automatyzacji, sztucznie dofinansowywać stratne przedsiębiorstwa, czy usługi. Dodawać się będzie biurokratyczne bariery. Społeczeństwo będzie biednieć, ale to będzie bardziej „sprawiedle społecznie” więc zostanie się przy tym i będzie się szukać winnych za status quo.

  8. Andrzej Maczalski

    Powstanie ich znacząco mniej niż zniknie. Chyba nie zdajesz sobie sprawy, jak wiele obszarów gospodarki zostanie zautomatyzowanych w przeciągu następnych kilku dekad.

  9. Andrzej Czeczowski

    …w kwestii samochodu. Koncept „mass simulator” – czyli bezwartościowy ładunek do wyniesienia na rakiecie testowej. Bezwartościowy, bo ryzyko awarii jest wysokie i nikt drogiego satelity nie zawierzy nieprzetestowanej rakiecie. Zwykle stosowane były bloki betonu odpowiadające z grubsza gabarytami i masą satelitom. Musk stwierdził, że bloki betonu są nudne i zrobił sobie reklamę Tesli – w porównaniu z kosztami rakiety auto i blok betonu to takie same grosze, a reklama była głośna. Innymi słowy, gdyby nie wystrzelił auta, wystrzeliłby blok betonu, bo Falcon Heavy trzeba było przetestować tak czy inaczej.

  10. Zeta Tajemnica

    W Polsce nie da się jeszcze wziąć ślubu jednopłciowego a już chcemy rozmawiać o sztucznej inteligencji. Jeszcze nie jesteśmy na tym etapie. Jesteśmy daleko w polu za resztą UE .

  11. Mac McFisher

    Wszystko zależy od tego jaką definicję przyjmiemy, szczególnie że inteligencję można rozbijać na rodzaje. A definicji jest tyle, co osób zajmujących się i interesujących się tym tematem. Każdy ma swoją. To że nie ma inteligencji w ludzkim rozumieniu, masz zaznaczone na początku artykułu.