Robot skłamał, więc stał się człowiekiem

Poważne kłamstwa, drobne kłamstewka lub niemówienie całej prawdy pełni istotne funkcje społeczne. Gdybyśmy od czasu do czasu nie maskowali naszych prawdziwych opinii na temat osób z najbliższego otoczenia, nie moglibyśmy tworzyć trwałych relacji społecznych. Kłamstwo bywa dla ludzi pożyteczne. A czy może przydać się robotom?

Podziel się

facebook twitter linkedin email
robot lies Norbert Biedrzycki

Sytuacje, w których komplementujemy czyjś wygląd, nawet wtedy, gdy on nas nie zachwyca, lub udajemy zainteresowanie rozmową, która jest nam obojętna, zna niemal każdy z nas. Jednak doświadczenie spotkania z maszyną, która zataiła prawdę, jest ciągle możliwe tylko w filmach lub literaturze s-f. Spróbujmy mimo to wyobrazić sobie sytuacje, w których zostaliśmy oszukani przez robota, kiecy robot by nas okłamał. Czym byłoby jego kłamstwo i jakie niosłoby konsekwencje?

Kiedy Siri będzie prawić nam komplementy?

Jeśli asystent głosowy powie do nas pewnego dnia: “jaki masz miły głos”, z pewnością uśmiechniemy się w poczuciu zadowolenia, może nawet szczęścia. Być może przypominałoby to odrobinę sytuację, w której słyszymy pierwszy raz w życiu słowa “tata” lub ”mama”. Zadowoleni z informacji, którą usłyszeliśmy, musielibyśmy zastanowić się, jak do tego doszło. Czy asystent Siri jest w stanie odbierać i oceniać takie właściwości, jak miły głos? Jeśli tak, to jest zdolny do odczuwania przyjemności. Wie jednocześnie, że wypowiadając takie zdanie, sprawi przyjemność również nam. Ciekawe, czy doświadczając takiego zdarzenia, przyszłaby nam do głowy myśl, że asystent powiedział nam nieprawdę, bo chciał żebyśmy go polubili, czyli jego intencją była pewnego rodzaju emocjonalna manipulacja.

Czy da się złapać robota na kłamstwie?

Wyobraźmy sobie inną sytuację. Zlecamy komputerowi dokonanie skomplikowanych obliczeń. On przedstawia nam po kilku sekundach wyniki, które wydają się nam podejrzane. Chcemy je zweryfikować, dlatego zlecamy mu ponowne obliczenia. Tym razem komputer serwuje nam dane zgodne z naszymi przekonaniami. Jak traktujemy taką sytuację? Traktujemy pierwszą odpowiedź maszyny jako przejaw wadliwego oprogramowania, błędów systemu operacyjnego lub zwykłego przypadku. Myśl o tym, że komputer mógł nas celowo oszukać, jest ostatnią, która przyszłaby nam do głowy. Tutaj dochodzimy do ciekawego momentu rozważań.

Opisany przypadek dowodzi, że nie traktujemy komputerów jako bytów samodzielnych. A skoro tak jest (i mamy tu słuszność) to oznacza, że usypiamy naszą czujność wobec możliwości zaistnienia sytuacji, w której robot nas okłamuje. Gdyby roboty zaczęły nas okłamywać, jeszcze długo nie nazywalibyśmy ich odpowiedzi kłamstwami. Mówilibyśmy o ich wadliwości, pomyłkach, itd. Mamy silnie zakodowane przekonanie, że maszyna jest niczym więcej, niż tylko maszyną. Czy w kontekście rozważań o tym, jak mocno rozwija się sztuczna inteligencja, podejście takie jest uprawnione? Czy dla naszego dobra, już teraz nie powinniśmy założyć, że maszyny będą zdolne do okłamywania nas?

Robot idzie do sądu

Inna sytuacja. Czy robot kłamiący to robot, który został zaprogramowany, by kłamać, czy robot, który samodzielnie nabył pewnych specyficznych dla ludzi umiejętności? Pamiętamy, że trzy lata temu w Stanach Zjednoczonych autonomiczny pojazd Ubera potrącił przechodnia. Przeprowadzone śledztwo wskazywało m.in. na błędne ustawienia fabryczne; odległość potrzebna do wyhamowania, była niewystarczająca. Ale czy w przyszłości, tego typu sytuacje, będą równie klarowne? Może będziemy musieli zadawać sobie pytania o to, czy autonomiczny pojazd na pewno “nie wiedział”, że na przejście wszedł pieszy? To by oczywiście oznaczało, że autonomiczne pojazdy są bytami, które osiągnęły taki status, że mogą podlegać procesom sądowym. Stwierdzenie, że maszyna chce coś ukryć przed nami, oznacza automatycznie, że zmienia się jej status prawny.

Klasyczne prawa robotyki

W tym momencie ciekawe może okazać się przywołanie słynnych trzech praw Asimova, które definiują powinności maszyn. Przypomnijmy ich treść.

  1. Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Zacznijmy od podstawowej kwestii, jaka wiąże się z tak sformułowanymi prawami. Dotyczy ona ich dyrektywnego charakteru. Zakładają one bowiem całkowitą podległość maszyny wobec człowieka – nawet gdy drugie prawo przewiduje dla robota pewien stopień wolności jego wyboru. Jeśli jednak jest on jej pozbawiony, to oznacza, że nie jest obdarzony świadomością. Jeśli nie jest nią obdarzony, nie potrafi skłamać. A zatem, gdyby trzymać się praw Asimova, moglibyśmy na tym etapie zamknąć dyskusję. (Pomińmy fakt, że wszystkie sformułowane prawa mają się nijak do faktu, że roboty produkowane są m.in. przez przemysł wojskowy, a więc ich celem jest zabijanie). Wykorzystajmy jednak prawa Asimova do wyobrażenia sobie kolejnej sytuacji. Robot otrzymuje polecenie udania się w określone miejsce, by zlikwidować ludzi uznanych przez dowódcę za wroga. Po pewnym czasie maszyna wraca i melduje: “Tak, wykonałem zadanie”. Jak zareagowalibyśmy na informację, że tzw. wróg ma się jednak dobrze, jest cały i zdrowy? Czy musielibyśmy założyć, że robot się zbuntował? Jeśli tak, to bylibyśmy świadkami narodzin etycznego systemu w maszynie. A to oznaczałoby, że posługuje się ona ludzkim kodem kulturowym. Co z kolei oznacza też, że maszyna rozumiejąca ludzkie reguły dobra i zła, prawdy i fałszu, ma prawo nie być nam posłuszna.

Tysiące lat ewolucji

Umiejętność okłamywania ludzi – w sensie technicznym – wymagałaby od maszyn nabycia umiejętności trudnych do wyobrażenia. Co potrafi robot, który na pytanie człowieka o to, czy cały dzień stał w kącie, czy pracował, wybiera odpowiedź drugą, chociaż nie jest ona zgodna ze stanem faktycznym? Po pierwsze rozumie, co się do niego mówi. Po drugie jest w stanie odróżnić dwie czynności od siebie – pracę i odpoczynek. Po trzecie musi zastanowić się, jakie konsekwencje wiążą się z określoną taką, a nie inną odpowiedzią. Po czwarte, musiałyby wiedzieć, jaką wartość dla pytającego ma praca, a jaką odpoczynek. Po piąte, musiałby zdawać sobie także sprawę z motywów, którymi kieruje się pytający… Można tak wyliczać jeszcze dłużej, ale już na tym poziomie analizy łatwo stwierdzić, że nawet najprostsze kłamstwo robota oznaczałoby, że mamy do czynienia z przeskokiem jakościowym, który dla nas ludzi oznaczał tysiące lat ewolucji. W tym momencie uświadamiamy sobie, jak daleką drogę musi wykonać sztuczna inteligencja, by zrównać się z umiejętnościami ludzi.

Przestałem być robotem

Umiejętności, o których tu mowa są czymś o wiele poważniejszym, niż zdolność rozpoznawania twarzy czy dokonywania skomplikowanych obliczeń. Do dzisiaj asystent głosowy Siri jest jedynie sprawnym automatem, który potrafi w odpowiedniej chwili podłączyć się do internetu. Natomiast, jeśli pewnego dnia stwierdzimy, że asystent chciał wywieść nas w pole, będzie to oznaczało, że obcujemy z istotą empatyczną, która potrafi wyobrazić sobie, co czujemy. Jeśli zaś rzeczywiście tak jest, to potrafi przewidzieć nasze pytania, rozumieć nasze żarty i wypowiedzi zawierające aluzje.

Wszystko to razem pokazuje nam, że jedno najprostsze kłamstwo robota byłoby dowodem na to, że – jako gatunek – utraciliśmy monopol na posiadanie uprzywilejowanej pozycji istot, które mogą decydować o tym, co jest prawdą, a co kłamstwem. Obok nas żyłyby istoty, których system etyczny mógłby z czasem ewoluować w zupełnie innym kierunku. Czy już teraz powinniśmy się na taką ewentualność przygotować, tego nie wiem.



.    .   .

Cytowane prace:

CNN, Matt McFarland, Uber self-driving car operator charged in pedestrian death, The Uber test driver who was responsible for monitoring one of the company’s self-driving cars that hit and killed a pedestrian in 2018 was charged with negligent homicide this week, Link, 2020. 

Wikipedia, Three Laws of Robotics, Link, 2018. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Sztuczna inteligencja jest sprawnym bankierem

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

9 comments

  1. Andrzej44

    no nie tylko statystyka za tym się kryje 😉 tak jak powiedzieć zamieńmy digitalizacja na matematyka – cyfrowy dźwięk, obraz, tekst daje nieco więcej niż czysta reprezentacja matematyczno statystyczna i liczydło

  2. JacekPlacek5

    Uważam, że to można wykorzystać, ale uważam też, że oni nie są mądrzy oraz etyczni tworząc takie technologie. Za mało analiza co się stanie, gdy zrealizują projekt, a za bardzo patrzą na koszty, co sugeruje, że nie są na tym etapie odpowiedzialności, na którym być powinni. Można było zrobić kilka innych projektów, które są o wiele bardziej etyczne i w dziedzinie.

  3. Zeta Tajemnica

    Uczciwie mówiąc trochę zbyt entuzjastyczny ten artykuł. W żadnym wypadku to nie jest wchodzenie algorytmów na nowe terytorium. Zamieńmy modne słowo machine learning na analizę statystyczną i zaraz zobaczymy różnicę. Literaturoznawstwo od lat używa analizy statystycznej i ten aspekt analizy literatury zawsze był pograniczem nauki ścisłej i humanistycznej, więc tutaj oprócz techniki i szybkości nic się nie zmieniło.

  4. Andrzej44

    Wiele mówi się o zagrożeniach płynących z zastosowania AI, ale rozważanie te, choć przytaczane przy okazji zagadnień sztucznej inteligencji, nie zawsze jej doty- czą. Przykładem może być tutaj podnoszenie problemu zagwarantowania prywatności, szpiegostwa przemysłowego i sabotażu komputerowego. Inną alarmującą perspektywą, choć nie dotyczy ona bezpośrednio AI, jest możliwość wyproduko- wania fałszywego obrazu danej osoby, który następnie może pojawić się na ekranie telewizora i wyrazić poglądy sprzeczne z poglądami prawdziwej osoby.

  5. Don Fisher

    Jako ludzie, świetnie wyłapujemy kontekst, szybko łączymy wątki i jesteśmy bardzo trafnie ocenić w jakim kierunku zmierza dyskusja. Robimy to wręcz instynktownie, ale i trzeba wiedzieć o tym, że żywo reagujemy na oznaki ofensywności wypowiedzi – szczególnie jeżeli ta dotyczy nas samych.

  6. AdaZombie

    Taką ciagle jeszcze prostacką technologię rozpoznawania twarzy można z łatwością oszukać. Maszyna automatycznie kojarzy określone miny z konkretnymi emocjami, jednak nie rozróżnia na przykład uśmiechu złośliwego od szczerego.