Doskonale nam znane uczucie strachu możemy potraktować jako produkt ewolucji. Pojawia się on po to, by chronić nas jako gatunek przed niebezpieczeństwami. Bojąc się, uciekamy, szukamy schronienia, ukrywamy się, znikamy z pola widzenia osób lub obiektów, które nam zagrażają lub też stajemy do walki, zbieramy w sobie siły do odparcia ataku, mobilizujemy cały organizm do wysiłku. Strach może rodzić w nas motywację do zmiany zachowań. Pod jego wpływem możemy, m.in. modyfikując życiowe decyzje – rozwijać się. Emocje – zarówno te pozytywne jak i negatywne są nie tylko skróconą informacją o zmianach w naszym otoczeniu, ale tworzą też mechanizm, dzięki któremu ludzie tworzą świat wartości. Według niektórych koncepcji, nasze dążenie do porządkowania świata na rzeczy dobre i złe bazuje właśnie na podstawowych emocjach – jak strachu, radości, smutku czy gniewie. I czy roboty mogą nas przytulać i czuć emocje?
Algorytmy uczą się patrzeć, słuchać i mówić a roboty przytulać
Tak jak trudno jest nam sobie wyobrazić robota, który z wściekłości rzuca talerzami, tak równie trudno wyobrazić sobie, że podchodzi nas, by nas przytulić, gdy przeżywamy kryzys. Równie mało prawdopodobna jest sytuacja, w której robot podejmuje decyzje o tym, by wejść do płonącego budynku i ratować z niego nasze dzieci. Czy w takim razie zastanawianie się nad emocjonalnością maszyn nie jest zawracaniem głowy? Nie do końca. Rozwój sztucznej inteligencji układa się tak, że coraz lepiej radzimy sobie z wywoływaniem w maszynach mechanizmów, które do tej pory traktowaliśmy jako zachowania właściwe dla ludzi lub zwierząt. Umiejętności algorytmów takie jak: komunikacja językowa, rozpoznawanie kształtów, kolorów, intonacji głosu, będą rozwijane coraz bardziej. A to oznacza, że będzie również powiększać się gamą maszynowych reakcji na obrazy, sytuacje lub złożone cechy i właściwości świata zewnętrznego. Rzeczywistość staje się dla technologii coraz bardziej czytelna przez to, że rozmaite właściwości i charakterystyki – dźwięki, barwy, zapachy – przez sieci neuronowe traktowane są jak zbiory informacji, które można analizować, przetwarzać, uczyć się w oparciu o nie oraz wyciągać na ich podstawie wnioski i w konsekwencji podejmować decyzje.
Słucham bicia twego serca
Reakcje maszyn nie są w tym przypadku efektem procesów ewolucyjnych ani nie mają podłoża biochemicznego. Jeśli więc robot miałby odczuwać emocje zbliżone do ludzkiej złości lub radości, to tylko wówczas, gdyby zostały one w nim zaprogramowane przez ludzi lub których nauczył by się sam w oparciu o interakcje przetrenowanych sieci neuronowych z danymi. Mielibyśmy więc do czynienia nie tyle z emocjami rodzącymi się na dysku komputera, ile z wgranym w niego lub wyuczonym zestawem mechanicznych odpowiedzi na określone stymulacje. Ale nawet gdyby robot nie potrafił spontanicznie powiedzieć : “widzę, że jesteś smutny, czy mogę ci pomóc?”, to po rozpoznaniu sygnałów smutku wyrażonych w naszej mimice, mógłby w określony sposób – ciągle ograniczony – zareagować. To wymaga zapewne wielu lat prób, dalszego rozwoju robotyki, sztucznej inteligencji, matematyki czy statystyki, ale nie jest to niemożliwe. Według Erika Brynjolfssona, profesora MIT Sloan, chociaż ludzie ciągle mają przewagę w czytaniu emocji, maszyny zyskują coraz więcej umiejętności w tym zakresie. Mogą słuchać barwy lub modulacji głosu i rozpoznawać, w jaki sposób korelują one ze stresem lub złością. Maszyny mogą też analizować obrazy i wychwytywać subtelności w mikroekspresji na twarzach ludzi, robiąc to nawet lepiej, niż sami ludzie. Przykładem, który potwierdza, że dokonuje się tu znaczny postęp, jest rozwój “wearable tech”, czyli rosnąca popularność i coraz większe możliwości smartwatchów i całej masy gadżetów, których używamy podczas treningów. Wszystkie te urządzenia bazują na algorytmach, które potrafią rejestrować, przetwarzać i analizować informacje takie jak: tętno, temperatura ciała, bicie serca. Algorytmy nie tylko je rejestrują, ale potrafią z nich wyciągać wnioski o nas samych. Bo czym, jak nie wyciąganiem wniosków jest sugestia, że powinniśmy więcej biegać, dłużej sypiać lub lepiej się odżywiać?
Monitor cię odstresuje
Właśnie takie podejście towarzyszyło naukowcom z MIT Media Lab, którzy stworzyli urządzenie monitoruje bicie serca danej osoby, po to, by badać jej poziom stresu, bólu lub frustracji. Najciekawsze w jego działaniu było to, że podłączony do aplikacji monitor uwalniał określony zapach, aby pomóc użytkownikowi dostosować się do negatywnych emocji, które w danym momencie odczuwał. A więc maszyna zaczynała działać zgodnie z pewnego rodzaju empatycznym wzorcem. Korelacje zachodzące między informacjami z naszych organizmów, działaniami aplikacji, które potrafią reagować na te informacje i naszymi świadomymi zachowaniami, stają się dzisiaj podstawą do dalszych eksperymentów związanych z tworzeniem technologii zdolnych do odczytywania różnych przejawów emocji.
Trudna sztuka rozumienia dowcipów
Dzisiaj mamy tu jednak jeszcze wiele przeszkód do pokonania. Jedną z nich jest problemu kontekstu, znany doskonale wszystkim, którzy zajmują się rozwijaniem technologii asystentów głosowych i botów. Asystenci są w stanie odpowiedzieć na pytanie, jaka jest dzisiaj pogoda, ale ciągle nie potrafią deszyfrować sensu pytania w rodzaju “czy sądzisz, że parasol dzisiaj to może być dobry pomysł?” Trudno maszynom odczytywać niuanse znaczeniowe zawarte “między słowami” w takich wypowiedziach. Podobne trudności mają z rozumieniem dowcipów, czyli wypowiedziami, które kończą się niespodziewanymi puentami. Tego typu problemy mają znaczenie dla programowania reakcji na emocje. Jak nauczyć maszynę odróżniać grymas na naszej twarzy jako wyraz cierpienia od grymasu, który jest np. żartobliwym, przesadnym wyrażeniem złości na zachowanie naszego psa? Jak robot zinterpretowałby szeroko otwarte oczy i ręce umieszczane na głowie – jako wyraz pozytywnej ekscytacji, czy sygnał, że człowiek przed nim stojący, czegoś się przestraszył? Myślę, że droga do tego, byśmy umieli programować maszyny tak, by uzyskiwać trafne efekty, jest bardzo daleka. Jednak już teraz wiemy, że nie jest to kwestia możliwości lub jej braku, ale raczej kwestia czasu potrzebnego na udoskonalenia tego, co już potrafimy.
Uczmy się lubić roboty
W Japonii stosunek ludzi do robotów różni się od tego, jak traktujemy je w Europie. Podczas gdy my przerażamy się wizjami zdehumanizowanego świata lub zastanawiamy się czy maszyny zastąpią nas w biurach, Japończycy mają do nich dużo cieplejszy stosunek. Być może wynika to po części z przekonania, że przedmiot nieożywiony może mieć duszę. Robot nie jest może żywą istotą, ale mimo to, można wobec niego odczuwać emocje, takie jak sympatia, a nawet rodzaj empatii. Takie podejście pokazuje nam, że w relacjach człowiek – technologia, skala zachowań i emocji może być zróżnicowana. Być może jest to dodatkowo ważny czynnik świadczący o tym, że w rozwoju emocjonalności maszyn znaczenie będzie mieć również nasze nastawienie.
Granice między człowiekiem a maszyną, między światem ludzkich emocji a reakcjami algorytmów są dzisiaj klarowne. Sztuczna inteligencja to jednak nieustanna zmiana i rozwój, więc nasze spojrzenie na te kwestie może ewoluować. Poczekajmy więc na moment, kiedy na widok maszyny, krzykniemy do kogoś: “zobacz, uśmiechnął się”! I nie wykluczajmy tego, że takie zdarzenie prędzej, czy później nastąpi.
. . .
Cytowane prace:
Recode, Kara Swisher, Zuckerberg: The Recode interview, Everything was on the table — and after Facebook’s wildest year yet, that’s a really big table, Link, 2020.
Think Automation, A lighter side to AI: positive artificial intelligence quotes, Link, 2018.
Google Scholar, Erik Brynjolfsson, The second machine age: Work, progress, and prosperity in a time of brilliant technologies, Link, 2020.
. . .
Powiązane artykuły:
– Algorytmy zrodzone z naszych uprzedzeń
– Jak regulować sztuczną inteligencję?
– Sztuczna inteligencja jest sprawnym bankierem
– Czy algorytmy będą popełniać zbrodnie wojenne?
Czesław
Jak widać masz świadomość i w dodatku zapisaną w Twoim ciele, co udowadnia to co piszę – gdzie tu filozofia? Przeniesienie tego na coś innego, nawet jeśli będzie to niewydajna wirtualizacja 1:1, symulacja atom po atomie, ogranicza tylko moc obliczeniowa dzisiejszych komputerów i braki w wiedzy. Choć myślę, że będą mieli na to lepszy sposób, bo po prostu zrozumiany zostanie sposób działania, mój przykład jest po prostu na tyle wyraźny na ile się da.
Już w dzisiejszych czasach naukowcy zeskanowali kawałek mózgu myszy (wielkości ziarnka piasku) krojąc go na przezroczyste kawałki, tyle że zajęło to tyle miejsca w pamięci komputera, że nie daliby nawet zrobić nic więcej, wszystkie dyski na świecie łącznie w tej chwili nie dałyby rady pomieścić jednego mózgu człowieka. Ale jeszcze kilka lat temu ludzie żyli bez internetu i smartfonów…
Mamy jeszcze przynajmniej kilka tysięcy lat na rozwój.
Jacek Krasko
Skoro to coś nie myśli – nie może programować. Owszem, może tworzyć wstępny kod aplikacji (scaffolding) w sposób bardziej zaawansowany niż ten, który oferują współczesne środowiska programistyczne. Ale to wciąż nie jest programowanie, a tylko generowanie kodu.
NorTom2
Fajny wpis. Jedna korekta lub raczej uszczegółowienie. Algorytmy zasilane są dużą ilością danych uczących. W uczeniu nadzorowanym każdy przykład to para składająca się z obiektu wejściowego i żądanej wartości wyjściowej (zwanej również sygnałem nadrzędnym). Algorytm uczący analizuje dane treningowe i generuje wynikową funkcję, którą można wykorzystać do mapowania nowych przykładów. Optymalny scenariusz pozwala algorytmowi prawidłowo określać etykiety klas obiektów dla niewidocznych wcześniej instancji. W skrócie, pozwala na analizowanie danych w sposób niezaprogramowany wprost przez człowieka. Uczenie nadzorowane wykorzystuje się głównie do modelowania procesów technicznych.
CaffD
moze lepiej niech tego nie robia. Rozumiem ze to taki clikbajtowy tytul 🙂
Simon GEE
mam nadzieje ze dlugo jeszcze nie
CzarekZ23
Na ten moment nie musimy się także obawiać, że AI osiągnie samoświadomość. Oczywiście obecnie trwają prace, które mają zapewnić ten rozwój. Wciąż możemy panować nad maszynami i sztuczna inteligencja nie stanowi zagrożenia
Adam
Fajny wpis
Don Fisher
Sztuczna inteligencja nie jest (jeszcze) tak dobra jak człowiek. W dalszym ciągu to my lepiej odczytujemy emocje
AdaZombie
Większość obecnych dziś systemów służących do rozpoznawania emocji analizują wyraz twarzy i głos człowieka, jak również wszystkie mówione i pisane słowa. Na przykład jeśli kąciki czyichś ust są uniesione, maszyna może uznać, że osoba ta ma dobry nastrój, a zmarszczony nos sugeruje gniew lub wstręt.
JacekPaczka
Fajny wpis. Z tym ze ktoś będzie okazywał strach czy ból, robot może nauczyć się zmieniać swoje zachowanie, jak ludze. Może zmienić wygląd na mniej groźny lub się wycofać. Wzmocnienia pozytywne mogą również pomagać robotom. Miłe słowa i zachowanie wpłyną na pracę robotów. A moze bity i bajty?
CaffD
Panie Norbercie. Mam nadzieje ze nigdy. To chyba nie jest dobra przyszlosc dla naszej cywilizacji