Maszyna wreszcie odkrywa swoją świadomość

Naukowcy twierdzą, że świadomość ludzka jest nie tylko niemożliwa do skopiowania, ale w ogóle trudna do zdefiniowania. Ułomność takiego założenia polega jednak na tym, że zakłada ono możliwość istnienia tylko jednego rodzaju świadomości, podobnej do naszej.

Podziel się

facebook twitter linkedin email
consciousness machines blog

Naukowcy twierdzą, że świadomość ludzka jest nie tylko niemożliwa do skopiowania, ale w ogóle trudna do zdefiniowania. Ułomność takiego założenia polega jednak na tym, że zakłada ono możliwość istnienia tylko jednego rodzaju świadomości, podobnej do naszej. A przecież maszyny – na kolejnych etapach rozwoju technologii sztucznej inteligencji – mogą wypracować nowe, nieznane nam jeszcze, sposoby autorefleksji.

Historia rozmyślań nad ludzką świadomością liczy dziesiątki, a nawet setki lat, jeśli wliczyć tu rozważania natury czysto filozoficznej. Współczesnym psychologom, kognitywistom, czy neurobiologom towarzyszy poczucie, że ciągle nie potrafimy jednoznacznie określić ani jej natury, ani genezy. Kwestie nierozstrzygnięte dotyczą m.in. pytań o to, czy świadomość jest produktem, czy funkcją naszego mózgu, a więc czy ma ona charakter materialny, czy należy ją traktować jako strukturę od niego w dużym stopniu niezależną. Bez względu na to, jakie wytłumaczenie wydaje się nam bliższe, zgodzić się należy co do tego, że trudność w zdefiniowaniu tego pojęcia blokuje postępy w tworzeniu sztucznego odpowiednika ludzkiej świadomości. Nie wiemy, na czym polega to, że sobie coś uświadamiamy, więc nie możemy wykreować elementu, który byłby możliwy do wgrania do komputera po to, by ten mógł np. zdawać sobie sprawę z konsekwencji własnych czynów lub w ogóle mieć świadomość własnego istnienia i własnej odrębności jako podmiot.

Maszyna nie chce pomóc w zwalczaniu wirusa

Jedna z definicji świadomości mówi o tym, że jest ona zdolnością osiągania celów poprzez umieszczanie siebie w pewnym modelu otoczenia i symulowanie potencjalnych scenariuszy rozwoju takiego modelu w przyszłości. By to zobrazować, wyobraźmy sobie taką sytuację: Sztuczna Inteligencja, w którą wyposażono wybitnie wydajny komputer, otrzymuje zadanie znalezienia metody leczenia nowego wirusa. Ma go zidentyfikować, a następnie – dokonując analizy masy danych – zaproponować lekarstwo. Z powierzonego zadania maszyna  pozornie się nie wywiązuje. Wysyła naukowcom komunikat, w którym twierdzi, że w oparciu o dotychczasową wiedzę, skutecznej szczepionki przeciwko danemu wirusowi nie da się stworzyć. Jednak po latach naukowcy, analizując dyski owego komputera, znajdują zapisane na nich obliczenia, które – gdyby je zastosować– mogłyby faktycznie prowadzić do wyprodukowania panaceum. Dlaczego maszyna stwierdziła, że nie znalazła rozwiązania, dlaczego je ukrywała? Według jednej z hipotez, komputer przeanalizował – ku zaskoczeniu badaczy – maksymalną ilość danych, w tym również te, które wskazywały na zagrożenia związane z przeludnieniem pewnych obszarów ziemi. Doszedł być może do wniosku, że lepsze będzie pozostawienie ludzkości samej sobie, bo kluczowym problemem nie jest wirus, a zagrożenia wynikające z … przeludnienia. Maszyna wyobraziła sobie, co mogłoby się stać, gdyby podjęła decyzję o udostępnieniu własnych obliczeń i dokonała wyboru zgodnego z jej własną świadomością  – niedostępną dla nas.

Myślę, że ta fikcyjna historia pokazuje, jak mogłaby się zachować świadoma maszyna i jakie konsekwencje mogłyby z tego wynikać.

Zaprogramowane, ograniczone istoty?

Czy jest prawdopodobne, że komputery, smartfony, czy asystenci głosowi zmienią się kiedyś w taką myślącą o sobie całość, organizm przewidujący efekty własnych analiz? Sceptycy stawiają sprawę jasno: komputery mogą rozpoznawać twarze, dokonywać tłumaczeń obcych języków, pomagać robotom w omijaniu przeszkód, rozpoznawać głos, wzory i kolory, ale nigdy nie będą wiedzieć – mieć świadomości, że to robią. Będą ciągle reaktywne, co oznacza ich uzależnienie od człowieka, który steruje dopływem danych przez te komputery (algorytmy) przetwarzanych. Najsłynniejszy robot świata – Sophia – nie odpowiada samodzielnie na pytania. Jest zaprogramowana i odpowiada tylko na pewien ich zestaw, a liczba możliwych kombinacji znaczeniowych zawartych w jej wypowiedziach jest ograniczona. Z kolei inteligentni asystenci głosowi zyskują z dnia na dzień sprawność, ale ciągle nie są w stanie interpretować ludzkiej ironii, ani dostrzegać bardziej złożonych kontekstów ludzkich komunikatów. Są to więc zaledwie programowane przez nas urządzenia. Przewyższają nas co prawda w wykonywaniu skomplikowanych analiz danych, ale prawdopodobnie jeszcze długo nie będą w stanie zadać sobie podstawowego pytania w rodzaju “kim jestem?” lub “dlaczego czuję się źle?”. Czy jednak możemy być tego pewni?

Co się dzieje w czarnej skrzynce?

Dwa lata temu naukowcy zajmujący się trenowaniem botów stwierdzili, że stworzone przez człowieka algorytmy zaczęły w pewnym momencie posługiwać się własnym kodem, kompletnie niezrozumiałym dla badaczy. O czym one ze sobą rozmawiały? Czy – jeśli potrafiły rozpocząć ze sobą taką komunikację – nie było to przejawem rodzącej się świadomości? Może zabrzmi to nielogicznie lub paradoksalnie, ale uważam, ze świadomości maszyn nie możemy całkowicie wykluczyć w związku z faktem, że wielu ich działań po prostu nie jesteśmy zrozumieć lub jednoznacznie zinterpretować. Teoretycznie sam fakt, że urządzenia sztucznej inteligencji nie działają same z siebie i bazują na decyzjach ludzkich, mógłby wskazywać, na to, że mamy kontrolę nad ich zachowaniami. Ale istnieje sporo przykładów na to, że nie tylko jej nie posiadamy, ale i pogłębia się stopień naszej niewiedzy w kwestii ich działania. Sztuczna inteligencja wykorzystywana w mediach społecznościowych jest w stanie wykryć olbrzymie ilości powiązań między ludźmi i na tej podstawie zaproponować określonej grupie osób ten sam produkt lub treść. Analitycy przyznają jednak, że podobieństwa między użytkownikami sieci, które są dostrzegane przez algorytmy, nie mogłyby zostać uchwycone przez człowieka. Bardzo często nie wiemy, w jaki sposób przetrenowane w oparciu o ogromne zbiory danych sieci neuronowe, zwracają odpowiedzi na nasze zapytania, zbiory rekordów, do których trafiają te, a nie inne osoby. Nie wiedząc, dlaczego coś działa, nie jesteśmy w stanie jednoznacznie orzekać o tym, czy istnieją jakieś granice algorytmicznego pojmowania i podejmowanych decyzji.

Gdzie jest początek?

To właśnie kwestia dotycząca pierwszego momentu, w którym świadomość miałaby się zacząć “rodzić”, jest według mnie jednym z najbardziej fascynujących elementów całej dyskusji o świadomych maszynach. Dlatego zamiast niekończących się spekulacji, czy świadomość maszyn jest możliwa, skupmy się na pytaniu, w jaki sposób mogłaby ona się dla nas przejawiać? Jak moglibyśmy ją mierzyć i jej doświadczać? Przeprowadzano już doświadczenia z komputerami, które pozwalały twierdzić, że osiągnęły one pewien stopień zdolności rozumienia tego, jak się zachowują. Naukowcy z japońskiego Uniwersytetu Meiji zbudowali dwa roboty. Pierwszy z nich wykonywał pewne operacje, drugi je obserwował, by potem je powtarzać. Jego zdolność do odtwarzania zaobserwowanych zachowań drugiej maszyny można traktować jako umiejętność wyciągania wniosków, oceny pewnego stanu rzeczy i podejmowania decyzji. Można w tym przypadku pokusić się o stwierdzenie, że cała sekwencja zachowań uczącego się komputera przypomina w dużym stopniu działanie świadomej, ludzkiej istoty.

Algorytmy nie potrafią się zachwycać

Brakuje tu jednak kluczowego elementu: komputer, który się uczył zachowań swojego kolegi, nie robił tego, bo odczuwał z tego jakąś korzyść dla siebie. Nie powtarzał ruchów dlatego, że odkrył w tym przyjemność. Nie był to więc poziom porównywalny z sytuacją, w której dana osoba stoi na ulicy, spogląda na niebo, myśli o tym, jak jest piękne, uświadamia sobie pozytywne emocje z tym związane i odczuwa pragnienie powtarzania tego doświadczenia. Idąc tym tropem, można pokusić się o kolejne stwierdzenie: że świadomość – bez względu na to jak trudno ją jednoznacznie nazwać – posiada kilka poziomów. Jeden z podstawowych oznacza, że podmiot – maszyna może dokonać określonej obserwacji, zakomunikować ją pośrednio otoczeniu, a nawet podjąć dalsze działania, które szybciej przybliżą ją do osiągnięcia pewnego celu. Maszyna rozpoznaje kolor czerwony, klasyfikuje grupę obiektów jako czerwone, podejmuje decyzję o tym, by dalej poszukiwać kolejnych przedmiotów w tym kolorze. Jednak robiąc to wszystko, nie będzie ona w stanie ocenić tej czynności jako dobrej lub przynoszącej jej określone korzyści w przyszłości. Algorytmy piszące opowiadania, które mają dla nas walory estetyczne i literackie, są już faktem. Ale maszyna, która pod wpływem lektury takiego opowiadania, poczułaby się lepiej, odczuwałaby radość podobną do naszej, potrafiła się tą radością z nami podzielić, a może nawet zyskałaby pod wpływem tej emocji  nowe zdolności operacyjne – to ciągle jest trudne do wyobrażenia.

Wszystko w rękach cyborgów

Postęp technologiczny nie jest linearny, rośnie wykładniczo – z tym już nikt nie dyskutuje. Jeśli tak jest, to nie powinniśmy rezygnować z przekonania, że w kwestii sztucznej inteligencji czekają nas jeszcze przełomy o charakterze jakościowym. Nie chodzi więc tylko o to, że urządzenia przetwarzające dane są coraz mniejsze i szybsze. Chodzi też o to, że z czasem może to nas doprowadzić do niewyobrażalnych zmian, a tzw. osobliwość przyniesie konsekwencje dużo poważniejsze, niż nam się dzisiaj wydaje. Trudno jeszcze jednoznacznie stwierdzić, czy pragnienia połączenia ludzkiego mózgu z komputerem zakończą się sukcesem. Jeśli jednak do tego dojdzie, będzie to oznaczało między innymi wejście na kolejny etap rozważań o świadomości maszyn. Połączenie neuronów z procesorami będzie z pewnością poważnym krokiem prowadzącym nas do nowych form istnienia. I to być może tu leży odpowiedź na pytanie o możliwości zaistnienia sztucznej świadomości. Wszczepiony w ludzki mózg procesor zwiększyłby nasze umiejętności analityczne i poznawcze, a my potrafilibyśmy odczuć ten stan jako przyjemny i korzystny dla naszego istnienia. A granica między świadomością ludzką, a maszynową – ciągle dzisiaj uważana za naturalną – mogłaby się zatrzeć. Mielibyśmy do czynienia ze świadomym siebie cyborgiem, który nie dość, że potrafi liczyć tak szybko jak komputer IBM Watson, to jeszcze umie odczuwać z tego powodu dumę.  


.    .   .

Cytowane prace:

Teaching and Learning Resources: Cognitivism, What is Cognitivism, Link, 2021. 

Reuters, Michelle Hennessy, Makers of Sophia the robot plan mass rollout amid pandemic, Link, 2021. 

Meiji.net, HASHIMOTO Kenji, Humanoid robots can save mankind!! , Link, 2020. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Sztuczna inteligencja jest sprawnym bankierem

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

6 comments

  1. TomK

    Kto wie, może jako ludzkość jesteśmy tylko kokonem a inne cywilizacje nie kontaktują się z nami bo nie ma sensu dopóki nie „wykluła” się z nas ostateczna ogólnoplanetarna forma o możliwościach obliczeniowych tysiące (miliony?) razy przekraczających możliwość ludzkiego mózgu…

    Nie wiem czy możemy ewentualną przyszłą sztuczną inteligencję przyrównać do wirusa – nie zrobiłaby niczego czego sami nie zrobiliśmy co autor zresztą słusznie zauważył. Też kiedyś żyliśmy, a nawet mieszaliśmy się z Neandertalczykami co wychodzi w genach.. No i już ich nie ma.

    Pewnie projekt „ochronny” jest warty wypróbowania.. Ale czy z założenia nie jest skazany na porażkę?

  2. Czesław

    Jak widać masz świadomość i w dodatku zapisaną w Twoim ciele, co udowadnia to co piszę – gdzie tu filozofia? Przeniesienie tego na coś innego, nawet jeśli będzie to niewydajna wirtualizacja 1:1, symulacja atom po atomie, ogranicza tylko moc obliczeniowa dzisiejszych komputerów i braki w wiedzy. Choć myślę, że będą mieli na to lepszy sposób, bo po prostu zrozumiany zostanie sposób działania, mój przykład jest po prostu na tyle wyraźny na ile się da.
    Już w dzisiejszych czasach naukowcy zeskanowali kawałek mózgu myszy (wielkości ziarnka piasku) krojąc go na przezroczyste kawałki, tyle że zajęło to tyle miejsca w pamięci komputera, że nie daliby nawet zrobić nic więcej, wszystkie dyski na świecie łącznie w tej chwili nie dałyby rady pomieścić jednego mózgu człowieka. Ale jeszcze kilka lat temu ludzie żyli bez internetu i smartfonów…
    Mamy jeszcze przynajmniej kilka tysięcy lat na rozwój.

  3. Andrzej44

    no nie tylko statystyka za tym się kryje 😉 tak jak powiedzieć zamieńmy digitalizacja na matematyka – cyfrowy dźwięk, obraz, tekst daje nieco więcej niż czysta reprezentacja matematyczno statystyczna i liczydło

  4. NorTom2

    Korekta lub raczej uszczegółowienie. Algorytmy zasilane są dużą ilością danych uczących. W uczeniu nadzorowanym każdy przykład to para składająca się z obiektu wejściowego i żądanej wartości wyjściowej (zwanej również sygnałem nadrzędnym). Algorytm uczący analizuje dane treningowe i generuje wynikową funkcję, którą można wykorzystać do mapowania nowych przykładów. Optymalny scenariusz pozwala algorytmowi prawidłowo określać etykiety klas obiektów dla niewidocznych wcześniej instancji. W skrócie, pozwala na analizowanie danych w sposób niezaprogramowany wprost przez człowieka.