Nie zabijaj humanoida, czyli czy maszyny zasługują na swoje prawa?

Na czym miałoby polegać przyznawanie maszynom praw? Ciągle nie da się skonsultować tej kwestii z samymi zainteresowanymi. Sztuczna inteligencja nie powie nam, czy czuje się dobrze traktowana przez obowiązujący, ludzki system prawny. Musimy więc radzić sobie sami i decydować za nią.

Podziel się

facebook twitter linkedin email
machines rights Norbert Biedrzycki blog

Pod koniec lipca 2019 roku, świat obiegła informacja, że firma Neuralink jest blisko integracji ludzkiego mózgu z komputerem, zaprezentowano nawet pierwszy interfejs, który miałby to umożliwić. Może więc czeka nas nieprawdopodobny skok jeśli chodzi o rozszerzenie naszych możliwości poznawczych. Konsekwencje tego byłyby różnorodne, nie ominęłyby nas z pewnością podejmowanie bezprecedensowych decyzji o charakterze prawnym czy etycznym. W kontekście takiego przełomu, pytanie o prawa maszyn staje się tym bardziej uzasadnione. Ludzki mózg w połączeniu z procesorami będzie wymagać specjalnej ochrony. Nie zabijaj maszyny.

Humanidalna świadomość pod ochroną

Dla transhumanistów sprawa jest najwyższej wagi. Zgodnie z ich poglądami, technologia zasługuje na wyjątkowy szacunek, nie mniejszy od tego, jaki przysługuje ludziom. Skoro nasza przyszłość, jako gatunku, jest zagrożona przez katastrofę ekologiczną, to ratunku powinniśmy szukać wchodząc w symbiozę z maszynami. Dzięki temu humanoidalna istota, będąca połączeniem organizmów żywych z układami elektronicznymi, może przeżyć cywilizacyjne katastrofy, uniezależnić się od ograniczeń, jakim podlega biologiczna struktura. Transhumaniści postulując nadanie praw maszynom, są przekonani, że przyszłość przyniesie narodziny nowego rodzaju świadomości. Istoty, które zaludnią naszą planetę, nie tylko będą odczuwać,  ale może nawet będą mieć własną świadomość. A czy istotę ze świadomością – bez względu na jej rodzaj– będzie można bezkarnie zniszczyć? Czy nie byłoby to morderstwo? 

Odkurzacz nie zasługuje na przywileje

Absurdalność pytania o prawa maszyn nie wydaje się już tak duża, gdy uświadomimy sobie, że przyznajemy je zwierzętom, a ich posiadaniem cieszą się też firmy. Kluczową kwestią jest zasięg możliwych regulacji prawnych. Nikt przy zdrowych zmysłach nie domagałby się przecież prawnej ochrony dla odkurzacza czy żelazka. Może rzecz dotyczyłaby w takim razie tylko bytów technologicznych o określonym stopniu złożoności? Mogłyby to być urządzenia zdolne do wykonywania np. czynności, które będziemy traktować jako rodzaj aktywności intelektualnej. Posłużę się przykładem robota pracującego w fabryce, który nagle się psuje. Śledztwo wykazuje, że uszkodzono go celowo. Po jakimś czasie zostaje znaleziony sprawca, który miał dostęp do oprogramowania maszyny. Po pierwsze, firma została narażona na straty, co skutkuje odpowiedzialnością prawną sprawcy, ale może w przyszłości będzie liczyć się coś jeszcze? Gdyby przyjąć, że robot jest wyrafinowanym mechanizmem, a jego działanie opiera się na rozumujących algorytmach  (niektóre z nich są już w stanie napisać własny kod źródłowy), to mielibyśmy do czynienia z czynem wymierzonym przeciwko bytowi i  pewnym wartościom – w dużym stopniu analogicznym do ludzkich. 

O tym, że te rozważania nie należą do sfery fantastyki naukowej, świadczy fakt, że w 2017 roku Parlament Europejski zatwierdził rezolucję, która przyznawałaby status „osobowości elektronicznej”szczególnie zaawansowanym robotom. Jako uzasadnienie wskazano na fakt, że firmy lub organizacje mogą korzystać z niektórych praw właściwych ludziom, ciesząc się statusem osobowości korporacyjnej. 

Czy maszyny wezmą odpowiedzialność za siebie?

Cała sprawa ma jeszcze jeden interesujący aspekt. Skoro przychylamy się  do opinii, że maszyny rzeczywiście zasługują na określone prawa, to konsekwencją tego byłaby ich odpowiedzialność za swoje decyzje i czyny. Tu posłużę się przykładem samojezdnych pojazdów. Działając w oparciu o machine learning, autonomiczny samochód dokonuje na drodze wielu samodzielnych wyborów. Te mają wpływ na kierowcę, pasażerów i innych uczestników ruchu. Przewidując potencjalny wypadek, algorytm musi podjąć decyzje, kto podlega ochronie jako pierwszy – kierowca, pasażerowie, czy pieszy. Autonomiczny pojazd wdraża więc w życie określony system wartości, uruchamia system etycznych wyborów, które dotyczą ludzi, nawet gdy nie zdaje sobie z tego sprawy na sposób ludzki. Krótko mówiąc, staje się w jakiś sposób odpowiedzialny z ludzkiego punktu widzenia. Jednak jak taką odpowiedzialność egzekwować w sytuacji wypadku? Czy ciągle obciążać konsekwencjami prawnymi twórcę algorytmów użytych w produkcji samochodu? Czy wyjść już z założenia, że samochód jest tworem obdarzonym zarówno swoimi ochronnymi przywilejami, jak i obowiązkiem respektowania praw ustanowionych przez ludzi.

Black box straszy coraz bardziej

Dzisiaj zmagamy się z kwestią tzw. black boxu. Mam na myśli sytuacje, kiedy ludzie przestają rozumieć zasady, jakimi kierują się inteligentne technologie z obszaru sztucznej inteligencji. Te zaczynają się usamodzielniać i niektórzy wręcz uważają, że sytuacja zaczyna wymykać się nam z rąk. Problem może narastać. Nie będziemy w stanie zrozumieć, dlaczego broń oparta na sztucznej inteligencji zacznie eliminować niektóre obiekty, dlaczego czat boty będą podsuwać nam takie, a nie inne rozwiązania dotyczące kredytu, dlaczego asystenci głosowi udzielą nam takiej, a nie innej odpowiedzi. Czy wobec tego odpowiedzialność urządzeń za swoje działania stanie się szczególnie palącą kwestią? Cyniczne opinie głoszą, że przyznawanie maszynom praw to jedynie wygoda twórców urządzeń opartych na sztucznej inteligencji, którzy sami chcą uniknąć odpowiedzialności za to, co stworzyli i za sytuacje, które mogą zaistnieć.

Zdaję sobie sprawę z tego, że w opisywanym problemie, operujemy tylko spekulacjami, mnożymy pytania. Sądzę przy tym, że etyczne konsekwencje integracji robotów w naszych miejscach pracy, w wojsku, policji, sądownictwie, będą się coraz bardziej komplikować. Oznacza to między innymi, że jak najszybciej musimy zająć się takimi kwestiami, jak odpowiedzialność za nas i za maszyny, które dzisiaj jeszcze nie potrafią jej na siebie wziąć.

.    .   .

Cytowane prace:

CNET, Stephen Shankland, Elon Musk says Neuralink plans 2020 human test of brain-computer interface. „A monkey has been able to control a computer with his brain,” Musk says of his startup’s brain-machine interface, Link, 2019. 

FORBES, Sarwant Singh, Transhumanism And The Future Of Humanity: 7 Ways The World Will Change By 2030, Link, 2020. 

SLATE, RACHEL WITHERS, The EU Is Trying to Decide Whether to Grant Robots Personhood, Link, 2018. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Czy sztuczna inteligencja uratuje rynek pracy?

– Sztuczna inteligencja jest sprawnym bankierem

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

16 comments

  1. Adam Spark Two

    Bycie bardziej świadomym, tego co się pisze, powoduje raczej niemoc twórczą, bo odcina się od podświadomego modelowania. Czemu cytujesz prasę, zamiast bezpośrednich wypowiedzi twórców. W wielu wywiadach jasno określili co jest problemem, na jaką skalę i jak sobie z nim prawdopodobnie poradzą w kolejnych wydaniach.

    Moim zdaniem na końcu okaże się, że świadomość nie jest czymś niezwykłym. Raczej ograniczeniem, stworzonym na jakimś przykrym etapie ewolucji. Prace nad AI pozwolą stworzyć doskonalszą wersję równoległej/wielowątkowej świadomości. Nieuprzedzonej i otwartej.
    Choćby dlatego, że będą mieli wgląd w działanie takiego mechanizmu i będą chcieli go optymalizować. Co w przypadku ludzi wiąże się raczej z niechęcią i egoizmem.

  2. PiotrDomski

    W machine learning detekcja anomali może być zaimplementowana jako uczenie nadzorowane lub uczenie bez nadzoru. Wykorzystywana w większości systemów IDS w celu wykrywania potencjalnych zagrożeń w sieci. Moze warto to uwzglednić w jednym z nastepnych Pana wpisów?

  3. CzarekZ23

    Jesli beda samoswiadome to zasluguja. Co to jest samoswiadomosc? Z drugiej strony to mając odpowiednią infrastrukturę oraz zespół ekspertów, którzy potrafi zrealizować wdrożenie AI, mozna z latwoscia napisac teraz soft z elementami ML. Kazdy moze i madrzy i „glupi”

  4. Andrzej44

    Podst pytanie to kiedy prawdziwie inteligentne maszyny uda się stworzyć? Istnieje wiele wyobrażeń o robotach przyszłości, które będą się zachowywać jak ludzie i będą się z nimi komunikować w naturalny dla człowieka sposób. Te wyobrażenia biorą się przede wszystkim z wizji autorów filmów i książek fantastyczno-naukowych. Pomimo prowadzonych na świecie wielu projektów nad budową robotów humanoidalnych, wydaje się, iż w przyszłości inteligentne maszyny nie będą chodzącymi i mówiącymi robotami.

  5. Don Fisher

    Niby często emocje wyrażane są za pomocą słów, ale przecież nie zawsze, szczególnie w Internecie, gdzie roi się od trolli, którzy dolewają oliwy do ognia z uśmiechem na ustach. Te zwroty można zacząć wypisywać bez konkretnego ładunku emocjonalnego. A co gdyby qusi-SI za pomocą czujników rozpoznawała nasze tętno, wyraz twarzy, odczytywała co nie co z tembru głosu. Póki co to tylko uczenie quasi-SI reakcji na wyuczone zwroty.

  6. AdaZombie

    Juz jest wszedzie. Juz teraz AI umożliwia spersonalizowanie usług medycznych i automatyczny odczyt zdjęć rentgenowskich. Osobisty asystent medyczny może przypominać o lekarstwach, ćwiczeniach fizycznych czy zdrowszej diecie.

  7. JacekPaczka

    Mózg traci swoją myślącą czapeczkę. W takiej sytuacji nasze działanie pozostaje w dużej mierze poza naszą kontrolą- rządzą nami emocje i impulsy. Wszystko po to, aby w sytuacji zagrożenia (czy to realnego czy domniemanego) móc zrobić wszystko, aby ochronić swoje życie. W takiej sytuacji liczy się przecież szybkie działanie, a nie analizowanie i wyciąganie wniosków.

  8. Aaron Maklowsky

    Postep technologiczny. AI? Słyszałem gdzieś mniej więcej taki cytat: Gdyby teraz wymyślono żarówki to media powiedziałby że rzemieślnicy tworzący świece są zagrożeni. Myślę że świat albo się odnajdzie jak po rewolucji przemysłowej albo zapanuje skrajny kapitalizm, a bezdomni, bezrobotni będą umierali z głodu. Dlatego uważam że w przypadku masowej robotyzacji potrzebna jest większa redystrybucja dóbr(Ale nie komunizm)

  9. Andrzej Czeczowski

    Po co miałby to robić, skoro badania nad SI nie są zakazane na Ziemi? Laboratorium na Ziemi byłoby de facto bezpieczniejsza, gdyż umożliwiłoby „hodowlę” SI na serwerze offline-owym sprzętowo (tzn. pozbawionym jakiegokolwiek hardware’u umożliwiającego transmisję danych), serwer na orbicie musiałby zaś takie połączenie mieć.

  10. Zeta Tajemnica

    Ale przecież takie argumenty można odnieść do każdej sytuacj, i nigdy z tego nie wybreniemy. Żyjemy w społeczeństwie gdzie potrzeby socialne są różne ale są ważniejsze sprawy. Bo przytoczona tu sztuczna inteligencja będzie miała wpływ na każdego obywatela bez względu na jego oriętacje seksualną. Wydaje mi się że równouprawnienie mniejszości jest sprawą drugorzędną kiedy to algorytm ma decydować jak zostaniesz potraktowany przez system sprawiedliwości ( tu mam na myśli testowany system do wydawania werdyktów) lub wytypowany przez służby jako osoba niebezpieczna.
    Na koniec (bez obrazy) ale to tak jakbyś chciał żeby rząd przeznaczył środki na promocję kraju za granicą kosztem finansowania OIOMu.

    Proces informatyzacji jest nie do zatrzymania i ma ogromny wpływ na nasze życie , mimo że tego nie odczuwamy to skala globalna i trzeba to uporządkować .

  11. Mac McFisher

    Jako ludzie łatwo darzymy maszyny ogromnym zaufaniem. Po kilkunastu lub kilkudziesięciu poprawnych sugestiach algorytmu uczymy się mu ufać, zaczynamy polegać na decyzjach sugerowanych przez komputer, a zaoszczędzony czas i energię poświęcać innym zadaniom

  12. Adam

    Lubię nową technologię. Sam ją w końcu po części tworzę ale tak pomyślałem…
    Wracam za 20 lat z roboty do domu i chcę sobie ebnąć Guinnessa. Otwieram lodówkę a tam znowu Tyskie w 4 paku po promocji bo jakieś korpo od lodówki i płatności sobie umowę wiązaną podpisało z producentem piwa. To horror nie przyszłość.