Nie zabijaj humanoida, czyli czy maszyny zasługują na swoje prawa?

Na czym miałoby polegać przyznawanie maszynom praw? Ciągle nie da się skonsultować tej kwestii z samymi zainteresowanymi. Sztuczna inteligencja nie powie nam, czy czuje się dobrze traktowana przez obowiązujący, ludzki system prawny. Musimy więc radzić sobie sami i decydować za nią.

Podziel się

facebook twitter linkedin email
machines rights Norbert Biedrzycki blog

Pod koniec lipca 2019 roku, świat obiegła informacja, że firma Neuralink jest blisko integracji ludzkiego mózgu z komputerem, zaprezentowano nawet pierwszy interfejs, który miałby to umożliwić. Może więc czeka nas nieprawdopodobny skok jeśli chodzi o rozszerzenie naszych możliwości poznawczych. Konsekwencje tego byłyby różnorodne, nie ominęłyby nas z pewnością podejmowanie bezprecedensowych decyzji o charakterze prawnym czy etycznym. W kontekście takiego przełomu, pytanie o prawa maszyn staje się tym bardziej uzasadnione. Ludzki mózg w połączeniu z procesorami będzie wymagać specjalnej ochrony. Nie zabijaj maszyny.

Humanidalna świadomość pod ochroną

Dla transhumanistów sprawa jest najwyższej wagi. Zgodnie z ich poglądami, technologia zasługuje na wyjątkowy szacunek, nie mniejszy od tego, jaki przysługuje ludziom. Skoro nasza przyszłość, jako gatunku, jest zagrożona przez katastrofę ekologiczną, to ratunku powinniśmy szukać wchodząc w symbiozę z maszynami. Dzięki temu humanoidalna istota, będąca połączeniem organizmów żywych z układami elektronicznymi, może przeżyć cywilizacyjne katastrofy, uniezależnić się od ograniczeń, jakim podlega biologiczna struktura. Transhumaniści postulując nadanie praw maszynom, są przekonani, że przyszłość przyniesie narodziny nowego rodzaju świadomości. Istoty, które zaludnią naszą planetę, nie tylko będą odczuwać,  ale może nawet będą mieć własną świadomość. A czy istotę ze świadomością – bez względu na jej rodzaj– będzie można bezkarnie zniszczyć? Czy nie byłoby to morderstwo? 

Odkurzacz nie zasługuje na przywileje

Absurdalność pytania o prawa maszyn nie wydaje się już tak duża, gdy uświadomimy sobie, że przyznajemy je zwierzętom, a ich posiadaniem cieszą się też firmy. Kluczową kwestią jest zasięg możliwych regulacji prawnych. Nikt przy zdrowych zmysłach nie domagałby się przecież prawnej ochrony dla odkurzacza czy żelazka. Może rzecz dotyczyłaby w takim razie tylko bytów technologicznych o określonym stopniu złożoności? Mogłyby to być urządzenia zdolne do wykonywania np. czynności, które będziemy traktować jako rodzaj aktywności intelektualnej. Posłużę się przykładem robota pracującego w fabryce, który nagle się psuje. Śledztwo wykazuje, że uszkodzono go celowo. Po jakimś czasie zostaje znaleziony sprawca, który miał dostęp do oprogramowania maszyny. Po pierwsze, firma została narażona na straty, co skutkuje odpowiedzialnością prawną sprawcy, ale może w przyszłości będzie liczyć się coś jeszcze? Gdyby przyjąć, że robot jest wyrafinowanym mechanizmem, a jego działanie opiera się na rozumujących algorytmach  (niektóre z nich są już w stanie napisać własny kod źródłowy), to mielibyśmy do czynienia z czynem wymierzonym przeciwko bytowi i  pewnym wartościom – w dużym stopniu analogicznym do ludzkich. 

O tym, że te rozważania nie należą do sfery fantastyki naukowej, świadczy fakt, że w 2017 roku Parlament Europejski zatwierdził rezolucję, która przyznawałaby status „osobowości elektronicznej”szczególnie zaawansowanym robotom. Jako uzasadnienie wskazano na fakt, że firmy lub organizacje mogą korzystać z niektórych praw właściwych ludziom, ciesząc się statusem osobowości korporacyjnej. 

Czy maszyny wezmą odpowiedzialność za siebie?

Cała sprawa ma jeszcze jeden interesujący aspekt. Skoro przychylamy się  do opinii, że maszyny rzeczywiście zasługują na określone prawa, to konsekwencją tego byłaby ich odpowiedzialność za swoje decyzje i czyny. Tu posłużę się przykładem samojezdnych pojazdów. Działając w oparciu o machine learning, autonomiczny samochód dokonuje na drodze wielu samodzielnych wyborów. Te mają wpływ na kierowcę, pasażerów i innych uczestników ruchu. Przewidując potencjalny wypadek, algorytm musi podjąć decyzje, kto podlega ochronie jako pierwszy – kierowca, pasażerowie, czy pieszy. Autonomiczny pojazd wdraża więc w życie określony system wartości, uruchamia system etycznych wyborów, które dotyczą ludzi, nawet gdy nie zdaje sobie z tego sprawy na sposób ludzki. Krótko mówiąc, staje się w jakiś sposób odpowiedzialny z ludzkiego punktu widzenia. Jednak jak taką odpowiedzialność egzekwować w sytuacji wypadku? Czy ciągle obciążać konsekwencjami prawnymi twórcę algorytmów użytych w produkcji samochodu? Czy wyjść już z założenia, że samochód jest tworem obdarzonym zarówno swoimi ochronnymi przywilejami, jak i obowiązkiem respektowania praw ustanowionych przez ludzi.

Black box straszy coraz bardziej

Dzisiaj zmagamy się z kwestią tzw. black boxu. Mam na myśli sytuacje, kiedy ludzie przestają rozumieć zasady, jakimi kierują się inteligentne technologie z obszaru sztucznej inteligencji. Te zaczynają się usamodzielniać i niektórzy wręcz uważają, że sytuacja zaczyna wymykać się nam z rąk. Problem może narastać. Nie będziemy w stanie zrozumieć, dlaczego broń oparta na sztucznej inteligencji zacznie eliminować niektóre obiekty, dlaczego czat boty będą podsuwać nam takie, a nie inne rozwiązania dotyczące kredytu, dlaczego asystenci głosowi udzielą nam takiej, a nie innej odpowiedzi. Czy wobec tego odpowiedzialność urządzeń za swoje działania stanie się szczególnie palącą kwestią? Cyniczne opinie głoszą, że przyznawanie maszynom praw to jedynie wygoda twórców urządzeń opartych na sztucznej inteligencji, którzy sami chcą uniknąć odpowiedzialności za to, co stworzyli i za sytuacje, które mogą zaistnieć.

Zdaję sobie sprawę z tego, że w opisywanym problemie, operujemy tylko spekulacjami, mnożymy pytania. Sądzę przy tym, że etyczne konsekwencje integracji robotów w naszych miejscach pracy, w wojsku, policji, sądownictwie, będą się coraz bardziej komplikować. Oznacza to między innymi, że jak najszybciej musimy zająć się takimi kwestiami, jak odpowiedzialność za nas i za maszyny, które dzisiaj jeszcze nie potrafią jej na siebie wziąć.

.    .   .

Cytowane prace:

CNET, Stephen Shankland, Elon Musk says Neuralink plans 2020 human test of brain-computer interface. “A monkey has been able to control a computer with his brain,” Musk says of his startup’s brain-machine interface, Link, 2019. 

FORBES, Sarwant Singh, Transhumanism And The Future Of Humanity: 7 Ways The World Will Change By 2030, Link, 2020. 

SLATE, RACHEL WITHERS, The EU Is Trying to Decide Whether to Grant Robots Personhood, Link, 2018. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Czy sztuczna inteligencja uratuje rynek pracy?

– Sztuczna inteligencja jest sprawnym bankierem

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj