Czy roboty zaczną grzeszyć?

Każdy z nas podejmuje codziennie szereg decyzji, w których istotne są kwestie etyczne. W dużej części nasze codzienne wybory między dobrem a złem są automatyczne, często przez nas niezauważalne. W świecie Sztucznej Inteligencji kwestia moralności staje się zaś coraz bardziej problematyczna.

Podziel się

facebook twitter google+ linkedin email
Can robots sin Norbert Biedrzycki

Każdy z nas podejmuje codziennie szereg decyzji, w których istotne są kwestie etyczne. W dużej części nasze codzienne wybory między dobrem a złem są automatyczne, często przez nas niezauważalne. W świecie Sztucznej Inteligencji kwestia moralności staje się zaś coraz bardziej problematyczna. Czy roboty zaczną grzeszyć? 

Technologie oparte na algorytmach, uczeniu maszynowym i automatyzacji procesów znajdują się na takim etapie rozwoju, że pytania i odpowiedzi dotyczące moralności, mogą poważnie wpłynąć na rozwój całej nowoczesnej technologii, a nawet naszej cywilizacji.

U podstaw rozwoju Sztucznej Inteligencji leży wiara w to, że świat może być lepszy. Ludzie mogą być zdrowsi i żyć coraz dłużej, zadowolenie klienta z oferowanych mu usług i dostarczanych produktów stanie się coraz większe, prowadzenie samochodu będzie wygodniejsze i coraz bardziej bezpieczne, a technologia w naszych inteligentnych domach nauczy się rozumieć nasze intencje i potrzeby. Taka właśnie, może nieco utopijna, wizja musiała pojawić się w wyobraźni twórców systemów informatycznych, by mógł dokonać się wielki postęp technologiczny, który nadal trwa. Kiedy wreszcie przekonaliśmy się, że nowatorskie produkty i usługi (komputery rozumiejące język naturalny, systemy rozpoznawania ludzkiej twarzy, pojazdy autonomiczne, inteligentne domy, roboty) rzeczywiście da się stworzyć, to doszliśmy do etapu przeżywania wątpliwości, rozterek i zadawania pytań. Koncerny technologiczne mają świadomość tego, że za ich abstrakcyjnymi, niematerialnymi wytworami (oprogramowanie, algorytmy) ukryte jest podstawowe, klasyczne i poważne pytanie o dobro i zło. Poniżej wskażę na kilka podstawowych wyzwań o charakterze etycznym, które prędzej czy później będą wymagały od nas podjęcia jednoznacznych decyzji.

 

Rewolucja w prawie.

Duże kancelarie prawne w Stanach Zjednoczonych podejmują w ostatnich latach intensywną współpracę zarówno z etykami jak i programistami, dla których praca nad nowymi algorytmami to chleb powszedni. Te aktywności w przeważającej części wynikają z postawy polityków amerykańskich, którzy mają pogłębiającą się świadomość tego, że systemy prawne nie nadążają za zmianami, które niesie za sobą technologia. Uważam, że jednym z największych wyzwań dla dużych społeczności, państw i narodów jest konieczność podjęcia systemowych działań legislacyjnych zmierzających do uregulowania kwestii prawnych dotyczących Sztucznej Inteligencji. Jest to potrzebne zarówno ze względu na poczucie naszego bezpieczeństwa, jak i po to, by całe dziedziny związane z technologiami informatycznymi mogły się dalej rozwijać. Wdrożeniom technologicznym i implementacjom technologii w biznesie nie może towarzyszyć wyłącznie intuicja, zdrowy rozsądek czy działanie w oparciu o zasadę „co nie jest zabronione, jest dozwolone”. Przecież prędzej, czy później ofiarami braku odpowiednich regulacji mogą stać się nie tylko postronni ludzie, ale również i ci, którzy dzisiaj podejmują kluczowe decyzje.

 

Pic1 Robots factory

Linia produkcyjna w fabryce Foxconn

 

Regulacje rynku pracy.

Robotyzacja całych dziedzin przemysłu staje się faktem. Na takich obszarach jak logistyka, BIG DATA, magazynowanie dóbr – udział robotów będzie się systematycznie zwiększał. Nie bez przyczyny jest to chyba najczęściej pojawiający się wątek w rozważaniach dotyczących Sztucznej Inteligencji. Dyskusjom tym towarzyszy często irracjonalny lęk, który może stać się narzędziem ułatwiającym doraźne korzyści wielu grupom społecznym, włącznie z kręgami politycznymi. Co zrobić, by straszenie robotami nie weszło nam w krew? Jednocześnie, jak rozwiązać takie kwestie jak utrata pracy przez człowieka i zastąpienie go maszyną? Czy rozwiązaniem mogą stać się podatki nakładane na firmy o wysokim stopniu robotyzacji? Czy pracodawcy powinni być świadomi odpowiedzialności moralnej, jaka wiąże się z faktem zatrudnienia robota, który może na pewnych obszarach kontrolować pracę człowieka? Kategorie dobra i zła są tutaj szczególnie istotne i trudno je bagatelizować. Automatyzacja i robotyzacja wielu gałęzi przemysłu niesie korzyści, ale może oznaczać też rodzenie się mechanizmów wykluczających i wpływać na pogłębianie się nierówności społecznych. To są prawdziwe wyzwania naszych czasów i nie możemy udawać, że są to kwestie abstrakcyjne.

 

Kontrola oprogramowania

Według futurologa Raya Kurzweila czeka nas wkrótce powstanie osobliwości, superinteligencji. Jest to ten okres w rozwoju cywilizacyjnym i technologicznym, kiedy zdolności obliczeniowe wszystkich komputerów zaczynają przewyższać umiejętności przetwarzania informacji przez ludzki mózg. Wielu antropologów kultury traktuje to, jako rodzaj doświadczenia granicznego i moment prawdziwych narodzin Sztucznej Inteligencji, a może też jej uniezależnienie się od człowieka. Czy jeśli ta hipoteza ma sens, to oznacza, że systemy Sztucznej Inteligencji potrzebują jakiegoś specjalnego nadzoru? Na czym miałby on polegać? Jak stworzyć standardy w przemyśle informatycznym, które pozwoliłyby na rozróżnienie kategorii zachowań, projektów, produkcji dozwolonych od niedozwolonych? Według Jonathana Zittraina, profesora prawa z Harvardu rosnąca złożoność systemów informatycznych, które są ze sobą coraz bardziej powiązane, powoduje, że kontrola nad nimi staje się niemożliwa. A to może oznaczać szereg niebezpieczeństw łącznie z tym, że kategorie moralne staną się trudne do obrony, czy do utrzymania.

 

Ray Kurzweil: Nadchodząca osobowość

 

Autonomiczne pojazdy dokonują wyborów

Kilka miesięcy temu pisałem o kwestiach etycznych związanych z faktem pojawienia się na naszych drogach autonomicznych pojazdów. Opisywałem, że samochody będą musiały dokonywać etycznych wyborów na drodze, co będzie też w konsekwencji oznaczać problem odpowiedzialności dla konkretnych ludzi – programistów tworzących algorytmy czy prezesów koncernów samochodowych. W sytuacji, gdy na drogę w wybiega dziecko, autonomiczny samochód musi niejako sam wybierać, co robić. A te jego wybory będą zależne od tego, jakie algorytmy zostały wykorzystane do jego funkcjonowania. Można teoretycznie wybrać trzy drogi w – nazwijmy to – etycznym programowaniu algorytmów. Pierwsza zakłada, że w sytuacji wypadku i zagrożenia życia, liczy się solidarnie dobro wszystkich uczestników wypadku (czyli kierowca, pasażerowie i dziecko na drodze). Druga wskazuje na to, że najważniejsze jest życie pieszych i uczestników ruchu. W trzecim ujęciu, priorytetem jest ochrona życia kierowcy i pasażerów. Wszystko więc zależy, jaki algorytm będzie w tym przypadku decydujący i na jaki zdecyduje się dana firma. Spośród tych wariantów zachowań producenci będą musieli wybrać najbardziej korzystny – biorąc pod uwagę korzyści biznesowe, warunki ubezpieczenia i zasady etyki. Bez względu na to, który wybiorą, będą też musieli zadbać o ochronę prawną swoich programistów piszących algorytmy.

 

Jak zachować prawo do prywatności?

Pojęcie prywatności to kwestia wyjątkowo drażliwa w naszych czasach. Nasze dane osobowe są przetwarzane w zasadzie nieustannie przez zautomatyzowane procesy biznesowe i marketingowe. Nasz pesel, nazwisko, historia naszego poruszania się w internecie, zakupów – stała się przedmiotem zainteresowania wszystkich korporacji świata. Żyjąc w zglobalizowanym świecie poddawani jesteśmy nieustannym naciskom – mniej lub bardziej subtelnym – by te nasze dane udostępniać na każdym kroku.

Czym jest prywatność dzisiaj, czym jest właściwie prawo do jej zachowania – to pytanie jest jednym z kluczowych i dotyczy wielu przejawów naszego funkcjonowania. W erze mediów społecznościowych, kiedy każda informacja o naszym życiu została praktycznie na zawsze „kupiona” przez największe portale, nasz prywatność została w zasadzie przedefiniowana. Wprowadzając się do inteligentnego domu nafaszerowanego elektroniką, gdzie każdy sprzęt będzie uczył się naszych potrzeb, musimy zdawać sobie sprawę z tego, że efektem tej nauki będą też konkretne dane, które będą mogły być przetwarzane i udostępniane. Pytanie o to, czy nasze prawo do zachowania przestrzeni prywatnej nie będzie z czasem jeszcze bardziej wystawione na działanie zewnętrznych sił i społecznych procesów – uważam za podstawowe.

 

Pic2 Frank

Frank – robot bioniczny zbudowany z protez i syntetycznych organów

 

Rządzić będą Boty

Na świecie organizowane są turnieje botów. Polegają one na tym, że ich uczestnicy poddawani są testowi Turinga, czyli klasycznej metodzie sprawdzania, czy obcujemy z komputerem, czy z człowiekiem. Nie będzie chyba dużym zaskoczeniem, że najlepsze boty osiągają wyniki ponad 50 procentowej skuteczności. Oznacza to ni mniej ni więcej, że połowa ludzi uczestniczących w eksperymencie nie jest w stanie odpowiedzieć na pytanie, czy komunikowało się z człowiekiem czy z maszyną. O ile takie laboratoryjne zawody jeszcze wyglądają jak niewinna zabawa, to wprowadzenie botów do powszechnego funkcjonowania może uruchomić szereg pytań natury etycznej. Czy mogę poczuć się przez bota okłamany lub wykorzystany? Czy może mną manipulować i wpływać na moje relacje ze współpracownikami, usługodawcami, szefem? A jeśli poczuję się oszukany, to w jakiej instancji mam szukać zadośćuczynienia? Przecież oskarżenie bota o manipulację brzmi jak bajka nie z tej planety. Maszyny zwiększają obecność w naszym życiu, zaczynają wpływać też na nasze emocje. Tutaj również pytanie o dobro i zło będzie nabierało szczególnego znaczenia.

 

Czy roboty odróżnią dobro od zła?

Najciekawsze pytania o charakterze etycznym dotyczą właśnie robotyzacji. I tu pojawiają się pytania analogicznie do tych, które towarzyszą obecności pojazdów autononomicznych. Dzisiejsze roboty dopiero się uczą chodzić, odpowiadać na pytania, trzymać w dłoni butelkę napoju, otwierać lodówkę, biegać. Niektóre robią to już z coraz większą naturalnością. Roboty nie tylko zastąpią nas w wielu miejscach pracy. Mogą być naprawdę pomocne w takich obszarach życia, jak chociażby opieka nad ludźmi starszymi, wymagającymi codziennej pomocy. Jeszcze minie sporo czasu, kiedy robot stanie się istotą społeczną, „osobą” chronioną specjalnymi prawami – chociaż pytania o te kwestie już są zadawane. Ale już dzisiaj producenci robotów stają przed wyzwaniami, w których nie brakuje pytań dotyczących wyborów między dobrem i złem. Jak programować robota, by podejmował on działania wyłącznie pozytywne, nie szkodzące ludziom? By nam pomagał w każdej sytuacji, a nie przeszkadzał? Jeśli mielibyśmy ufać technologii i Sztucznej Inteligencji, to musimy zadbać o to, aby maszyna działała zgodnie z planem. Ale co to oznacza w przypadku robota? Wyobraźmy sobie sytuację, że programujemy go tak, by o określonej godzinie podawał leki osobie potrzebującej. I wyobraźmy sobie, że ta osoba nagle odmawia ich przyjęcia. Co ma zrobić robot? Czy uszanować wybór pacjenta? Kto będzie odpowiadał i ponosił konsekwencje prawne dotyczące wyboru maszyny w opisanej sytuacji?

 

Pic3 three laws of robotics isaac asimov

Prawa Robotyki Isaaca Asimova

 

Era nowej moralności?

Przedstawiłem kilka najważniejszych obszarów Sztucznej Inteligencji, w których problematyka etyczna jest lub będzie szczególnie ważna. Jednak pytań, które tu nie padły ze względu na rozmiar tekstu – jest dużo więcej. Przełom technologiczny, jaki się dokonuje na naszych czasach, niesie nie tylko jednoznaczne korzyści, czyni nasze życie wygodniejszym i lepszym. Oznacza on również wielkie wyzwanie dla naszego systemu wartości, niesie nadzieje, ale też obawy dotyczące zachwiania utrwalonych granic między dobrem a złem. Być może rewolucja jaka dokonuje się w tych dniach przyniesie globalną zmianę, która dotknie również naszego tradycyjnego pojmowania kategorii etycznych.

 

Powiązane artykuły:

– Maszyna cię nie przytuli, ale … wysłucha i coś doradzi

– Czy maszyny odróżniają dobro od zła?

Machine Learning. Komputery nie są już niemowlętami

Co pomyśli maszyna, gdy spojrzy nam głęboko w oczy?

Upadek hierarchii, czyli kto właściwie rządzi w Twojej firmie

Mózg, urządzenie które wypada z obiegu

Nowoczesne technologie a stare lęki: czy roboty odbiorą nam pracę?

 

 

Skomentuj

23 comments

  1. Krzysztof C

    Nie wiem czy zaczną grzeszyć ale już teraz można zgrzeszyć z robotem, wyspecjalizowaną lalką porno. Czy jeśli można z robotem, to pewnie roboty też mogą

  2. Krzysztof Bikowski

    „..jest ocena i minimalizacja szkód społecznych we takim zdarzeniu” – a jak by Pan to sobie wyobrażał? Maszyna ocenia czy lepiej dla społeczeństwa jest zbić staruszkę a nie dziecko?

  3. JacekPaczka

    Autonomiczne samochody będą ocalały nasze życie, dzięki popełnianiu mniejszej liczby błędów niż ludzie za kierownicą. Czasami jednak staną w obliczu wyboru, czyje życie ratować. Czy należy je zaprogramować, by skręciły i ominęły dziecko przebiegające przez drogę, nawet jeśli narazi to życie pasażerów? A jeżeli trzeba będzie ominąć psa? Co jeśli jedynym ryzykiem jest uszkodzenie samego auta, nie pasażerów?

  4. Andrzej44

    Nie wierzę w taką wizję. Prędzej do mózgu będziemy podłączaś elektrody. Wtedy wszystko będzie możliwe. Po co nam tylu pośredników jakiś robot albo jakaś skóra jak można będzie zapaść w sen na jawie i tam wszystko przeżywać znacznie intensywniej niż przez skórę. Roboty nie będą etyczne. Trzeba im wbudować jakieś bezpieczniki

  5. Jacek Czyz

    W mojej ocenie każdego dnia będziemy doświadczać coraz większej roli AI w naszym życiu. Dzięki niej możemy liczyć na technologiczne i ekonomiczne korzyści, które jeszcze dzisiaj nie dla wszystkich są jasne, czy oczywiste. Warto zarazem pamiętać że w historii ludzkości każdy przełom technologiczny czy społeczny generował na początkowym etapie kontrowersje, uruchamiał lawinę krytyki i budził sceptycyzm.

  6. Robert Kaczkowski

    Nie jestem przekonany czy autonomiczne pojazdy dokonują wyborów samodzielnie. Raczej algorytmy i zaprogramowane przez projektanta procedury i zachowania. Czyli naśladują albo są nauczone na podstawie zachowań ludzi

  7. Jacek B2

    Bardzo dobre przedstawinie tematyki moralności maszyn. Ciekawe jak ludzkość ten problem zaadresuje. Interesujący okres przed nami

  8. Grzegorz Wiatr

    Poza tym zapomniał Pan o czwartym prawie robotyki Asimowa lub tak zwanym zerowym: Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

  9. Grzegorz Wiatr

    Elon Musk, który jest jednym z sygnatariuszy listu otwartego wiele razy ostrzegał, iż konieczna jest regulacja w zakresie robotyki. Również Ryan Gariepy, założyciel firmy Clearpath Robotics twierdzi, że „autonomiczne systemy uzbrojenia są obecnie w fazie rozwoju i mają bardzo realny potencjał na wyrządzenie poważnych szkód niewinnym ludziom oraz doprowadzenie do globalnej niestabilności”.

  10. Andrzej_Ko

    Śmiercionośne roboty wojskowe mogą w końcu wymknąć się spod kontroli i obrócić przeciwko człowiekowi. Sterowane przez sztuczną inteligencję maszyny mogą rozpocząć zniszczenia, które nie sposób będzie zatrzymać. Raz rozwinięta, śmiertelna, autonomiczna broń pozwoli na walkę zbrojną w skali większej niż kiedykolwiek, może to nastąpić szybciej niż ludzie będą w stanie zrozumieć. Może to być narzędzie terroru, broń, którą despoci i terroryści użyją przeciwko niewinnym ludziom oraz broń która sama zacznie zachowywać się w sposób niepożądany. Nie będziemy musieli długo czekać. Kiedy ta puszka Pandory zostanie otwarta, trudno będzie ją zamknąć.

  11. TomaszK1

    Odwieczne pytanie o świadomość człowieka, nie tylko maszyn, wolną wolę i co ważniejsze konsekwencje decyzji. Bardzo dobry i zarazem trudny temat.

    Brawa za odwagę

  12. DCzaj

    Sam tytuł powoduje u mnie ciary na plecach. Rozumiem że nie chodzi tu o maszyny, drony sterowane np na wojnie ręką człowieka ale o samoświadomość maszyn. 2045 Ray Kurzweil. Bardzo dobry artykuł. Powinnismy mieć o wiele więcej dyskusji w sferze publicznej na tern temat. Wiem że na końcu chciałbym żeby ludzie mogli podejmować kluczowe decyzje, nie roboty. Nawet przeciwko nim

    • Norbert Biedrzycki  

      Nie wiem czy 2045, czy 2055. Samoświadomość maszyn nastąpni. Musimy się do tego przygotować. Prawnie i etycznie. Nie mniej ważne są nasze oczekiwania co do maszyn, ich zachowań