Testując autonomiczne pojazdy, testujemy nasze zaufanie do Sztucznej Inteligencji i przerabiamy lekcję etyki

Zwolennicy autonomicznych pojazdów często przytaczają wyniki wielokrotnie powtarzanych wyników badań, z których wynika, że za 90–95 proc. wypadków odpowiada kierowca, a nie technologia.

zaufanie do Sztucznej Inteligencji lekcja etyki Norbert Biedrzycki Anty Web

Mój artykuł wAnty Web z dnia 23 stycznia 2019 roku.

Takie pojęcia, jak algorytm czy robotyzacja często budzą skrajne, wręcz nieracjonalne reakcje. Fascynacji towarzyszy często niemal dziecięcy lęk. Nie dziwi mnie to. Doświadczamy globalnego cywilizacyjno – kulturowego przełomu, więc nawet przesadzona, emocjonalna troska o teraźniejszość, a tym bardziej o przyszłość, wydaje się usprawiedliwiona. Co ciekawe, nowoczesna technologia – budząc spory i kontrowersje – każe nam myśleć o podstawowych wartościach takich, jak dobro i zło.

Bezpieczniejsze od ludzi

Wyrazistym przykładem tego, jak rozwój technologii może polaryzować nasze poglądy są autonomiczne samochody. Osobiście uważam, że dają szansę na poprawę standardów bezpieczeństwa na drogach. I nie dziwią mnie opinie entuzjastów, którzy twierdzą, że za 15 lat nie będziemy mogli pojąć, że kiedyś samochodami kierowali ludzie.

Aby jednak sprawy poszły w dobrym kierunku, potrzebujemy uniwersalnych standardów wdrażania nowej technologii. Producenci autonomicznych pojazdów inwestując wielkie pieniądze, złożyli w pewnym sensie społeczeństwu obietnicę. Zgodnie z nią, powszechna akceptacja tych samochodów na drogach może zapobiec dziesiątkom tysięcy ofiar śmiertelnych w ruchu drogowym każdego roku (tylko w USA w wypadkach ginie 30 – 40 tys. osób rocznie).

Zwolennicy autonomicznych pojazdów często przytaczają wyniki wielokrotnie powtarzanych wyników badań, z których wynika, że za 90–95 proc. wypadków odpowiada kierowca, a nie technologia. 

Samochody autonomiczne znów pod obstrzałem

W marcu 2018 roku, w amerykańskim mieście Tempe, pod kołami autonomicznego pojazdu zginęła przechodząca przez jezdnię kobieta. Nie zareagowały systemy bezpieczeństwa w samochodzie ani kierowca znajdujący się w środku. Wydarzenie wywołało mnóstwo komentarzy i pokazało z jak wielu perspektyw możemy na nie patrzeć. 

Niektórzy, nieco złośliwie, nazwali wypadek wydarzeniem historycznym – oto bowiem sztuczna inteligencja ma na swoim koncie pierwszą ofiarę w ludziach. Opinie, że na publicznych drogach nie powinno się testować wadliwej technologii produkowanej przez prywatne firmy napędzane żądzą zysku, pojawiły się błyskawicznie. Sceptycy i krytycy formułowali tezy, że ludzie nigdy nie zaakceptują pojazdów autonomicznych. Powoływali się m.in. na badania przeprowadzone na zlecenie Reutersa/Ipsos jeszcze w styczniu. Jeszcze przed wypadkiem w Tempe, dwie trzecie Amerykanów nie miało zaufania do pojazdów autonomicznych.

zaufanie do Sztucznej Inteligencji lekcja etyki Norbert Biedrzycki Anty Web 1

Jak to wszystko poustawiać?

Przy okazji wspomnianego wypadku wyszły na jaw takie kwestie, jak przepracowanie kierowców testowych (zbyt wiele godzin spędzonych za kierownicą), rezygnacja z drugiej osoby w kabinie (wcześniej, przez długi czas, w testowej jeździe uczestniczyło zawsze dwóch kierowców kontrolujących pojazd). Ponadto firma testująca pojazd miała zdecydować się na strategię zwiększania komfortu jazdy (przez ograniczenie częstego, gwałtownego hamowania) kosztem zmniejszenia wrażliwości pojazdu na pojawiające się przeszkody. Ponadto, dziennikarze dotarli do wewnętrznych raportów, które wykazywały, że w trakcie testów pojazdy miały problemy z przejechaniem – bez ingerencji kierowcy lub bez hamowania – odległości jednego kilometra.

Nagrania z wypadku pokazują, że kierowca nie śledził z uwagą jezdni, zajmował się swoim telefonem. Mogłoby to być – paradoksalnie – potwierdzeniem tezy, że najbardziej niebezpieczni na drodze są ludzie za kierownicą. Ale byłoby to chyba uproszczeniem. 

Pojazdy autonomiczne wyposażone są w czujniki lidarowe i radary. Osprzęt ma monitorować otoczenie wokół pojazdu i wykrywać wszelkie przeszkody. Nie ma jednak uniwersalnych standardów, które określałyby, jak powinny działać takie systemy, jakie parametry powinny być uwzględnione i kiedy samochód powinien reagować hamowaniem. 

W ramach toczącego się ciągle śledztwa firma przyznała, że lidary, radary i kamery odebrały informację o człowieku na drodze (tę informację akcentował mocno producent zastosowanych czujników laserowych). Problem leżał więc w dostrojeniu systemu samochodu, w oprogramowaniu i algorytmach machine learning. Zdecydowano się na rozwiązania zakładające większą tolerancję na pojawiające się przeszkody. 

Docieramy więc do ważnej, a może kluczowej kwestii w całej sytuacji. Jak „ustawiać” system bezpieczeństwa pojazdu i kto ma podejmować kluczowe decyzje. Fakt, że możliwości jest wiele, nie upraszcza problemu.  

Kto zginie ostatni?

Od 2016 roku naukowcy z MIT Media Lab prowadzą badania poświęcone pojazdom autonomicznym. Uruchomili oni MoralMachine (moralmachine.mit.edu), czyli coś w rodzaju gry, która sprawdza nasze wybory etyczne odnoszące się do pojazdów autonomicznych. Na stronie czytamy: „ukazujemy moralne dylematy, które muszą być rozwiązywane przez pojazdy, takie jak wybór między zabiciem pasażera a zabiciem przechodnia”. Platforma pokazuje uczestnikom różne scenariusze wydarzeń na drodze. Wiele z nich uwzględnia najróżniejsze kombinacje płci i wieku, a nawet obecność zwierząt przechodzących przez jezdnię. 

Kilka tygodni temu autorzy badań zaprezentowali częściowe wnioski z  ponad 4 mln ankiet. Uczestnicy badania zdecydowanie częściej chcą chronić życie dziecka niż dorosłego. Gdy jednak należało zdecydować, kto w ekstremalnie niebezpiecznej sytuacji ma przeżyć: pasażer, kierowca czy pieszy, wyniki przestawały być jednoznaczne. Przykładowo, aż 40 procent uczestników gry wskazywało, że pojazd powinien chronić w pierwszej kolejności pasażerów, nawet za cenę utraty życia przez przechodniów. 

zaufanie do Sztucznej Inteligencji lekcja etyki Norbert Biedrzycki Anty Web 2

Wyboista droga do odpowiedzi

Technologia ciągle nie działa samodzielnie. Ani roboty nie są niezależnymi istotami, ani algorytmy, które je ożywiają, ani sterowane algorytmami autonomiczne samochody. Nawet, jeśli dzięki machine learning i deep learning technologia może zwiększać własne możliwości i samodzielnie się uczyć na błędach, to ciągle największy wpływ na nią mamy my. 

Dopuszczając technologię algorytmiczną do funkcjonowania w społeczeństwie – w tym na drodze – musimy mieć świadomość własnej odpowiedzialności. Wyzwanie jest duże, a pytania trudne. Prędzej, czy później musimy się jednak z nimi zmierzyć. Ich lista jest pokaźna, wymienię tu niektóre. 

Czy władze miasta, kraju, okręgu, w którym odbywają się testy, powinny mieć stały i pełen dostęp do danych o zachowaniu pojazdu autonomicznego na drodze w czasie jazd testowych (zatrzymania, wyłączenia systemu, reakcja na obiekty na drodze, ingerencja człowieka)? Czy powinno określić się liczbę kilometrów, które pojazd przejedzie testowo zanim zostanie dopuszczony do użytku? Czy powinny zostać opracowane jednoznaczne standardy jakościowe dla czujników montowanych w autach? Na czym ma polegać ochrona danych, które zbierane są i generowane przez pojazd autonomiczny? Czy nabywca samochodu, wraz z zakupem, ma otrzymać maksymalną ilość informacji na temat tego, jak zachowa się auto w sytuacjach ekstremalnie trudnych? Czy przed dopuszczeniem pojazdów na drogę muszą być określone jednoznaczne regulacje dotyczące ochrony praw i dóbr osobistych kierowcy w razie wypadku? Czy pełna autonomia pojazdów (kierowca nie ma wpływu na decyzje samochodu) powinna być zakazana?

Mimo potknięć i trudności, producenci samochodów autonomicznych nie składają broni.  Myślę, że rezygnacja z prac nad tą technologią, byłaby błędem i pozbawieniem się marzeń o najpoważniejszym awansie motoryzacyjnym od czasu wynalezienia samochodu. Jednocześnie, chyba nienajgorszą rzeczą dla fanów nowej technologii, będzie wsłuchiwanie się w argumenty sceptyków, którzy twierdzą, że autonomiczne systemy zawsze będą zawodzić. Ich krytyczne uwagi mogą inspirować i pomóc w opracowaniu standardów, których na pewno mocno potrzebujemy. Tak, by ruszyć szybciej i do przodu.

Link do pełnego artykułu

Powiązane artykuły:

– Maszyna cię nie przytuli, ale … wysłucha i coś doradzi

– Czy maszyny odróżniają dobro od zła?

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

– W jaki sposób maszyny rozumują

Skomentuj

5 comments

  1. Alibaba

    Zawsze przekonany byłem i jestem, że AI bez procesu nauki maszyny czy jakiegoś innego tworu nie powstanie. Jedynie co można robić to starać się przyspieszyć ten proces by nie zachodził tak wolno jak u cżłowieka..

  2. Alibaba

    Rozumiem potrzebę rozwoju technologicznego w każdym aspekcie życia, wiele technologii powstaje lub jest rozwijana po to żeby nam ułatwić życie i jest to OK ale zawsze będę przeciwnikiem autonomicznych pojazdów. Dlaczego? Z bardzo prostego i prozaicznego powodu, prowadzenie samochodu to dla mnie czysta przyjemność i bardzo to lubię

  3. MJarosz99

    Zgadzam się.Ludzkość , coraz bardziej ” baraniej „.W środowisku gimbazy, jak nie masz foty z psią mordą lub uszami królika, to jesteś nieprzystosowanym lamusem.

  4. Avicenna

    Ciekawe. No to kto bedzie odpowiedzialny za wypadek? Programista czy kierowca, ale kierowca bedzie maszyna 🙂