Testując autonomiczne pojazdy, testujemy nasze zaufanie do AI i przerabiamy lekcję etyki

Nowoczesna technologia – budząc spory i kontrowersje – każe nam myśleć o podstawowych wartościach takich, jak dobro i zło.

Podziel się

facebook twitter google+ linkedin email
Norbert Biedrzycki blog autonomiczne

Mój artykuł wSpiders’Webz dnia 6 kwietnia2019 roku.

Wyrazistym przykładem tego, jak rozwój technologii może polaryzować nasze poglądy są autonomiczne samochody. Osobiście uważam, że dają szansę na poprawę standardów bezpieczeństwa na drogach. I nie dziwią mnie opinie entuzjastów, którzy twierdzą, że za 15 lat nie będziemy mogli pojąć, że kiedyś samochodami kierowali ludzie.

Aby jednak sprawy poszły w dobrym kierunku, potrzebujemy uniwersalnych standardów wdrażania nowej technologii. Producenci autonomicznych pojazdów inwestując wielkie pieniądze, złożyli w pewnym sensie społeczeństwu obietnicę. Zgodnie z nią, powszechna akceptacja tych samochodów na drogach może zapobiec dziesiątkom tysięcy ofiar śmiertelnych w ruchu drogowym każdego roku (tylko w Stanach Zjednoczonych w wypadkach ginie od 30 do 40 tys. osób rocznie).

Zwolennicy autonomicznych pojazdów często przytaczają wyniki wielokrotnie powtarzanych wyników badań, z których wynika, że za 90–95 proc. wypadków odpowiada kierowca, a nie technologia.

W zeszłym roku, w amerykańskim mieście Tempe, pod kołami autonomicznego pojazdu zginęła przechodząca przez jezdnię kobieta. Nie zareagowały systemy bezpieczeństwa w samochodzie ani kierowca znajdujący się w środku. Wydarzenie wywołało mnóstwo komentarzy i pokazało, z jak wielu perspektyw możemy na nie patrzeć.

Niektórzy, nieco złośliwie, nazwali wypadek wydarzeniem historycznym – oto bowiem sztuczna inteligencja ma na swoim koncie pierwszą ofiarę w ludziach. Opinie, że na publicznych drogach nie powinno się testować wadliwej technologii produkowanej przez prywatne firmy napędzane żądzą zysku, pojawiły się błyskawicznie. Sceptycy i krytycy formułowali tezy, że ludzie nigdy nie zaakceptują pojazdów autonomicznych. Powoływali się m.in. na badania przeprowadzone na zlecenie Reutersa/Ipsos jeszcze w styczniu. Jeszcze przed wypadkiem w Tempe, dwie trzecie Amerykanów nie miało zaufania do pojazdów autonomicznych.

Przy okazji wspomnianego wypadku wyszły na jaw takie kwestie, jak przepracowanie kierowców testowych (zbyt wiele godzin spędzonych za kierownicą), rezygnacja z drugiej osoby w kabinie (wcześniej, przez długi czas, w testowej jeździe uczestniczyło zawsze dwóch kierowców kontrolujących pojazd). Ponadto firma testująca pojazd miała zdecydować się na strategię zwiększania komfortu jazdy (przez ograniczenie częstego, gwałtownego hamowania) kosztem zmniejszenia wrażliwości pojazdu na pojawiające się przeszkody. Ponadto, dziennikarze dotarli do wewnętrznych raportów, które wykazywały, że w trakcie testów pojazdy miały problemy z przejechaniem – bez ingerencji kierowcy lub bez hamowania – odległości jednego kilometra.

Nagrania z wypadku pokazują, że kierowca nie śledził z uwagą jezdni, zajmował się swoim telefonem. Mogłoby to być – paradoksalnie – potwierdzeniem tezy, że najbardziej niebezpieczni na drodze są ludzie za kierownicą. Ale byłoby to chyba uproszczeniem.

Pojazdy autonomiczne wyposażone są w czujniki lidarowe i radary. Osprzęt ma monitorować otoczenie wokół pojazdu i wykrywać wszelkie przeszkody. Nie ma jednak uniwersalnych standardów, które określałyby, jak powinny działać takie systemy, jakie parametry powinny być uwzględnione i kiedy samochód powinien reagować hamowaniem.

W ramach toczącego się ciągle śledztwa firma przyznała, że lidary, radary i kamery odebrały informację o człowieku na drodze (tę informację akcentował mocno producent zastosowanych czujników laserowych). Problem leżał więc w dostrojeniu systemu samochodu, w oprogramowaniu i algorytmach machine learning. Zdecydowano się na rozwiązania zakładające większą tolerancję na pojawiające się przeszkody.

Docieramy więc do ważnej, a może kluczowej kwestii w całej sytuacji. Jak „ustawiać” system bezpieczeństwa pojazdu i kto ma podejmować kluczowe decyzje. Fakt, że możliwości jest wiele, nie upraszcza problemu.

Od 2016 roku naukowcy z MIT Media Lab prowadzą badania poświęcone pojazdom autonomicznym. Uruchomili oni MoralMachine (moralmachine.mit.edu), czyli coś w rodzaju gry, która sprawdza nasze wybory etyczne odnoszące się do pojazdów autonomicznych. Na stronie czytamy: „ukazujemy moralne dylematy, które muszą być rozwiązywane przez pojazdy, takie jak wybór między zabiciem pasażera a zabiciem przechodnia”. Platforma pokazuje uczestnikom różne scenariusze wydarzeń na drodze. Wiele z nich uwzględnia najróżniejsze kombinacje płci i wieku, a nawet obecność zwierząt przechodzących przez jezdnię.

Kilka tygodni temu autorzy badań zaprezentowali częściowe wnioski z ponad 4 mln ankiet. Uczestnicy badania zdecydowanie częściej chcą chronić życie dziecka niż dorosłego. Gdy jednak należało zdecydować, kto w ekstremalnie niebezpiecznej sytuacji ma przeżyć: pasażer, kierowca czy pieszy, wyniki przestawały być jednoznaczne. Przykładowo, aż 40 procent uczestników gry wskazywało, że pojazd powinien chronić w pierwszej kolejności pasażerów, nawet za cenę utraty życia przez przechodniów.

Link do pełnego artykułu

Powiązane artykuły

– Kiedy przestaniemy być biologicznymi ludźmi?

– Sztuczna inteligencja to nowa elektryczność

– Roboty czekają na sędziów

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

Skomentuj

2 comments

  1. TomekJacek

    I wielu twierdzi, nie bez pewnej racji, że całkiem dobrze, że tak ciągle jeszcze jest. Czy komputer podejmujący samodzielnie decyzję (tzn. na podstawie różnego rodzaju obliczeń matematycznych w sterującym nim programie) o “likwidacji” “terrorysty”, “bojownika”, “napastnika”, czy nawet żołnierza wrogiej armii, którą to decyzję wykonuje następnie wyspecjalizowany robot, to naprawdę to, czego chcemy? A co powiecie na taki komputer, który tylko blokuje lub aresztuje pewne osoby, bo np. mają nieprawidłowy wpis w paszporcie lub zostały przez program komputerowy zakwalifikowane do grupy niebezpiecznych, niepożądanych, podejrzanych itp.? Kto zagwarantuje, że takie technologie nie będą stosowane przez reżimy autorytarne lub totalitarne? Oczywiście – nikt. Ba, mało tego, Chińczycy już to u siebie testują.