Testując autonomiczne pojazdy, testujemy nasze zaufanie do AI i przerabiamy lekcję etyki

Nowoczesna technologia – budząc spory i kontrowersje – każe nam myśleć o podstawowych wartościach takich, jak dobro i zło.

Norbert Biedrzycki blog autonomiczne

Mój artykuł wSpiders’Webz dnia 6 kwietnia2019 roku.

Wyrazistym przykładem tego, jak rozwój technologii może polaryzować nasze poglądy są autonomiczne samochody. Osobiście uważam, że dają szansę na poprawę standardów bezpieczeństwa na drogach. I nie dziwią mnie opinie entuzjastów, którzy twierdzą, że za 15 lat nie będziemy mogli pojąć, że kiedyś samochodami kierowali ludzie.

Aby jednak sprawy poszły w dobrym kierunku, potrzebujemy uniwersalnych standardów wdrażania nowej technologii. Producenci autonomicznych pojazdów inwestując wielkie pieniądze, złożyli w pewnym sensie społeczeństwu obietnicę. Zgodnie z nią, powszechna akceptacja tych samochodów na drogach może zapobiec dziesiątkom tysięcy ofiar śmiertelnych w ruchu drogowym każdego roku (tylko w Stanach Zjednoczonych w wypadkach ginie od 30 do 40 tys. osób rocznie).

Zwolennicy autonomicznych pojazdów często przytaczają wyniki wielokrotnie powtarzanych wyników badań, z których wynika, że za 90–95 proc. wypadków odpowiada kierowca, a nie technologia.

W zeszłym roku, w amerykańskim mieście Tempe, pod kołami autonomicznego pojazdu zginęła przechodząca przez jezdnię kobieta. Nie zareagowały systemy bezpieczeństwa w samochodzie ani kierowca znajdujący się w środku. Wydarzenie wywołało mnóstwo komentarzy i pokazało, z jak wielu perspektyw możemy na nie patrzeć.

Niektórzy, nieco złośliwie, nazwali wypadek wydarzeniem historycznym – oto bowiem sztuczna inteligencja ma na swoim koncie pierwszą ofiarę w ludziach. Opinie, że na publicznych drogach nie powinno się testować wadliwej technologii produkowanej przez prywatne firmy napędzane żądzą zysku, pojawiły się błyskawicznie. Sceptycy i krytycy formułowali tezy, że ludzie nigdy nie zaakceptują pojazdów autonomicznych. Powoływali się m.in. na badania przeprowadzone na zlecenie Reutersa/Ipsos jeszcze w styczniu. Jeszcze przed wypadkiem w Tempe, dwie trzecie Amerykanów nie miało zaufania do pojazdów autonomicznych.

Przy okazji wspomnianego wypadku wyszły na jaw takie kwestie, jak przepracowanie kierowców testowych (zbyt wiele godzin spędzonych za kierownicą), rezygnacja z drugiej osoby w kabinie (wcześniej, przez długi czas, w testowej jeździe uczestniczyło zawsze dwóch kierowców kontrolujących pojazd). Ponadto firma testująca pojazd miała zdecydować się na strategię zwiększania komfortu jazdy (przez ograniczenie częstego, gwałtownego hamowania) kosztem zmniejszenia wrażliwości pojazdu na pojawiające się przeszkody. Ponadto, dziennikarze dotarli do wewnętrznych raportów, które wykazywały, że w trakcie testów pojazdy miały problemy z przejechaniem – bez ingerencji kierowcy lub bez hamowania – odległości jednego kilometra.

Nagrania z wypadku pokazują, że kierowca nie śledził z uwagą jezdni, zajmował się swoim telefonem. Mogłoby to być – paradoksalnie – potwierdzeniem tezy, że najbardziej niebezpieczni na drodze są ludzie za kierownicą. Ale byłoby to chyba uproszczeniem.

Pojazdy autonomiczne wyposażone są w czujniki lidarowe i radary. Osprzęt ma monitorować otoczenie wokół pojazdu i wykrywać wszelkie przeszkody. Nie ma jednak uniwersalnych standardów, które określałyby, jak powinny działać takie systemy, jakie parametry powinny być uwzględnione i kiedy samochód powinien reagować hamowaniem.

W ramach toczącego się ciągle śledztwa firma przyznała, że lidary, radary i kamery odebrały informację o człowieku na drodze (tę informację akcentował mocno producent zastosowanych czujników laserowych). Problem leżał więc w dostrojeniu systemu samochodu, w oprogramowaniu i algorytmach machine learning. Zdecydowano się na rozwiązania zakładające większą tolerancję na pojawiające się przeszkody.

Docieramy więc do ważnej, a może kluczowej kwestii w całej sytuacji. Jak „ustawiać” system bezpieczeństwa pojazdu i kto ma podejmować kluczowe decyzje. Fakt, że możliwości jest wiele, nie upraszcza problemu.

Od 2016 roku naukowcy z MIT Media Lab prowadzą badania poświęcone pojazdom autonomicznym. Uruchomili oni MoralMachine (moralmachine.mit.edu), czyli coś w rodzaju gry, która sprawdza nasze wybory etyczne odnoszące się do pojazdów autonomicznych. Na stronie czytamy: „ukazujemy moralne dylematy, które muszą być rozwiązywane przez pojazdy, takie jak wybór między zabiciem pasażera a zabiciem przechodnia”. Platforma pokazuje uczestnikom różne scenariusze wydarzeń na drodze. Wiele z nich uwzględnia najróżniejsze kombinacje płci i wieku, a nawet obecność zwierząt przechodzących przez jezdnię.

Kilka tygodni temu autorzy badań zaprezentowali częściowe wnioski z ponad 4 mln ankiet. Uczestnicy badania zdecydowanie częściej chcą chronić życie dziecka niż dorosłego. Gdy jednak należało zdecydować, kto w ekstremalnie niebezpiecznej sytuacji ma przeżyć: pasażer, kierowca czy pieszy, wyniki przestawały być jednoznaczne. Przykładowo, aż 40 procent uczestników gry wskazywało, że pojazd powinien chronić w pierwszej kolejności pasażerów, nawet za cenę utraty życia przez przechodniów.

Link do pełnego artykułu

Powiązane artykuły

– Kiedy przestaniemy być biologicznymi ludźmi?

– Sztuczna inteligencja to nowa elektryczność

– Roboty czekają na sędziów

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

Skomentuj

15 comments

  1. Tom Aray

    W automotive dalej opłaca się w Polsce zatrudnić ludzi do wkladania i wyciągania rurki, niż kupić robota który by to robił. Uwzględniając czas życia robota, serwis i koszt zakupu, pracownik wychodzi taniej.
    Oczywiście będzie się to zmieniać, ale jeszcze trochę czasu minie.
    level 1

  2. Andrzej Maczalski

    humans need not apply. dobry film moim zdaniem. oczywiście powstaną nowe zawody ale najprawdopodobniej nie będzie ich na tyle dużo żeby zatrudnić znaczącą część ludności która straci pracę z powodu automatyzacji.

  3. Mac McFisher

    W „Terminatorze” z 1984 roku Skynet, system SI, zyskuje samoświadomość i rozpoczyna apokalipsę, której cele jest unicestwienie ludzkości. W serialu HBO „Westworld” obdarzone sztuczną inteligencją hosty mordują ludzi – nie, żeby ludziom się nie należało, ale to inna historia.

  4. JacekPaczka

    Podane przykłady zaskakują. Brzmi to tak, jak gdyby wszystkie eksperckie systemy AI projektowali dyletanci. AI trenuje się na danych historycznych i w otrzymywanych potem wynikach nie ma żadnych uprzedzeń. Są jedynie zawarte prawdy o stanie społeczeństwa. Jeśli chcemy arbitralnie wprowadzić modyfikację do otrzymywanych wyników (np. równość płci) to należy odpowiednio ręcznie wpłynąć na wagi poszczególnych parametrów na etapie uczenia. To o czym piszę to absolutny elementarz projektanta systemów AI. Skąd zatem te groteskowe przykłady? Kto projektował te systemy, że wyniki tak się rozjechały z oczekiwaniami? Ktoś oczekiwał że w imię poprawności politycznej AI sama przymknie oczy na wyższe statystyki przestępczości w afroamerykańskich dzielnicach?

  5. Alibaba

    A myślisz, że po co Microsoft straszy ludzi przed ML? I jak do tego dołoży się to, że są jedną z firm, która pompuje miliardy rocznie w rozwój tej technologii, to wynik jest jasny, że chodzi o kasę, bo chcą być tym rycerzem na białym koniu, który to „ujarzmił” 🙂 A to i tak bardzo prosta algebra liniowa, póki co ML nie wszedł w nic bardziej skomplikowanego typu quantum 🙂

  6. Tomek Doman

    Floty autonomicznych pojazdów, które nigdy nie ulegną awarii ani nie będą stały w korkach, lekarze-roboty, które diagnozują chorobę w milisekundach czy inteligentna infrastruktura, optymalizująca przepływ ludzi i towarów oraz będąca w stanie samodzielnie utrzymać swój bezawaryjny stan. Beda tansze a rachunek ekonomiczny przesłoni etykę, lub jej brak

  7. TomaszKik

    Największym problemem korporacji jest to, że na raz sprzedanym produkcji już nie zarabia. Na przykład jak ktoś kupi samochód, to płaci raz i może dowoli sobie to auto użytkować, może je odsprzedać komuś mnie zamożnemu, a jak będzie to auto szanował to pojeździ i 20 lat, a najgorsze ,że może ten samochód sam naprawiać (we własnym zakresie). Dla korporacji najbardziej opłacalne jest gdy konsument musi cały czas płacić za produkt, płacić za to że użytkuje, użytkowanie równoznaczne jest z płaceniem. Skoro takie „abonamenty” są mało korzystne dla konsumentów to jak działa mechanizm ich wprowadzania (upowszechniania)? Wykorzystywane jest w tym przypadku psychologiczne zjawisko znane jako „ograniczenie zasobów poznawczych”. Każdy człowiek ma ograniczone zasoby pamięci, koncentracji i uwagi, a współcześni ludzie muszą zmagać z podwyższonym tempem życia, ich uwaga i pamięć jest ciągle przeciążona, mają po prosu za dużo rzeczy do zrobienia, pracując w korporacji muszą odpisywać na setki bzdurnych maili , po pracy Internet i telewizja zasypują ich kolejnymi informacjami. Ludzi po prostu przestają sobie radzić z takim obciążeniem, W tym momencie proponuje im się „abonamenty” jako remedium na to całe przeciążenie .Biorąc samochód w abonamencie nie trzeba się martwić o przeglądy, ubezpieczenia i serwis, zapisywać terminów, porównywać ofert. Podobnie z abonamentem na komputer, konsument otrzyma w takim abonamencie serwis, pomoc on-line, konserwacje i ochronę antywirusową. To wszystko na razie nie brzmi tak strasznie, ale drugim „twardym” mechanizmem pozbawiania własności będzie objęcie prawem własności intelektualnej niemal wszystkich produkowanych rzeczy na podobnej zasadzie jak obecnie prawami autorskimi są objęte np. utwory muzyczne. Chodzi o to, że rzeczy nie będzie można samemu naprawiać i modyfikować, umotywowane to będzie ekologizmem, tylko naprawy przez autoryzowany serwis umożliwiają właściwe gospodarowanie odpadami, nie pogarszają wskaźników emisji ….

  8. TomekJacek

    I wielu twierdzi, nie bez pewnej racji, że całkiem dobrze, że tak ciągle jeszcze jest. Czy komputer podejmujący samodzielnie decyzję (tzn. na podstawie różnego rodzaju obliczeń matematycznych w sterującym nim programie) o „likwidacji” „terrorysty”, „bojownika”, „napastnika”, czy nawet żołnierza wrogiej armii, którą to decyzję wykonuje następnie wyspecjalizowany robot, to naprawdę to, czego chcemy? A co powiecie na taki komputer, który tylko blokuje lub aresztuje pewne osoby, bo np. mają nieprawidłowy wpis w paszporcie lub zostały przez program komputerowy zakwalifikowane do grupy niebezpiecznych, niepożądanych, podejrzanych itp.? Kto zagwarantuje, że takie technologie nie będą stosowane przez reżimy autorytarne lub totalitarne? Oczywiście – nikt. Ba, mało tego, Chińczycy już to u siebie testują.