Wojskowe roboty mogą podejmować decyzję o naszym życiu lub śmierci

Politycy, eksperci, przedstawiciele biznesu informatycznego coraz bardziej sobie uświadamiają, że problem związany z istnieniem broni autonomicznej nie jest abstrakcją. Od kilku lat powstają coraz szersze i mocniejsze inicjatywy nagłaśniające te kwestie.

Podziel się

facebook twitter google+ linkedin email
wojsko roboty smierc Norbert Biedrzycki blog business insider

Mój artykuł opublikowany w Business Insider dnia 2 marzec 2019.

Wojsko nieustannie testuje elektroniczne systemy dowodzenia i szkoleń, techniki rozpoznawania obiektów i zarządzania polem walki. Co więcej decyzje o uruchomieniu broni ofensywnej w niedalekiej przyszłości mogą być podejmowane bezpośrednio przez algorytmy. W przypadku broni defensywnych bardzo często decyzje o otworzeniu ognia lub użycia systemów bojowych podejmowane są już teraz przez maszyny w pełni autonomiczne, bez udziału człowieka (np. systemy obronne czołgu czy helikoptera bojowego).

Politycy, eksperci, przedstawiciele biznesu informatycznego coraz bardziej sobie uświadamiają, że problem związany z istnieniem broni autonomicznej nie jest abstrakcją. Od kilku lat powstają coraz szersze i mocniejsze inicjatywy nagłaśniające te kwestie. Stany Zjednoczone powinny “zobowiązać się do wynegocjowania wiążącego traktatu i wytyczenia granic autonomii systemów uzbrojenia. Powinien on uniemożliwić rozwój, produkcję i wykorzystanie w pełni autonomicznej broni – twierdzi Mary Wareham przedstawicielka Human Rights Watch. Aktywistka i reżyserka prowadzi regularne działania monitorujące w ramach międzynarodowej koalicji – projektu “Campaign to stop killer robots”.

Z kolei brytyjska organizacja pozarządowa “Article 36”, która poświęca wiele uwagi, broni autonomicznej twierdzi, że polityczne kontrole uzbrojenia powinny być regularne i oparte na publicznie dostępnych, przejrzystych analizach. Obie organizacje wkładają mnóstwo energii w to, by doprowadzić do wypracowania jasnych definicji dotyczących broni autonomicznej. Sygnatariusze międzynarodowych petycji próbują docierać do polityków i przedstawiają swój punkt widzenia na międzynarodowych konferencjach.

Jedną z ostatnich inicjatyw międzynarodowych jest tegoroczny list sygnowany przez bostońską organizację Future of Life Institute. 160 firm związanych z technologiami sztucznej inteligencji w 36 krajach i 2400 osób, podpisało deklarację stwierdzającą, że “autonomiczna broń stanowi wyraźne zagrożenie dla obywateli każdego kraju na świecie i dlatego nie będą oni uczestniczyć w jej rozwijaniu”. Dokument podpisali m.in.: Demis Hassabis, Stuart Russell, Yoshua Bengio, Anca Dragan, Toby Walsh oraz założyciel Tesli i SpaceX Elon Musk.

Regulacje są potrzebne, ale utopijne

Sprawa z tego typu inicjatywami jest trudna. Po pierwsze obserwacja wojskowych przedsięwzięć jest z natury skomplikowana. Dopóki nie dochodzi do otwartego, międzynarodowego konfliktu, który ujawnia, jakie technologie są faktycznie w użyciu,śledzenie tego, jaką broń się rozwija i bada, instaluje, jest niemal niewykonalne.

Kolejną przeszkodą na drodze do wypracowania jasnych, obowiązujących norm i ustaleń jest natura algorytmów. Okazuje się, że jesteśmy mocno przyzwyczajeni do postrzegania broni, jako materialnego przedmiotu (którego użycie może być zakazane lub nie). W przypadku, gdy mówimy o oprogramowaniu, software, algorytmach, sieciach neuronowych, a tym bardziej sztucznej inteligencji, regulacje prawne z trudem radzą sobie z niematerialnym charakterem tych narzędzi.

Pojawia się też problem rozmytej odpowiedzialności, o którym pisałem w tekstach o samochodach autonomicznych. Jeśli dochodzi do tragedii, to kto za nią ponosi odpowiedzialność? Informatyk programujący algorytmy tak, by mogły dokonywać samodzielnych wyborów? Czy może trener sieci neuronowych?

wojsko roboty smierc Norbert Biedrzycki blog business insider 1
wojsko roboty smierc Norbert Biedrzycki blog business insider 1

Wojskowi twierdzą, że chodzi o rozpoznanie

Wojskowi jednak odpowiadają, że zamiast zakazywać, należy raczej zachęcać do innowacji, które pozwolą zmniejszyć liczbę ofiar cywilnych – twierdzą wojskowi lobbujący za najbardziej zaawansowanymi projektami. Nie chodzi tu o to, że algorytmy mają niszczyć wroga i ludność cywilną. Mają przede wszystkim pomagać w ocenie sytuacji na polu walki, analizując ją pod kątem możliwości zyskania taktycznej przewagi. W takim ujęciu inteligentne technologie prowadzą przede wszystkim do sprawniejszego przetwarzania danych. Ułatwia to następnie identyfikację obiektów i zmniejsza liczbę przypadkowych ofiar wśród ludności cywilnej.

Nie liczmy na prawa człowieka

Algorytmy uwolnione na polu walki mogą prowadzić do tragedii niebywałych rozmiarów. Toby Walsh, profesor zajmujący się problematyką sztucznej inteligencji na Uniwersytecie Nowej Południowej Walii w Australii stwierdził: “Autonomiczna broń nie będzie przestrzegać praw człowieka. Maszyny mogą wędrować po polu bitwy, na ziemi lub w powietrzu, wybierając własne cele, a następnie niszcząc je ogniem lub pociskami, i to bez ludzkiego udziału”.

Sztuczna inteligencja ma olbrzymie możliwości, by pomagać ludzkości. Niestety ma też swoją ciemną stronę. Wypada więc mieć nadzieję, że politycy i wojskowi mają na tyle dużo wyobraźni, by na czas dostrzec wszystkie konsekwencje, wynikające z upowszechnienia autonomicznego uzbrojenia. 

Pełny artykuł do przeczytania pod tym linkiem.

Powiązane artykuły:

– Maszyna cię nie przytuli, ale … wysłucha i coś doradzi

– Czy maszyny odróżniają dobro od zła?

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

– W jaki sposób maszyny rozumują

Skomentuj

3 comments

  1. PiotrKisz21

    Mam nadzieję że nie. Straszne rzeczy Pan pisze. Tzn. artykuł dobry, ale nie chce zeby maszyna naciskała spust. Generalnie wojna to zła rzecz. Ale żeby zabijały nas maszyny to przegięcie