Roboty w mundurze. Czy oskarżymy algorytmy o zbrodnie wojenne?

AI ma olbrzymie możliwości, by pomagać ludzkości. Niestety ma też swoją ciemną stronę. Wypada więc mieć nadzieję, że politycy i wojskowi mają na tyle dużo wyobraźni, by na czas dostrzec wszystkie konsekwencje, wynikające z upowszechnienia autonomicznego uzbrojenia.

Podziel się

facebook twitter google+ linkedin email
Roboty w mundurze wojsko Norbert Biedrzycki blog

Mój artykuł opublikowany w Business Insider dnia 24 luty 2019.

Czy tego – jako cywile – chcemy, czy nie, sztuczna inteligencja w przemyśle wojskowym to już fakt. Świat nieustannie testuje elektroniczne systemy dowodzenia i szkoleń, techniki rozpoznawania obiektów i algorytmy zarządzające bezzałogowymi dronami, które dostarczają wojskowym miliony fotografii i innych cennych danych.

Co więcej, często decyzje o uruchomieniu broni ofensywnej wypracowywane są przez maszyny, które pozostawiają człowiekowi jedynie rozstrzygnięcie, czy naciśnięć spust, czy nie. W przypadku broni defensywnych bardzo często decyzje podejmowane są przez maszyny już w pełni autonomiczne, bez udziału człowieka (np. systemy obronne czołgu czy helikoptera bojowego).

Dzisiaj oczywisty jest fakt, że wojsko wykorzystuje inteligentną technologię. Zresztą wiele innowacji, które znamy z życia w cywilu, zawdzięczamy inwencji wojskowych (prekursor internetu Arphanet, czy pojazdy autonomiczne opracowywane przez DARPA). Istotne jest jednak to, na ile nowoczesna broń wykorzystująca techniki machine i deep learning, może faktycznie stawać się organizmem autonomicznym. Takim, który po analizie danych elektronicznych (temperatura, dźwięk, fotografie obiektów, geolokalizacja) potrafi podjąć samodzielną decyzję o ataku i następnie przeprowadzić go bez osoby nadzorującej.

Śmiercionośna broń autonomiczna (LAW) jest więc rodzajem autonomicznego wojskowego robota, który może samodzielnie wyznaczać cele. Oficjalnie, przedstawiciele wojska twierdzą, że żaden z współczesnych systemów uzbrojenia nie jest w pełni autonomiczny. Przyznają jednak, że coraz większa część arsenału spełnia technologiczne warunki ku temu, by działać niezależnie.

Warto też zwrócić uwagę na inny aspekt. Chociaż systemy zakładają, że kluczowe decyzje podejmuje człowiek, to często wymagany czas ludzkiej reakcji jest tak krótki, że wyklucza jakichkolwiek rozważania. Gdy ktoś ma pół sekundy na decyzję o naciśnięciu spustu, trudno mówić o pełnej autonomii… jednostki ludzkiej.

Raporty Human Rights Watch, organizacji monitorującej m.in. inicjatywy wojskowe, wymieniają szereg systemów częściowo autonomicznej broni rozmieszczonych na świecie. Co najmniej 380 urządzeń militarnych wykorzystujących wyrafinowaną, inteligentną technologię działa w Chinach, Rosji, Francji, Izraelu, Wielkiej Brytanii i Stanach Zjednoczonych. Ostatnio głośno zrobiło się o firmie Hanwha, która należy do grupy największych producentów broni w Korei Południowej.

Gazeta “The Korea Times” poinformowała, że firma we współpracy z Koreańskim Instytutem Zaawansowanej Nauki i Technologii (KAIST) pracuje nad pociskami, które mogą kontrolować prędkość i wysokość, a także zmienić kurs, bez bezpośredniej interwencji człowieka. Do samodzielnego działania jest już rzekomo zdolne (programiści jednak twierdzą, że jego użycie ciągle wymaga ludzkiej autoryzacji) działko strażnicze SGR-A1 umieszczone wzdłuż strefy zdemilitaryzowanej, między Koreą Południową a Koreą Północną.

Koreańska firma Dodaam Systems wytwarza autonomiczne roboty zdolne do wykrywania celów oddalonych o wiele kilometrów. W Wielkiej Brytanii od ponad czterech lat intensywnie testuje się bezzałogowy dron Taranis, który pełnie możliwości ma osiągnąć w 2030 roku, zastępując samoloty pilotowane przez człowieka. W zeszłym roku agencja Tass poinformowała, że rosyjskie samoloty bojowe zostaną wkrótce wyposażone w pociski samosterujące, zdolne do analizy sytuacji i samodzielnych decyzji dotyczących wysokości, prędkości i kierunku lotu.

Wiadomo też powszechnie, że Chiny, które chcą być liderem, jeśli chodzi o technologie sztucznej inteligencji, intensywnie pracują nad dronami (ze szczególnym uwzględnieniem dronów, które operowałyby grupowo, w tzw. rojach) zdolnymi do przenoszenia pocisków samosterujących i samodzielnie wyszukujących cele.

Roboty w mundurze wojsko Norbert Biedrzycki blog 1

Od 2016 r. w ramach amerykańskiego Departamentu Obrony powstaje centrum rozwoju sztucznej inteligencji. Według twórców programu, postępy w tej dziedzinie zmienią naturę działań wojennych, a wojsko ma być poważnym beneficjentem technologicznego rozwoju. Chociaż były amerykański wiceminister obrony Robert O. Work stwierdził, że wojsko nie przekaże władzy maszynom, to może kiedyś być zmuszone do poważnej refleksji nad tym, czy tego nie zrobić (ze względu na postawę reżimów autorytarnych).

Póki co można być pewnym, że agencja od dwóch lat realizuje już szeroki, wielomiliardowy program sztucznej inteligencji i ma on kluczowe znaczenie dla strategii Stanów Zjednoczonych. Amerykańska armia testuje nowoczesne, zdalnie sterowane urządzenia, takie jak Extreme Accuracy Tasked Ordnance – “inteligentną” amunicję strzelecką, która potrafi samodzielnie określać cele i zmieniać kurs lotu, uwzględniając prędkość wiatru. Na militarnej scenie coraz lepiej czują się bezzałogowe drony latające, które – według ekspertów – w ciągu najbliższych lat całkowicie zastąpią samoloty sterowane przez pilotów.

Te maszyny to często bezzałogowe aparaty latające zdolne do tankowania w powietrzu, wykonywania misji zwalczania obrony przeciwlotniczej, realizowania misji zwiadowczo-rozpoznawczych, atakowania celów naziemnych. Okazuje się, że rezygnacja z pilota przynosi wymierne korzyści ekonomicznym. Systemy podtrzymywania i ochrony życia pilota w nowoczesnym myśliwcu mogą stanowić do 25% kosztów całej platformy bojowej.

Sztuczna inteligencja ma olbrzymie możliwości, by pomagać ludzkości. Niestety ma też swoją ciemną stronę. Wypada więc mieć nadzieję, że politycy i wojskowi mają na tyle dużo wyobraźni, by na czas dostrzec wszystkie konsekwencje, wynikające z upowszechnienia autonomicznego uzbrojenia. 

Pełny artykuł do przeczytania pod tym linkiem.

Powiązane artykuły:

– Maszyna cię nie przytuli, ale … wysłucha i coś doradzi

– Czy maszyny odróżniają dobro od zła?

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

– W jaki sposób maszyny rozumują

Skomentuj

8 comments

  1. TomekJacek

    Ten pojazd nie był “testowym”, ale “uczącym się”. Rola kierowcy w takim pojeździe jest kluczowa. Jeśli facio bawił się telefonem, to sromotnie nawalił. A pojazdy autonomiczne mają tę przewagę, że na każdym błędzie jednego z nich uczą się wszystkie pozostałe. I tyle.