Spider’s Web: Regulacje prawne dla sztucznej inteligencji. A może wróćmy do praw Asimowa?

Toczy się dyskusja o tym, jak regulować kwestie związane ze sztuczną inteligencją. Prawnicy, politycy i przedstawiciele biznesu czują, że istniejące prawodawstwo nie nadąża za postępem technologicznym, jakiego doświadczamy.

Norbert Biedrzycki SpidersWeb AI regulacje blog

Mój artykuł w Spiders’Web z dnia 23 marca 2020 roku: Regulacje prawne dla sztucznej inteligencji. A może wróćmy do praw Asimowa? 

Toczy się dyskusja o tym, jak regulować kwestie związane ze sztuczną inteligencją. Prawnicy, politycy i przedstawiciele biznesu czują, że istniejące prawodawstwo nie nadąża za postępem technologicznym, jakiego doświadczamy. Pod względem prawnym i ustawowym nie jest on należycie „obsługiwany”. Czy sztuczną inteligencję da się sprawnie regulować i czy tego potrzebujemy?

Nie tylko trudno nam zrozumieć logikę algorytmów, ale nie mamy też pojęcia – jako obywatele – w jaki sposób współczesna technologia wykorzystywana jest przez firmy, instytucje i służby do monitorowania naszego życia. Czy nie powinno mu towarzyszyć nasze dużo bardziej jednoznaczne poczucie, że w trakcie używania komputerów, dronów, aplikacji, kamer i portali społecznościowych jesteśmy chronieni? I że ktoś czuwa nad tym, by nie doszło do sytuacji, w której to algorytmy wybierają swojego prezydenta?

Nie sądzę, by próby regulacji obszaru sztucznej inteligencji były zawracaniem głowy lub ograniczaniem swobody przepływu idei czy funkcjonowania biznesu. Technologia, która zaczyna rozwijać się niejako bez naszego udziału, udoskonalająca swoje działanie bez ingerencji programisty, staje się potężną siłą. Wobec niej zasada nieograniczonej biznesowej wolności staje się nieco archaiczna i nie rozwiązuje wielu kwestii.

Regulować albo nie

Opinie, czy należy regulować kwestię rozwoju autonomicznych, inteligentnych technologii są oczywiście podzielone. Elon Musk regularnie wyraża obawy co do losów naszej planety i uważa, że potrzebujemy zdecydowanych mechanizmów chroniących ludzi przed technologicznymi zagrożeniami. Na przeciwległym biegunie funkcjonuje zwolennik mocno liberalnego podejścia, Mark Zuckerberg (chociaż wydaje się, że ostatnio nieco modyfikuje swoje poglądy).

Generalnie z innymi postawami spotykamy się w amerykańskich kręgach biznesowych, a innymi w Europie. Komisja European Group on Ethics prowadzi działania, które mają doprowadzić do międzynarodowego porozumienia i stworzenia ram prawnych dotyczących autonomicznych systemów. W opinii komisji: „…systemy autonomiczne nie mogą naruszać wolności ludzi… Sztuczna inteligencja powinna przyczyniać się do globalnej sprawiedliwości i równego dostępu do korzyści, jakie może przynieść robotyka i systemy autonomiczne”.

Jednakże wypada wskazać też na radykalnie odmienne podejście do tematu, z jakim mamy do czynienia w przypadku Chin. W kraju, który chce być liderem w rozwijaniu sztucznej inteligencji, traktuje się ją jako podstawowe narzędzie służące do monitorowania i kontroli zachowań społecznych.

Obserwacja, edukacja, dialog

W zmieniającej się rzeczywistości ważną rolę mają eksperci zajmujący się nowymi technologiami. Przeciętny obywatel może chcieć zadać im pytanie: czy możemy czuć się – jako ludzie bezpieczni – bo w życiu towarzyszy nam „uczciwa, transparentna, odpowiedzialna sztucznej inteligencja”? W tym ostatnim zdaniu odwołuję się do nazwy jednego z wielu seminariów (Fair, Transparent, and Accountable AI) organizowanych przez organizację „Partnership on AI”. Jej misją jest właśnie badanie praktyk związanych z obecnością sztucznej inteligencji w naszym życiu i wyjaśnianie opinii publicznej, co nowego dzieje się na tym obszarze.

Warto przytoczyć tu zdanie, które pojawia się przy opisie wspomnianego wydarzenia na stronie internetowej partnershiponai.org: „Sztuczna inteligencja może poprawić zdolności decyzyjne dzięki technikom, które wyciągają wnioski z dużych ilości danych. Może doprowadzić do przełomu w dziedzinach takich jak bezpieczeństwo, zdrowie, edukacja, transport, zrównoważony rozwój, administracja publiczna i nauka. Jednak tym potencjalnym korzyściom towarzyszą przy okazji obawy opinii publicznej i specjalistów związane ze szkodami, jakie sztuczna inteligencja może uczynić”.

Poniżej wymienię przykładowe cztery obszary (jest ich oczywiście mnóstwo), które przeżywają dynamiczne zmiany pod wpływem sztucznej inteligencji. Niektóre z nich mogą z czasem wymagać szczególnych mechanizmów regulacyjnych, tak byśmy zyskiwali poczucie komfortu w trakcie korzystania z technologii.

W konflikcie z prawem

Algorytmy wykorzystywane są przez policje na całym świecie. Sztuczna inteligencja pomaga w przetwarzaniu danych, w tym wielu informacji związanych z przestępczością, poszukiwaniem osób itd. Zdolności klasyfikacji obiektów (w tym zdjęć) na podstawie określonych elementów, to jedna z wielu zalet technologii machine learning. I z pewnością doceniają ją wszystkie służby, którym zależy na szybkim dotarciu do ważnych – z punktu widzenia interesów śledztwa – informacji.

Niestety, sytuacje, w których algorytmy oceniają prawdopodobieństwo, że dana osoba popełni ponownie przestępstwo (co wpływa na ew. zwolnienie warunkowe) mogą rodzić nadużycia. Dlatego na świecie powstają już organizacje (np. The Law Society’s Public Policy Technology and Law Commission) powoływane przez prawników, których misją jest monitoring działań policji i sądów w tym zakresie.

Fakenewsy powszechną zmorą

To gorący temat, o którym dużo się ostatnio mówi. Rodzi pytania o wiarygodność informacji, odpowiedzialność portali społecznościowych za ich monitorowanie. Od 2016 roku, który był przełomowy, jeśli chodzi o wysyp afer związanych z fakenewsami, nie ma tygodnia, by nie poruszano tej kwestii.

Sztuczna inteligencja ma tu swój udział, bo jak wiemy, jej rola w automatycznym generowaniu treści (boty) jest duża. Myślę, że wiarygodność informacji to jedno z największych wyzwań naszych czasów, które można nazwać erą dezinformacji. Wymaga to zdecydowanie globalnej refleksji, a nawet międzynarodowego współdziałania. Co jakiś czas pojawiają się inicjatywy na rzecz rzetelności (np. „Pravda” Elona Muska), ale sprawa jest trudna. Regulacje wydają się tu utopią, więc nie wiem, czy nie czekają nas jeszcze długie lata zmagania się z problemem.

Kto rządzi przy taśmie produkcyjnej?

Robotyzacja w przemyśle jest jednym z najbardziej emocjonalnie traktowanych aspektów działania sztucznej inteligencji. Mamy olbrzymi problem z akceptacją faktu, że naszymi kolegami w pracy mogą stać się roboty (i przyczynią się do naszego bezrobocia).

Wielokrotnie o tym pisałem, więc nie będę tu przedstawiał danych czy argumentów za lub przeciwko robotyzacji. Problem oczywiście jest i nie ma co udawać, że sprawa przycichnie. Wręcz przeciwnie, niepokoje społeczne mogą się powiększać wraz z rozwojem trendu. Myślę, że ze względu na konsekwencje społeczne, określenie zasad na tym obszarze jest niezwykle ważne. W tym przypadku mogą być wykorzystane chociażby mechanizmy podatkowe powstrzymujące korporacje przed nadmierną robotyzacją.

Samodzielne samochody

Entuzjaści podpierają się licznymi badaniami, wskazując, że autonomiczne pojazdy oznaczają dużo większe bezpieczeństwo na drogach. Zgadzam się z tą tezą. Niemniej jednak kwestia autonomicznych pojazdów rodzi pytania. Jedno z podstawowych dotyczy kwestii zachowania się pojazdu w trakcie wypadku. Kogo algorytmiczne mechanizmy powinny chronić szczególnie – pasażerów, kierowców, pieszych? Czy kierowca, który – przez chwilę nieuwagi – spowoduje wypadek, będzie mógł skarżyć producenta autonomicznego pojazdu z nadzieją, że wygra proces? Jak ubezpieczać pojazdy? Kto odpowiada za wypadek, kierowca/ pasażer, właściciel pojazdu, producent czy zespół programistów?

Kolejną sprawą, która nas czeka, to przyszłość innych autonomicznych środków transportu: samolotów, statków czy samochodów, które będą pełnić dla nas usługi transportowe, bez konieczności zasiadania w nich kierowcy (dostarczanie zakupów itd.). Prawodawstwo na świecie różni się w podejściu do testów autonomicznych aut. Wszędzie jednak toczy się dyskusja o tym, jak zwiększać bezpieczeństwo ich użytkowników.

Technologia jest dla ludzi

Postęp, jaki dokonuje się dzięki inteligentnej technologii, jest bezdyskusyjny. Ale sądzę, że oprócz biznesowych zagadnień, takich jak: optymalizacja kosztów, efektywność, zyskowność, automatyzacja (na nie wszystkie korzystnie wpływa stosowanie sztucznej inteligencji) ważne w tym wszystkim jest to, aby pamiętać o rzeczach mniej policzalnych. O tym, że nasze zwykłe jednostkowe samopoczucie, bezpieczeństwo, wiedza i spełnienie odczuwane podczas kontaktu z nową technologią są wartościami najważniejszymi. Bo przecież technologia ma sprawiać, że żyje nam się lepiej.

Przyglądajmy się więc uważnie pracy ekspertów, którzy wpływają na tworzenie systemów prawnych, chroniących nas przed niepożądanym działaniem algorytmów.

Link do artykułu

Powiązane artykuły

– Kiedy przestaniemy być biologicznymi ludźmi?

– Sztuczna inteligencja to nowa elektryczność

– Roboty czekają na sędziów

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

Skomentuj

13 comments

  1. Don Fisher

    Jako ludzie, świetnie wyłapujemy kontekst, szybko łączymy wątki i jesteśmy bardzo trafnie ocenić w jakim kierunku zmierza dyskusja. Robimy to wręcz instynktownie, ale i trzeba wiedzieć o tym, że żywo reagujemy na oznaki ofensywności wypowiedzi – szczególnie jeżeli ta dotyczy nas samych.

  2. AdaZombie

    Nakładanie ograniczeń na sztuczną inteligencję z pewnością skomplikuje rozwój empatii systemów sztucznej inteligencji, które nawet teraz są podatne na błędy. Dobrze jest mieć jednak strażnika na wypadek, gdyby nasz świat okazał się być taki, jak w serialu Czarne Lustro maszyny zaczęły grzebać zbyt głęboko w naszej podświadomości. Ostatecznie nie powinniśmy liczyć na to, że technologia rozpoznawania emocji zostanie porzucona, zwłaszcza biorąc pod uwagę, że w niektórych obszarach czyni ona wiele dobrego.

  3. Andrzej Czeczowski

    Musk dość często zmienia kierunek rozwoju, często też jedno mówi a inne robi. Job początkowo był zachwycony możliwościami AI, później bardziej się tonował (polecam jego biografię Isaccsona). Natomiast odniosłem się przede wszystkim do jednej z ostatnich konferencji z Hawkingiem, gdzie w ciekawy sposób został poruszony temat zagrożeń że strony AI – i nie mówię tu o Terminatorze😉 Pozdrawiam.

  4. Mac McFisher

    Tak jak razem wypracowywaliśmy reguły etycznego postępowania, tak razem powinniśmy projektować algorytmy. Zespoły nad nimi pracujące powinny być zróżnicowane środowiskowo, kulturowo i geograficznie. W ten sposób zminimalizujemy ryzyko wadliwych algorytmów, wypaczonych danych, a przed wszystkim ich wykorzystanie przez szalone jednostki.

  5. JacekPaczka

    Algorytm COMPAS (Northpointe) nie jest/był „uprzedzony” i „uwarunkowania historyczne” nie mają tu nic do rzeczy. tl;dr – takie czy inne wyniki wynikają po prostu z innej struktury danych w różnych grupach i obiektywnej konieczności wyboru jednej miaru słuszności badania / technologii. Jest to „problem” (o ile dla kogoś problemem są złośliwe fakty korelacji pewnych zjawisk z rasą, na przekór ideologii) nierozwiązywalny matematycznie.

    Wszystko poniższe za: David Sumpter, „Osaczeni przez liczby”, rozdział VI, „Niemożliwie bezstronny”, i do tej książki odsyłam po dogłębne wyjaśnienie tematu.

    „Odpowiadając na ten zarzut (różnego prawdopodobieństwa klasyfikacji recydywy w obu grupach etnicznych – t.) Northpointe twierdzi, że ich algorytm powinien być osądzany pod katem tego, czy jego przewidywania są równie dobre dla czarnych i białych ludzi. I faktycznie są. Jeśli spojrzymy na pierwszą kolumnę tabeli 6.1 widzimy, ze 1369 czarnych podsądnych sklasyfikowanych jako wysokie ryzyko z łącznej liczby 2174 faktycznie ponownie popełniło przestępstwo. To 63%. W przypadku białych podsądnych 505 z 854, czyli 59,1% ludzi sklasyfikowanych jako „wysokie ryzyko”, ponownie popełniło przestępstwo. Te proporcje są podobne, zatem algorytm jest właściwie skalibrowany zarówno dla białych, jak i czarnych ludzi. Jeśli sędzia otrzyma wynik ryzyka dla określonej osoby, to niezależnie od rasy wynik ten odzwierciedla prawdopodobieństwo ponownego popełnienia przestępstwa (…)

    Do rozwiązania zagadki potrzeba było dwóch doktorantów ze Stanfordu, Sama Corbetta-Daviesa oraz Emmy Pierson, którzy pracowali wspólnie z dwoma profesorami, Avim Fellerem i Sharadem Goelem. Potwierdzili oni wniosek Northpointe, że tabela 6.1 poświadcza, iż algorytm COMPAS gwarantuje dobre przewidywania niezależnie od rasy. (…) Jeżeli czarni podsądni częściej ponownie popełniają przestępstwo, to istnieje wyższe prawdopodobieństwo, że zostaną nieprawidłowo umieszczeni w kategorii wyższego ryzyka.

    Każdy inny wynik oznaczałby, że algorytm nie został skalibrowany prawidłowo dla obu ras w tym sensie, że musiałby dawać inne oceny dla białych i czarnych podsądnych”.

  6. Oniwaban

    Czy ciągle obciążać konsekwencjami prawnymi twórcę algorytmów użytych w produkcji samochodu? Czy wyjść już z założenia, że samochód jest tworem obdarzonym zarówno swoimi ochronnymi przywilejami, jak i obowiązkiem respektowania praw ustanowionych przez ludzi.

  7. Adeptus99

    Sztuczna inteligencja jest możliwa ale prawdopodobnie tylko w postaci takiej która imituje skomplikowaność naszego organizmu.
    No i to nie jest kwestia mocy obliczeniowej. To jest typowe i błędne myślenie programistów. Nasze mózgi nie mają żadnej mocy obliczeniowej, nie ma żadnego pojedynczego elementu który potrafi wykonywać tyle operacji na sekundę. Nasz mózg działa na zasadzie wielu niezależnych i zależnych jednostek.

  8. Piotr

    Sztuczna inteligencja, dopóki nie ma samoświadomości (czy można mówić tutaj o sztucznej świadomości w kontekście sztucznej inteligencji – czy to jeszcze sztuczna inteligencja?) jest maszyną, narzędziem jak każde inne używane przez człowieka. Myślę więc, że to człowiek powinien być odpowiedzialny za wszelkie konsekwencje jej działania – nawet jeśli nie był w stanie ocenić skutków zanim jej użył. Nawet skłaniałbym się do stwierdzenia zwłaszcza, jeśli nie był w stanie ocenić skutków przed użyciem SI.

    Co innego gdy jest mowa o świadomej inteligencji – wtedy już możemy mówić o regulowaniu ram w jakim ma działać względem jej wprost. Pytanie czy będzie w stanie zrozumieć i zinterpretować zgodnie z zamysłem autora takie regulacje?

  9. Piotr91AA

    AI to prężnie rozwijająca się dziedzina technologiczna, która coraz częściej wkracza do naszej świadomości i codziennego życia. Dzięki sztucznej inteligencji w niedługim czasie możemy spodziewać się rozwoju wielu branż, zmagających się z napływem dużych ilości danych, w obecnych warunkach trudnych do przeanalizowania.