Jak regulować sztuczną inteligencję?

Prawnicy, politycy i przedstawiciele biznesu czują, że istniejące prawodawstwo nie nadąża za postępem technologicznym, jakiego doświadczamy. Czy sztuczną inteligencję da się sprawnie regulować i czy tego potrzebujemy?

AI legal regulations Norbert Biedrzycki blog

Toczy się dyskusja o tym, jak regulować kwestie związane ze sztuczną inteligencją. Prawnicy, politycy i przedstawiciele biznesu czują, że istniejące prawodawstwo nie nadąża za postępem technologicznym, jakiego doświadczamy. Pod względem prawnym i ustawowym nie jest on należycie „obsługiwany”. Czy sztuczną inteligencję da się sprawnie regulować i czy tego potrzebujemy?

Nie tylko trudno nam zrozumieć logikę algorytmów, ale nie mamy też pojęcia – jako obywatele – w jaki sposób współczesna technologia wykorzystywana jest przez firmy, instytucje i służby do monitorowania naszego życia. Czy nie powinno mu towarzyszyć nasze dużo bardziej jednoznaczne poczucie, że w trakcie używania komputerów, dronów, aplikacji, kamer i portali społecznościowych jesteśmy chronieni? I że ktoś czuwa nad tym, by nie doszło do sytuacji, w której to algorytmy wybierają swojego prezydenta?

Nie sądzę, by próby regulacji obszaru sztucznej inteligencji były zawracaniem głowy lub ograniczaniem swobody przepływu idei czy funkcjonowania biznesu. Technologia, która zaczyna rozwijać się niejako bez naszego udziału, udoskonalająca swoje działanie bez ingerencji programisty, staje się potężną siłą. Wobec niej, zasada nieograniczonej biznesowej wolności staje się nieco archaiczna i nie rozwiązuje wielu kwestii.

Regulować albo nie

Opinie, czy należy regulować kwestię rozwoju autonomicznych, inteligentnych technologii są oczywiście podzielone. Elon Musk regularnie wyraża obawy, co do losów naszej planety i uważa, że potrzebujemy zdecydowanych mechanizmów chroniących ludzi przed technologicznymi zagrożeniami. Na przeciwległym biegunie funkcjonuje zwolennik mocno liberalnego podejścia, Mark Zuckerberg (chociaż wydaje się, że ostatnio nieco modyfikuje swoje poglądy).

Generalnie z innymi postawami spotykamy się w amerykańskich kręgach biznesowych, a innymi w Europie. Komisja European Group on Ethics prowadzi  działania, które mają doprowadzić do międzynarodowego porozumienia i stworzenia ram prawnych dotyczących autonomicznych systemów.  W opinii komisji: „…systemy autonomiczne nie mogą naruszać wolności ludzi… Sztuczna inteligencja powinna przyczyniać się do globalnej sprawiedliwości i równego dostępu do korzyści, jakie może przynieść robotyka i systemy autonomiczne”.

Jednakże wypada wskazać też na radykalnie odmienne podejście do tematu, z jakim mamy do czynienia w przypadku Chin. W kraju, który chce być liderem w rozwijaniu sztucznej inteligencji, traktuje się ją jako podstawowe narzędzie służące do monitorowania i kontroli zachowań społecznych.

Obserwacja, edukacja, dialog

W zmieniającej się rzeczywistości ważną rolę mają eksperci zajmujący się nowymi technologiami. Przeciętny obywatel może chcieć zadać im pytanie: czy możemy czuć się – jako ludzie bezpieczni – bo w życiu towarzyszy nam „uczciwa, transparentna, odpowiedzialna sztucznej inteligencja”? W tym ostatnim zdaniu odwołuję się do nazwy jednego z wielu seminariów (Fair, Transparent, and Accountable AI) organizowanych przez organizację „Partnership on AI”. Jej misją jest właśnie badanie praktyk związanych z obecnością sztucznej inteligencji w naszym życiu i wyjaśnianie opinii publicznej, co nowego dzieje się na tym obszarze. Warto przytoczyć tu zdanie, które pojawia się przy opisie wspomnianego wydarzenia na stronie internetowej: „Sztuczna inteligencja może poprawić zdolności decyzyjne dzięki technikom, które wyciągają wnioski z dużych ilości danych. Może doprowadzić do przełomu w dziedzinach takich jak bezpieczeństwo, zdrowie, edukacja, transport, zrównoważony rozwój, administracja publiczna i nauka. Jednak tym potencjalnym korzyściom towarzyszą przy okazji obawy opinii publicznej i specjalistów związane ze szkodami, jakie sztuczna inteligencja może uczynić”.

AI legal regulations Norbert Biedrzycki blog 1

Poniżej wymienię przykładowe cztery obszary (jest ich oczywiście mnóstwo), które przeżywają dynamiczne zmiany pod wpływem sztucznej inteligencji. Niektóre z nich mogą z czasem wymagać szczególnych mechanizmów regulacyjnych, tak byśmy zyskiwali poczucie komfortu w trakcie korzystania z technologii.

W konflikcie z prawem

Algorytmy wykorzystywane są przez policje na całym świecie. Sztuczna inteligencja pomaga w przetwarzaniu danych, w tym wielu informacji związanych z przestępczością, poszukiwaniem osób, itd. Zdolności klasyfikacji obiektów (w tym zdjęć) na podstawie określonych elementów, to jedna z wielu zalet technologii machine learning. I z pewnością doceniają ją wszystkie służby, którym zależy na szybkim dotarciu do ważnych – z punktu widzenia interesów śledztwa – informacji. Niestety, sytuacje w których algorytmy oceniają prawdopodobieństwo, że dana osoba popełni ponownie przestępstwo (co wpływa na ew. zwolnienie warunkowe) mogą rodzić nadużycia. Dlatego na świecie powstają już organizacje (np. The Law Society’s Public Policy Technology and Law Commission) powoływane przez prawników, których misją jest monitoring działań policji i sądów w tym zakresie.

Fakenewsy powszechną zmorą

To gorący temat, o którym dużo się ostatnio mówi. Rodzi pytania o wiarygodność informacji, odpowiedzialność portali społecznościowych za ich monitorowanie. Od 2016 roku, który był przełomowy, jeśli chodzi o wysyp afer związanych z fakenewsami, nie ma tygodnia, by nie poruszano tej kwestii. Sztuczna inteligencja ma tu swój udział, bo jak wiemy jej rola w automatycznym generowaniu treści (boty) jest duża. Myślę, że wiarygodność informacji to jedno z największych wyzwań naszych czasów, które można nazwać erą dezinformacji. Wymaga to zdecydowanie globalnej refleksji, a nawet międzynarodowego współdziałania. Co jakiś czas pojawiają się inicjatywy na rzecz rzetelności (np.”Pravda” Elona Muska), ale sprawa jest trudna. Regulacje wydają się tu utopią, więc nie wiem, czy nie czekają nas jeszcze długie lata zmagania się z problemem.

Kto rządzi przy taśmie produkcyjnej?

Robotyzacja w przemyśle jest jednym z najbardziej emocjonalnie traktowanych aspektów działania sztucznej inteligencji. Mamy olbrzymi problem z akceptacją faktu, że naszymi kolegami w pracy mogą stać się roboty. (i przyczynią się do naszego bezrobocia). Wielokrotnie o tym pisałem, więc nie będę tu przedstawiał danych czy argumentów za lub przeciwko robotyzacji. Problem oczywiście jest i nie ma co udawać, że sprawa przycichnie. Wręcz przeciwnie, niepokoje społeczne mogą się powiększać wraz z rozwojem trendu. Myślę, że ze względu na konsekwencje społeczne, określenie zasad na tym obszarze jest niezwykle ważne. W tym przypadku mogą być wykorzystane chociażby mechanizmy podatkowe powstrzymujące korporacje przed nadmierną robotyzacją.

Samodzielne samochody

Entuzjaści podpierają się licznymi badaniami, wskazując, że autonomiczne pojazdy oznaczają dużo większe bezpieczeństwo na drogach. Zgadzam się z tą tezą. Niemniej jednak kwestia autonomicznych pojazdów rodzi pytania. Jedno z podstawowych dotyczy kwestii zachowania się pojazdu w trakcie wypadku. Kogo algorytmiczne mechanizmy powinny chronić szczególnie – pasażerów, kierowców, pieszych? Czy kierowca, który – przez chwilę nieuwagi – spowoduje wypadek będzie mógł skarżyć producenta autonomicznego pojazdu z nadzieją, że wygra proces? Jak ubezpieczać pojazdy? Kto odpowiada za wypadek, kierowca/ pasażer, właściciel pojazdu, producent czy zespół programistów? Kolejną sprawą, która nas czeka, to przyszłość innych autonomicznych środków transportu: samolotów, statków czy samochodów, które będą pełnić dla nas usługi transportowe, bez konieczności zasiadania w nich kierowcy (dostarczanie zakupów itd.). Prawodawstwo na świecie różni się w podejściu do testów autonomicznych aut. Wszędzie jednak toczy się dyskusja o tym, jak zwiększać bezpieczeństwo ich użytkowników.

AI legal regulations Norbert Biedrzycki blog 2

Technologia jest dla ludzi

Postęp jaki dokonuje się dzięki inteligentnej technologii jest bezdyskusyjny. Ale sądzę, że oprócz biznesowych zagadnień takich jak: optymalizacja kosztów, efektywność, zyskowność, automatyzacja (na nie wszystkie korzystnie wpływa stosowanie sztucznej inteligencji) ważne w tym wszystkim jest to, aby pamiętać o rzeczach mniej policzalnych. O tym, że nasze zwykłe jednostkowe samopoczucie, bezpieczeństwo, wiedza i spełnienie odczuwane podczas kontaktu z nową technologią są wartościami najważniejszymi. Bo przecież technologia ma sprawiać, że żyje nam się lepiej. Przyglądajmy się więc uważnie pracy ekspertów, którzy wpływają na tworzenie systemów prawnych, chroniących nas przed niepożądanym działaniem algorytmów.

.    .   .

Cytowane prace:

Business Insider, Prachi Bhardwaj, Mark Zuckerberg responds to Elon Musk’s paranoia about AI: 'AI is going to… help keep our communities safe.’, Link, 2018. 

European Commision, European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, Link, 2018. 

New York Times, Tomas Chamorro-Premuzic, Inside China’s Dystopian Dreams: A.I., Shame and Lots of Cameras, Link,2019. 

The Washington Post, Peter Holley, Pravda: Elon Musk’s solution for punishing journalists, Link, 2020.

.    .   .

Powiązane artykuły:

– Technologia 2020. Algorytmy w chmurze, jedzenie z drukarek i nanotechnologia

– Uczmy się jak maszyny, a nawet bardziej

– Już czas, by pogadać z maszyną

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Kiedy przestaniemy być biologicznymi ludźmi?

– Sztuczna inteligencja to nowa elektryczność

– W jaki sposób maszyny rozumują

Skomentuj

27 comments

  1. TomK

    Jasne, że ważne jest zachowanie własnej tożsamości i dobrze byłoby pozostać… ludzkim. Ale o ile pewności oczywiście nie ma, ryzyko utraty tych cech wydaje się być realne.

    Elon Musk spytany czemu już mniej aktywnie wypowiada się w temacie AI odpowiedział… że stracił nadzieję. Do tego dodał, że ponad dekadę zajęło ludzkości wprowadzenie obowiązkowych pasów bezpieczeństwa w samochodach, a dla sztucznej inteligencji taki okres czasu to jak setki/miliony lat pod względem rozwoju… Dlatego kiedy powstanie to powstanie i pozostaniemy na jej łasce lub niełasce z małą możliwością ingerencji w jej działania.

    Z kolei jako że jesteśmy dosyć podzieleni.. I nawet jeśli jedna grupa ludzi lub państw postanowi wprowadzić jakieś regulacje w tym temacie inna grupa może sobie je zwyczajnie zignorować.. No nie wiem.

    Zobaczymy… Oby skończyło się jak najlepiej.

  2. AdaZombie

    Powinnismy sie bac. Nie mozemy pozwolic, aby sztuczna inteligencja interpretowała ich uczucia i nastroje. W niektórych miejscach korzystanie z technologii rozpoznawania emocji i twarzy jest zabronione przez prawo. W październiku wprowadzono w Kalifornii zmiany w prawie zakazujące oficerom organów ścigania nagrywanie, gromadzenie i analizowanie informacji biometrycznych przy użyciu noszonych na ciele kamer, w tym mimiki i gestów. Szach mat 🙂

  3. Andrzej Maczalski

    Teraz już w momencie zatrudnienia powinniśmy trzymać rękę na pulsie w zakresie szukania nowej pracy, bo rynek jest dynamiczny, a przez to niestabilny. Odnajdą się ludzie sprytni, mądrzy i inteligentni. Zawsze, w każdych warunkach, bo będą bazować na głupocie pozostałych. Bardziej niż w sztuce, którą da się wytworzyć z użyciem AI, upatrywałabym szansę na zwiększenie zatrudnienia w branży edukacji i szkoleń. Wszak trzeba będzie wszystkich w pewnym momencie obudzić z zimowego snu

  4. Andrzej Czeczowski

    AI jako OKURWATERMINATOR jest przynajmniej stulecie przed nami.
    Source: Informatyka stopień I. Żaden z prowadzących profesorów (a.k.a. ludzi z 30-40 lat expa) nie boi się AI.

  5. Mac McFisher

    Algorytmy nakarmione kiepskiej jakości danymi sieci neuronowe mogą m.in. dyskryminować ludzi, powielając społeczne stereotypy, albo też np. pokazywać błędne diagnozy, które nie są adekwatne do sytuacji i stanu pacjenta. Z kolei w przypadku sektora finansów coraz częściej stosowane przez banki systemy oparte na AI mogą nie udzielić komuś kredytu tylko przez to, że ta osoba mieszka w dzielnicy o stosunkowo niskim poziomie średnich dochodów

  6. JacekPaczka

    „Uprzedzenia” nie są złe tylko bywają wynikiem niedostatecznej ilości danych. Rzecz w tym,że zbieranie ich „dostatecznej ilości” może z kolei oznaczać permanentne naruszenie prywatności.

    Dla przykładu – oczywiście te heurystyki nie oceniały kto jest dzieckiem samotnej matki z kryminalną przeszłością,jakiej muzyki słucha na co dzień itd.Zbieranie i uwzględnianie takich danych było by nawet szkodliwe.

    Jeśli heurystyka działa lepiej niż inne to jest lepsza w danych warunkach. Jeżeli działa źle – warto też określić dlaczego. Algorytmy z natury mają być poprawne a nie „politycznie poprawne”.

  7. Adam T

    Hmm, jeśli algorytm przetwarza wszystkie możliwe dane, również takie jak faza księżyca, to czy to jego wina czy zachowań mających wpływ na dane statystyczne? Podejrzewam, że w swoich wyliczeniach doszedł też do wniosku, że bruneci częściej wracają do drogi przestępczej niż blondyni lub na odwrót, albo ludzie preferujący koty nad ludźmi preferującymi psy, albo wąsacze nad brodaczami. To nie algorytm jest rasistą tylko ludzie, którzy w 2020 roku uważają kolor skóry za bardziej istotny od koloru włosów.

    Co do zmian na świecie, podejrzewam że algorytm zbiera nowe dane na bieżąco i jeśli tylko takie zmiany nastąpią to zmieni on swoje postrzeganie.

  8. Oniwaban

    Oczywiście będą zabezpieczania na niskim poziomie implementacji AI, typu, że nie wolno krzywdzić ludzi itp. Nietrudno jednak wyobrazić sobie hakerów rosyjskich, czy koreańskich, którzy przy pomocy złośliwego oprogramowania i lukach w zabezpieczeniach, będą przejmować kontrolę nad AI, np: autonomicznymi dronami, robotami bojowymi i wykorzystywać do własnych celów. Usuną ludzi z równania i po wszystkim.

  9. Czesław

    Regulować? Za późno. Pewne formy sztucznej inteligencji towarzyszą nam każdego dnia. Alexa, Siri czy asystent Google’a za pośrednictwem urządzeń mobilnych, są z nami zarówno w domu, jak i w pracy. Wraz z rozwojem tych technologii w formie komercyjnej, będzie rosło ich znaczenie w pracy i biznesie. Już teraz widzimy, że firmy technologiczne projektują swoich asystentów pod konkretne wymagania rynków.

  10. NorTom2

    Czy tak naprawdę oczekujemy tego, aby algorytmy zastąpiły człowieka? Być może celem jest zwiększenie zakresu automatyzacji i robotyzacji procesów,rutynowych, pozostawiając decyzyjność/rozwiązywanie problemów w stanach entropii systemu po stronie ludzi?

  11. Piotr91AA

    Żyjemy w ciekawych czasach – wracamy do renesansu. Naukowiec nie może już tylko siedzieć przy biurku i tworzyć; znowu musi być człowiekiem uniwersalnym

  12. Tomek Doman

    Osobliwość to dość odległy temat, jeśli kiedykolwiek powstanie. Zakładając jednak, że powstanie to pytanie jest o jej charakter i czy mamy prawo traktować inną świadomość jak niewolnika i kształtować ten Byt, tak odmienny od nas.

  13. TomaszKik

    Sztuczna inteligencja, dopóki nie ma samoświadomości (czy można mówić tutaj o sztucznej świadomości w kontekście sztucznej inteligencji – czy to jeszcze sztuczna inteligencja?) jest maszyną, narzędziem jak każde inne używane przez człowieka. Myślę więc, że to człowiek powinien być odpowiedzialny za wszelkie konsekwencje jej działania – nawet jeśli nie był w stanie ocenić skutków zanim jej użył. Nawet skłaniałbym się do stwierdzenia zwłaszcza, jeśli nie był w stanie ocenić skutków przed użyciem SI.

    Co innego gdy jest mowa o świadomej inteligencji – wtedy już możemy mówić o regulowaniu ram w jakim ma działać względem jej wprost. Pytanie czy będzie w stanie zrozumieć i zinterpretować zgodnie z zamysłem autora takie regulacje?

  14. Robert Kaczkowski

    Ponieważ wzorem działania dla AI jest inteligencja człowieka, niektórzy skłonni są jej przypisywać ludzkie cechy. Nie dziwi więc, że laicy zastanawiają się, co maszyny czują i czy sztuczna inteligencja słyszy lub widzi. Ideą AI jest odtwarzanie ludzkiego sposobu postrzegania rzeczywistości i zdolności reagowania, a zarazem przekraczanie barier umysłu w tym zakresie.

  15. Jacek B2

    Sam Stephen Hawking (ten od czarnych dziur), Bill Gates czy Elon Musk ostrzegają przez Sztuczną Inteligencją. Obawiają się oni, że stworzymy Coś nad czym nie będziemy umieli zapanować. Coś posługujące się zupełnie inną moralnością i etyką, o ile.

  16. John Macolm

    Na obecnym etapie jej rozwoju można wykluczyć przyznanie sztucznej inteligencji w najbliższej przyszłości osobo­wości prawnej – Polska jest zresztą jednym z krajów, które sprzeciwiają się takim koncepcjom. UE natomiast takiej możliwości nie wyklucza, o ile dotyczyć będzie najbardziej zaawansowanych maszyn, cechujących się wysokim poziomem autonomii.

  17. PiotrPawlow

    Potrzeba regulacji prawnej sztucznej inteligencji jest coraz bardziej widoczna – do czego przyczyniają się jej szybki rozwój i coraz powszechniejsze zastosowanie. Niestety, nie zawsze jest ona wykorzystywana do celów biz­nesowych. Równie chętnie korzystają z niej cyfrowi przestępcy, którzy najczęściej prowadzą działania mające na celu ośmieszenie znanych osób lub instytucji albo wyłudzenie od nich pieniędzy.

  18. Grzegorz Wiatr

    Na potrzebę precyzyjnego zdefiniowania AI w ramach prawnych wskazał już PE oraz Europejski Komitet Ekonomiczno-Społeczny. Jak dotąd jednak, żadna konkretna oraz odpowiednio ostra definicja nie została wypracowana, co w kontekście tempa rozwoju nowych technologii czyni tę kwestię jeszcze bardziej palącą. Trzeba cos z tym zrobić. Szybko