Forbes: Czy i jak regulować sztuczną inteligencję?

Technologia, która zaczyna rozwijać się niejako bez naszego udziału, udoskonalająca swoje działania bez ingerencji programisty, staje się potężną siłą. Wobec niej zasada nieograniczonej biznesowej wolności wydaje się nieco archaiczna i nie rozwiązuje wielu kwestii.

Czy i jak regulować AI Norbert Biedrzycki Forbes

Mój artykuł w FORBES z dnia 1 luty 2020 roku: Czy i jak regulować sztuczną inteligencję?. 

Toczy się dyskusja o tym, jak regulować kwestie związane ze sztuczną inteligencją. Prawnicy, politycy i przedstawiciele biznesu czują, że istniejące prawodawstwo nie nadąża za postępem technologicznym, jakiego doświadczamy. Pod względem prawnym i ustawowym nie jest on należycie „obsługiwany”. Czy sztuczną inteligencję da się sprawnie regulować i czy tego potrzebujemy? Nie tylko trudno nam zrozumieć logikę algorytmów. Nie mamy też pojęcia – jako obywatele – w jaki sposób współczesna technologia wykorzystywana jest przez firmy, instytucje i służby do monitorowania naszego życia.

Pytanie, czy nie powinno towarzyszyć nam jednoznaczne poczucie, że w trakcie używania komputerów, dronów, aplikacji, kamer i portali społecznościowych jesteśmy chronieni? I że ktoś czuwa nad tym, by nie doszło do sytuacji, w której to algorytmy wybierają za nas prezydenta?

Nie sądzę, by próby regulacji obszaru sztucznej inteligencji były zawracaniem komuś głowy lub ograniczaniem swobody przepływu idei czy funkcjonowania biznesu. Technologia, która zaczyna rozwijać się niejako bez naszego udziału, udoskonalająca swoje działania bez ingerencji programisty, staje się potężną siłą. Wobec niej zasada nieograniczonej biznesowej wolności wydaje się nieco archaiczna i nie rozwiązuje wielu kwestii.

Regulować albo nie

Opinie, czy należy regulować kwestię rozwoju autonomicznych, inteligentnych technologii, są oczywiście podzielone. Elon Musk regularnie wyraża obawy co do losów naszej planety i uważa, że potrzebujemy zdecydowanych mechanizmów chroniących ludzi przed technologicznymi zagrożeniami. Na przeciwległym biegunie funkcjonuje zwolennik mocno liberalnego podejścia, Mark Zuckerberg (chociaż wydaje się, że ostatnio nieco modyfikuje swoje poglądy).

Generalnie z innymi postawami spotykamy się w amerykańskich kręgach biznesowych, a innymi w Europie. Komisja European Group on Ethics prowadzi działania, które mają doprowadzić do międzynarodowego porozumienia i stworzenia ram prawnych dotyczących autonomicznych systemów. W opinii komisji „…systemy autonomiczne nie mogą naruszać wolności ludzi (…) Sztuczna inteligencja powinna przyczyniać się do globalnej sprawiedliwości i równego dostępu do korzyści, jakie może przynieść robotyka i systemy autonomiczne”.

Jednakże wypada wskazać też na radykalnie odmienne podejście do tematu, z jakim mamy do czynienia w przypadku Chin. W kraju, który chce być liderem w rozwijaniu sztucznej inteligencji, traktuje się ją jako podstawowe narzędzie służące do monitorowania i kontroli zachowań społecznych.

Obserwacja, edukacja, dialog

W zmieniającej się rzeczywistości ważną rolę mają eksperci zajmujący się nowymi technologiami. Przeciętny obywatel może chcieć zadać im pytanie: czy możemy czuć się bezpieczni, bo w życiu towarzyszy nam „uczciwa, transparentna, odpowiedzialna sztuczna inteligencja”? W tym ostatnim zdaniu odwołuję się do nazwy jednego z wielu seminariów (Fair, Transparent, and Accountable AI) organizowanych przez organizację „Partnership on AI”. Jej misją jest właśnie badanie praktyk związanych z obecnością sztucznej inteligencji w naszym życiu i wyjaśnianie opinii publicznej, co nowego dzieje się w tym obszarze.

Warto przytoczyć tu zdanie, które pojawia się przy opisie wspomnianego wydarzenia na stronie internetowej organizacji (partnershiponai.org): „Sztuczna inteligencja może poprawić zdolności decyzyjne dzięki technikom, które wyciągają wnioski z dużych ilości danych. Może doprowadzić do przełomu w dziedzinach takich jak bezpieczeństwo, zdrowie, edukacja, transport, zrównoważony rozwój, administracja publiczna i nauka. Jednak tym potencjalnym korzyściom towarzyszą przy okazji obawy opinii publicznej i specjalistów związane ze szkodami, jakie sztuczna inteligencja może uczynić”.

Poniżej wymienię przykładowe cztery obszary (jest ich oczywiście mnóstwo), które przeżywają dynamiczne zmiany pod wpływem AI. Niektóre z nich mogą z czasem wymagać szczególnych mechanizmów regulacyjnych, tak byśmy zyskiwali poczucie komfortu w trakcie korzystania z technologii.

W konflikcie z prawem

Algorytmy wykorzystywane są przez policję na całym świecie. Sztuczna inteligencja pomaga w przetwarzaniu danych, w tym wielu informacji związanych z przestępczością, poszukiwaniem osób itd. Zdolności klasyfikacji obiektów (w tym zdjęć) na podstawie określonych elementów to jedna z wielu zalet technologii machine learning. I z pewnością doceniają ją wszystkie służby, którym zależy na szybkim dotarciu do ważnych – z punktu widzenia interesów śledztwa – informacji.

Niestety, sytuacje w których algorytmy oceniają prawdopodobieństwo, że dana osoba popełni ponownie przestępstwo (co wpływa na ewentualne zwolnienie warunkowe) mogą rodzić nadużycia. Dlatego na świecie powstają już organizacje (np. The Law Society’s Public Policy Technology and Law Commission) powoływane przez prawników, których misją jest monitoring działań policji i sądów w tym zakresie.

Fake newsy powszechną zmorą

To gorący temat, o którym dużo się ostatnio mówi. Rodzi pytania o wiarygodność informacji, odpowiedzialność portali społecznościowych za ich monitorowanie. Od 2016 roku, który był przełomowy jeśli chodzi o wysyp afer związanych z fake newsami, nie ma tygodnia, by nie poruszano tej kwestii.

Sztuczna inteligencja ma tu swój udział, bo jak wiemy jej rola w automatycznym generowaniu treści (boty) jest duża. Myślę że wiarygodność informacji to jedno z największych wyzwań naszych czasów, które można nazwać erą dezinformacji. Wymaga to zdecydowanie globalnej refleksji, a nawet międzynarodowego współdziałania. Co jakiś czas pojawiają się inicjatywy na rzecz rzetelności (np. „Pravda” Elona Muska), ale sprawa jest trudna. Regulacje wydają się tu utopią, więc nie wiem, czy nie czekają nas jeszcze długie lata zmagania się z tym problemem.

Zobacz także: Wojna o internet

Kto rządzi przy taśmie produkcyjnej?

Robotyzacja w przemyśle jest jednym z najbardziej emocjonalnie traktowanych aspektów działania sztucznej inteligencji. Mamy olbrzymi problem z akceptacją faktu, że naszymi kolegami w pracy mogą stać się roboty (przyczyniając się do naszego bezrobocia). Wielokrotnie o tym pisałem, więc nie będę tu przedstawiał danych czy argumentów za lub przeciwko robotyzacji.

Zobacz także: Technologia 2020. Jedzenie z drukarek i mikroskopy w naszym ciele

Problem oczywiście jest i nie ma co udawać, że sprawa przycichnie. Wręcz przeciwnie, niepokoje społeczne mogą się powiększać wraz z rozwojem tego trendu. Ze względu na konsekwencje społeczne określenie zasad w tym obszarze jest niezwykle ważne. W tym przypadku mogą być wykorzystane chociażby mechanizmy podatkowe powstrzymujące korporacje przed nadmierną robotyzacją.

Regulować samodzielne samochody?

Entuzjaści podpierają się licznymi badaniami, wskazując, że autonomiczne pojazdy oznaczają dużo większe bezpieczeństwo na drogach. Zgadzam się z tą tezą. Niemniej jednak kwestia autonomicznych pojazdów rodzi pytania. Jedno z podstawowych dotyczy kwestii zachowania się pojazdu w trakcie wypadku.

Kogo algorytmiczne mechanizmy powinny chronić szczególnie – pasażerów, kierowców, pieszych? Czy kierowca, który – przez chwilę nieuwagi – spowoduje wypadek, będzie mógł skarżyć producenta autonomicznego pojazdu z nadzieją, że wygra proces? Jak ubezpieczać pojazdy? Kto odpowiada za wypadek: kierowca, pasażer, właściciel pojazdu, producent czy zespół programistów?

Kolejną sprawą, która nas czeka, to przyszłość innych autonomicznych środków transportu: samolotów, statków czy samochodów, które będą pełnić dla nas usługi transportowe, bez konieczności zasiadania w nich kierowcy (dostarczanie zakupów itd.). Prawodawstwo na świecie różni się w podejściu do testów autonomicznych aut. Wszędzie jednak toczy się dyskusja o tym, jak zwiększać bezpieczeństwo ich użytkowników.

Technologia jest dla ludzi

Postęp, jaki dokonuje się dzięki inteligentnej technologii, jest bezdyskusyjny. Ale sądzę, że oprócz biznesowych zagadnień takich jak optymalizacja kosztów, efektywność, zyskowność, automatyzacja (na nie wszystkie korzystnie wpływa stosowanie sztucznej inteligencji) ważne jest to, aby pamiętać o rzeczach mniej policzalnych. O tym, że nasze zwykłe jednostkowe samopoczucie, bezpieczeństwo, wiedza i spełnienie odczuwane podczas kontaktu z nową technologią są wartościami najważniejszymi.

Technologia ma sprawiać, że żyje nam się lepiej. Przyglądajmy się więc uważnie pracy ekspertów, którzy wpływają na tworzenie systemów prawnych, chroniących nas przed niepożądanym działaniem algorytmów.

Link do artykułu

Powiązane artykuły:

– Uczmy się jak maszyny, a nawet bardziej

– Już czas, by pogadać z maszyną

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Kiedy przestaniemy być biologicznymi ludźmi?

– Sztuczna inteligencja to nowa elektryczność

– W jaki sposób maszyny rozumują

Skomentuj

18 comments

  1. AdaZombie

    Sieci neuronowe jeszcze nie potrafią nauczyć się kreatywności, innowacyjności, nie posiadają intuicji i wyrozumiałości. To cechy (na ten moment) zarezerwowane dla człowieka, które sprawiają, że potrafimy m.in. odróżniać, co jest dobre, a co złe oraz odczytywać sygnały niejednoznacznie nacechowane. Brak tej umiejętności sprawia, że systemami sztucznej inteligencji można manipulować, wprowadzając celowo nieprawdziwe dane i zaburzając proces poznawczy.

  2. Aaron Maklowsky

    Automatyzacja nie tylko „nie jest z gruntu zła”, to potencjalnie w przyszłości najwyższy wzrost jakości życia w historii, dzięki któremu przeciętny człowiek nie będzie musiał pracować, a w dłużej perspektywie możliwe że ktokolwiek bo rozwój sztucznej inteligencji nie musi się skończyć na prostych zawodach.

  3. Andrzej Czeczowski

    Nie mówimy o tym, co dzisiaj ale o tym, co będzie jutro. Mało masz wizji integracji różnych urządzeń że sobą? Internet rzeczy, prace z Cortaną, Siri czy Alexą a to wszystko tylko z dostępnych rzeczy. Już teraz boty działają w necie, zapoznaj się z tematem algorytmów fb lub googla. Oczywiście, na razie to tylko same algorytmy, ale organizmy kiedyś też były tylko jednokomórkowe… A ewolucja zero-jedynkowa nie trwa miliony lat… Pozdrawiam.

  4. Mac McFisher

    Sam test Turinga dowodzi, że ta sztuczna inteligencja to nie jest inteligencja, ale próba podszycia się pod inteligencję. To, że marketing używa skrótu AI nie zmienia faktu, że prawdziwa sztuczna inteligencja istnieje tylko w sf.

  5. Adam

    Fajna wizja.
    Co prawda raczej się nie spełni, przy czym oporem będzie rynek dla którego nie do przyjęcia byłaby kupująca, inteligentna lodówka i to jeszcze sprzężona z zaleceniami lekarskimi dot. diety, bo wykluczałaby zakupy emocjonalne, tzw. chwilowe zachcianki i odrzucałaby zakupy rzeczy niezdrowych. Tak dla przykładu kilka miesięcy bez piwa i pewnie trzeba by pomyśleć o rozwodzie z taką lodówką.
    Pytanie jak pralka dałaby się namówić na zakup nowo reklamowanego „inteligentnego” proszku, skoro wg jej wiedzy jedynie proszek X zapewni pełną czystość.
    No i jak samochód wiedząc o naszej diecie przyjmowałby płatności za te hot-dogi na stacjach benzynowych – oj tutaj awantury byłby nie do uniknięcia. A wkurzony samochód to gorzej niż wkurzona żona

  6. Oniwaban

    Nietrudno wyobrazić sobie hakerów rosyjskich, czy koreańskich, którzy przy pomocy złośliwego oprogramowania i lukach w zabezpieczeniach, będą przejmować kontrolę nad AI, np: autonomicznymi dronami, robotami bojowymi i wykorzystywać do własnych celów. Usuną ludzi z równania i po wszystkim. Są znane przypadki przejęcia kontroli nad samochodami autonomicznymi w trakcie jazdy.

  7. Adeptus99

    W sensie że jakieś tam algorytmy są wstanie naśladować proces biologiczny? No okej. Tylko że to nie jest to co odpowiada za naszą inteligencję, tylko za usunięcie niesprawnych elementów, aby nasza inteligencja osiągnęła swój maksymalny poziom.

  8. Czesław

    Prawdziwym poligonem doświadczalnym dla SI była reklama internetowa. Dzięki Big Data oraz programatycznemu zakupowi mediów reklama on-line całkowicie zmieniła swoje oblicze. Algorytmy SI zaczęto wykorzystywać do tworzenia spersonalizowanych kampanii, które osiągają dużo lepszą skuteczności, niż działania o szerokim zasięgu. Dziś, pierwszy raz w historii marka może prowadzić dialog ze swoim odbiorcom, tyle że pośrednikiem w komunikacji jest algorytm.

  9. Piotr91AA

    Tego rodzaju roszczenia już pojawiają się w sądach Europy Zachodniej i USA, stąd należy się spodziewać, że w przyszłości usłyszymy o imponujących odszkodowaniach dla poszkodowanych. Przy czym warto pamiętać, że roszczenia takie to nie tylko problem firmy, która stworzyła „wadliwy” algorytm, ale także firmy posługującej się nim (np. banku zlecającego usługi scoringu). Polski system prawny (podobne jak większość systemów prawnych w Europie) przyjmuje w takim wypadku odpowiedzialność nie tylko bezpośredniego naruszyciela, ale także podmiotu, który był mu pomocny w naruszeniu lub świadomie z naruszenia skorzystał. Oczywiście dopiero praktyka orzecznicza pokaże, jak sądy rozwiążą problem, do kogo powinny być adresowane roszczenia związane z wadliwym działaniem algorytmu AI, ale w tym zakresie należy się liczyć z ryzykiem szeroko zakreślonego kręgu potencjalnie zobowiązanych do zapłaty odszkodowania.

  10. Tomek Doman

    Osobliwość to dość odległy temat, jeśli kiedykolwiek powstanie. Zakładając jednak, że powstanie to pytanie jest o jej charakter i czy mamy prawo traktować inną świadomość jak niewolnika i kształtować ten Byt, tak odmienny od nas.

  11. TomaszKik

    Sztuczna inteligencja, dopóki nie ma samoświadomości (czy można mówić tutaj o sztucznej świadomości w kontekście sztucznej inteligencji – czy to jeszcze sztuczna inteligencja?) jest maszyną, narzędziem jak każde inne używane przez człowieka. Myślę więc, że to człowiek powinien być odpowiedzialny za wszelkie konsekwencje jej działania – nawet jeśli nie był w stanie ocenić skutków zanim jej użył. Nawet skłaniałbym się do stwierdzenia zwłaszcza, jeśli nie był w stanie ocenić skutków przed użyciem SI.

    Co innego gdy jest mowa o świadomej inteligencji – wtedy już możemy mówić o regulowaniu ram w jakim ma działać względem jej wprost. Pytanie czy będzie w stanie zrozumieć i zinterpretować zgodnie z zamysłem autora takie regulacje?

  12. John Macolm

    Sztuczna inteligencja może także podejmować zautomatyzowane decy­zje na podstawie przekazanych jej danych. Mowa np. o obecnie szeroko wykorzystywanych systemach scoringowych, których celem jest m.in. ocena zdolności kredytowej czy kalkulacji składki ubezpieczenia. Technologia ta pozwala również na analizowanie CV kandydatów w procesie rekrutacji.

  13. PiotrPawlow

    Mimo wielu inicjatyw, które pojawiły się w następstwie faktu, że prawo nie nadąża za technologią, w życie weszły jedynie przepisy związane z ochroną danych osobowych, czyli RODO. Jednak nie są to regulacje, które odnoszą się bezpośrednio do sztucznej inteligencji. Jest to o tyle niepokojące, że aż 70 proc. firm na całym świecie prowadzi projekty związane z AI

  14. Grzegorz Wiatr

    Parlament Europejski wskazuje wprost, że Komisja Europejska powinna zająć się tematyką sztucznej inteligencji. Poruszane zarówno przez Parlament Europejski, jak i przez Europejski Komitet Ekonomiczno-Społeczny, tematy wymagające regulacji dotykają szerokiej gamy dziedzin. Z opublikowanych dokumentów wnioskować można, że przyszła regulacja dotyczyć będzie mogła np. obowiązkowej rejestracji, ubezpieczenia czy też wdrożenia odpowiednich zabezpieczeń działalności sztucznej inteligencji

  15. Andrzej44

    Mówiąc o naszej cywilizacji mówię o całym zapleczu technologicznym, które nas aktualnie wspiera. Może to być bolesny upadek z którego jako gatunek możemy się już nie podnieść. I żadna sztuczna inteligencja nam nie pomoże.

    Bardzo często widzę jak to AI wygląda od podszewki, i jak daleko jest jeszcze do tych zapowiadanych rewolucji. Obawiam się, że AI nie pomoże nam jeżeli nie pomożemy sobie sami.

    Technologie AI są doskonałe w optymalizacji pojedynczych zadań, ale do ich pracy wymagane są olbrzymie zasoby. Zasoby, których możemy już za 30 lat nie posiadać.
    Ile procent prądu potrzebnego do wytrenowania kolejnego modelu sieci neuronowych jest dostarczanych z paliw kopalnych? I czy ta wytrenowana sieć, czy to grająca w GO, czy bawiąca się ze sobą w chowanego, pozwoli na to, żeby tych paliw spalić mniej w następnej iteracji?
    Obawiam się, że mam chwilowo mocno pesymistyczne podejście do ludzkości jako całości.

  16. TomekSz

    Człowiek to bardzo skomplikowany twór. Nie da się człowieka zamknąć w ramach i skonfigurować jako algorytm. Natomiast można ludzi sklasyfikować na świadomych tego co nas może czekać i tych którzy się poddadzą nurtowi obojętnie jaki by nie był. Rzecz w tym aby zrozumieć po co sami powstaliśmy i jak to się stało zanim sami staniemy się bogami i stwórcami. W przeciwnym razie grozi nam naprawdę bolesny upadek. ważne jest jak zaczniemy i w jakim kierunku nam to się potoczy.