5 historii o tym, że algorytmy sztucznej inteligencji dotarły do ściany

Nie będziemy musieli sobie wszczepiać w mózgi chipów, by nadążyć za maszynami. Bo póki co, one nie mogą nadążyć za nami.

Podziel się

facebook twitter linkedin email
AI limitations Norbert Biedrzycki blog

Dwie narracje wpływały w ostatnich latach na postrzeganie Sztucznej Inteligencji. W pierwszej dominował zachwyt nad nowymi możliwościami. W drugiej przeważał lęk o to, że utracimy poczucie podmiotowości w stosunku do maszyn i grożą nam negatywne zjawiska, jak masowe redukcje zatrudnienia. Dzisiaj emocje zastępuje chłodny ogląd. Inaczej patrzymy na algorytmy maszynowe. Wyraźniej widzimy zarówno atuty sieci neuronowych, jak i ich ograniczenia. I właśnie tym ostatnim się przyjrzyjmy.

Niektóre przewidywania dotyczące Sztucznej Inteligencji nie sprawdziły się, a jednocześnie pewne kwestie zbanalizowały się. Zdajemy sobie już sprawę z niektórych iluzji sprzed lat. Nie przesiedliśmy się na autonomiczne samochody, medycyna nieufnie podchodzi do sugerowanych przez algorytmy rozwiązań. Internet Rzeczy nie przekształca życia dużych miast, a blockchain nie zrewolucjonizował każdej transakcji. Z drugiej strony korzyści z uczenia maszynowego (machine learning), czy uczenia głębokiego (deep learning), które potrafi błyskawicznie analizować duże zbiory danych, wykrywając określone wzorce, są olbrzymie. Transformacje, które przechodzą firmy, byłyby niemożliwe bez wsparcia algorytmów czy sieci neuronowych, które korzystnie wpływają na globalny biznes, finanse, zarządzanie i mają znaczący wpływ na takie wartości jak efektywność, czy zyskowność.

Sztuczna Inteligencja traci stopniowo wizerunek mrocznej metafizycznej siły. I chociaż pamiętamy słowa Elona Muska, który w 2018 roku twierdził, że ona kiedyś zaserwuje nam olbrzymi kryzys egzystencjalny, to każdego dnia przekonujemy się, że bywa też banalnie nieudolna i nieskuteczna. Jej braki i zaskakujące słabości mogą poważnie wpłynąć na tempo jej dalszej ekspansji. Poniżej omawiam podstawowe czynniki, które mogą przyczynić się do zahamowania rozwoju Sztucznej Inteligencji.

Ograniczenie 1. Procesory nie nadążają

W opinii przedstawicieli firmy OPEN AI rozwój algorytmicznych technologii czeka spowolnienie, bo komputerowe procesory, których moc podwaja się co dwa lata, nie są wystarczająco wydajne. By utrzymać dotychczasowe tempo rozwoju wdrożeń związanych ze Sztuczną Inteligencją, komputery musiałyby podwajać swoją moc co trzy, cztery miesiące. To jeden z kluczowych argumentów sugerujących, że możemy spodziewać się pewnego wyhamowania. Zresztą kłopoty sprzętowe okazują się czasem bardziej trywialne. Technologia Internetu Rzeczy oparta na cyfrowych urządzeniach połączonych w jedną globalną sieć ma wykorzystywać olbrzymie strumienie danych. Zgodnie z zasadą – im więcej danych, tym lepiej dla sieci neuronowych – urządzenia cyfrowe nabierałyby swoistej mądrości, która przekładałaby się na usprawnienie naszego życia. Cieszylibyśmy się automatycznymi reakcjami ekspresu do kawy, gdy wchodzimy do kuchni, sygnalizacja świetlna przewidywałaby korki na drogach, reagowała na dane pogodowe, itd. W teorii brzmi to interesująco. Jednak specjaliści zajmujący się Internetem Rzeczy przyznają, że wiele projektów upada z powodu niewystarczającej jakości czujników, które umożliwiają synchronizację urządzeń i problemy z ich kalibracją. Być może rozwiązaniem tego problemu staną się, będące na razie w powijakach, technologie komputerów kwantowych. Być może. 

Ograniczenie 2. Portfele nie wytrzymują

Z poglądem, że problemy sprzętowe mogą hamująco wpływać na dalszą ekspansję zjawiska zgadza się Jerome Pesenti, który odpowiadał za rozwój Sztucznej Inteligencji w koncernie IBM, a od dwóch lat zajmuje się tą dziedziną w Facebooku. Wskazuje on przy okazji na jeszcze jeden czynnik hamujący ekspansję. Chodzi o pieniądze. Dla magazynu Wired mówił o tym tak: „Koszty najlepszych eksperymentów prowadzonych w badaniach nad Sztuczną Inteligencją rosną co roku dziesięciokrotnie. Obecnie sięgamy po kwoty siedmiocyfrowe, ale na wydatki dziewięcio- lub dziesięciocyfrowe nikt nie będzie mógł sobie długo pozwolić”. Ilustracją tej tezy jest pierwszy z brzegu przykład: szkolenie GPT-3 słynnego modelu języka naturalnego, który opuścił w tym roku laboratoria OPEN AI, kosztowało ponad 4,5 mln dolarów. Mówimy tu o kosztach podstawowych (wgrywanie słownika), które nie uwzględniają licznych poprawek i skomplikowanego procesu doskonalenia produktu.  

Ograniczenie 3. Jest trudnym partnerem do współpracy

Hasło Sztuczna Inteligencja stawało się ostatnimi laty magicznym zaklęciem, które miało otwierać drzwi przysłowiowego sezamu. Firmy lub fundusze inwestycyjne pozyskiwały z rynku gotówkę na aplikacje, które były co prawda modne, ale niezdolne do generowania zysku. Dla wielu firm, które podjęły decyzję o algorytmizacji sprzedaży, marketingu, logistyki brak zwrotów z inwestycji był odstraszający. Zarządy firm wyrażają dzisiaj ambiwalentne odczucia: Sztuczna Inteligencja potrafi ulepszyć niektóre procesy, ale generuje zbyt duże zbiory nieczytelnych dla przeciętnego menedżera danych, powodując jego frustrację. W skrócie: handlowiec kompletnie nie rozumie, dlaczego miałby zdecydować się na zawarcie transakcji x, którą sugerują algorytmy. Efekt? Badanie przeprowadzone przez International Data Corporation wśród globalnych firm, które używają Sztucznej Inteligencji wykazała, że tylko 25 proc. z nich zdecydowało się na wdrożenie kompleksowych rozwiązań dla całego przedsiębiorstwa. Większość badanych przyznawała się do błędów w swoich projektach, a jedna czwarta przyznała się do 50 proc. wskaźnika niepowodzeń, jeśli chodzi o wdrożenia oparte na tych technologiach. Sztuczna Inteligencja nie poddaje się więc łatwemu skalowaniu, bywa niezrozumiała, a współpraca z nią może okazać się doświadczeniem frustrującym.

Ograniczenie 4. Jej pomyłki są poważne

W 2019 roku zespół z Google Health ogłosił w magazynie Nature, że ich oprogramowanie do diagnozowania raka piersi działa skuteczniej, niż ludzie. Publikacja wywołała spory rezonans, prowokując przy okazji wiele krytycznych komentarzy. Benjamin Haibe-Kains stwierdził w Technology Review, że raport Google Health jest najwyżej reklamą ciekawej technologii, a nie rzetelnym badaniem naukowym. Nie był to pierwszy raz, kiedy znana korporacja ogłasza przełom w badaniach, a nauka na te rewelacje reaguje sceptycyzmem. Do dzisiaj często przytacza się przypadek koncernu IBM, który chwalił się, że jego chluba, komputer IBM Watson, „nakarmiony” olbrzymią porcją literatury medycznej, stanie się najwybitniejszym lekarzem na ziemi. Tymczasem koncern musiał się tłumaczyć z wielu pomyłek doktora Watsona, takich jak chociażby przepisanie pacjentowi z obfitym krwawieniem środka, który by te krwawienie znacznie zwiększył. Spektakularną porażką okazały się próby rozwikłania zagadki COVID -19. DeepMind wykorzystał swój system AlphaFold AI do przewidywania i publikowania struktur związanych z koronawirusem, ale nie powstały żadne zadowalające konkluzje. Okazało się, że strumienie danych wygenerowanych w trakcie pandemii nie poddają się prostej interpretacji. Sieci neuronowe, na bazie których działa uczenie maszynowe, bywają skuteczne w rozpoznawaniu wzorców, o czym świadczy rozwój takich dziedzin jak facial recognition. Jednak ta umiejętność nie sprawdza się w przypadku danych o niejednorodnym charakterze, a z takimi mamy do czynienia w przypadku wirusa.

Ograniczenie 5. Algorytmy nie są wystarczająco elastyczne

Algorytmy sprawdzają się dobrze w rozwiązywaniu konkretnych problemów i zadań, np. w grze w szachy. Natomiast tracą swoją moc w nowych kontekstach sytuacyjnych i informacyjnych.  Niektórzy nazywają to „inżynierią jednorazową”. Ta wąska specjalizacja algorytmów, ich sztywność funkcjonalna widoczna jest m.in w robotyce. Obserwujemy więc, medialnie nagłaśniane sukcesy gimnastyczne np. robotów-psów, ale z drugiej strony brakuje ciągle przykładów na to, że maszyna potrafi płynnie przejść z wykonywania jednej czynności do następnej. Bardziej złożonym przejawem tej sztywności są problemy asystentów głosowych pracujących w oparciu o przetwarzanie języka naturalnego. Płynna rozmowa z asystentem jest możliwa pod warunkiem zachowania precyzji wypowiedzi i pytań. Wyjście poza określony kontekst pojęciowy i sytuacyjny powoduje, że bot udziela odpowiedzi absurdalnych. Według wielu specjalistów, Sztuczna Inteligencja nigdy nie będzie potrafiła przekroczyć granicy, po przejściu której możliwe jest rozumienie kontekstów społecznych, pojęciowych, sytuacyjnych. Maszyny zawsze pozostaną więc wytrenowanymi bytami, które mimo pewnej nieprzewidywalności (problem Black Box) nie wyjdą poza wąskie spectrum określonych umiejętności. Czy to oznacza, że Sztuczna Inteligencja nigdy nie zda słynnego testu Turinga?

Co dalej?

W kontakcie ze Sztuczną Inteligencją poruszamy się tak, jak to określa każdy cykl rozwoju innowacyjnych technologii. Wszystko zaczyna się od serii wydarzeń i wdrożeń, które wyzwalają zainteresowanie danym zjawiskiem i szum wokół niego. Im ten szum głośniejszy, tym większe prawdopodobieństwo zawyżonych oczekiwań a fantastyczne wizje przełomowych zmian budzą ostre apetyty rynku, mediów i konsumentów. Niestety, to właśnie po tym etapie nadchodzi często rozczarowanie i poczucie, że (rzekomo złożone) obietnice nie zostały spełnione. Ale jest też miejsce na pozytywny finał w postaci chłodnej refleksji, która pozwala dostrzec faktyczne korzyści. Sądzę, że w przypadku Sztucznej Inteligencji zaliczamy teraz etap, którego nie chcę nazywać rozczarowaniem, bo byłoby to niesprawiedliwe. Natomiast pojęcie krytycznej refleksji wydaje mi się trafne.

Uświadomienie sobie kilku podstawowych problemów, z jakimi borykają się systemy Sztucznej Inteligencji może zadziałać na nas odświeżająco. Zasługujemy więc na odrobinę optymizmu: nie będziemy musieli sobie wszczepiać w mózgi chipów, by nadążyć za maszynami. Bo póki co, one nie mogą nadążyć za nami. I warto pamiętać o jeszcze jednej kwestii prawdziwy postęp, jaki dokonuje się na naszej planecie, możliwy jest dzięki ludzkim motywacjom, by rozwiązywać problemy wokół nas i czynić świat lepszym. Uczenie maszynowe nigdy osobistej motywacji nie poczuje, by zrobić coś złego lub dobrego. I to ograniczenie według mnie pozwoli ludziom spać spokojniej.

.    .   .

Cytowane prace:

ResearchGatePetr PlechacThe Czech Academy of SciencesDigital Scholarship in the Humanities, Relative contributions of Shakespeare and Fletcher in Henry VIII: An analysis based on most frequent words and most frequent rhythmic patterns, Link, 2020. 

Spiegel InternationalSven RöbelMichael Sontheimer, The $7 Million Fake, Forgery Scandal Embarrasses International Art World, Link, 2018. 

ArtNomeJason BaileyCan AI Art Authentication Put An End To Art Forgery?Link, 2019. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

4 comments

  1. TomK

    Na szczęście są na świecie ludzie mądrzy i wiedzą z jakim wiąże się to ryzykiem. Pisane, że nikt jeszcze tego nie zrobił a są obawy jest tylko stwierdzeniem faktu. Tak dokładnie ludzie się boją, kto miał styczność z AI lub ma wyobraźnie wie jakie to niesie ze sobą ryzyka.

  2. Czesław

    My jesteśmy maszynami, które mają świadomość, więc odwzorowanie jej na innym nośniku to kwestia czasu. Trzeba byłoby napisać program, który potrafi uczyć się każdego tematu, a nie tylko np. rozpoznawania tego co jest na zdjęciu. Pewnie najprościej byłoby to zrobić przez jakąś przyśpieszoną ewolucję taką jaką my przeszliśmy, tylko „na przewijaniu”, gdzie gorsze wersje programu przegrywają z lepszą wersją.

  3. Andrzej44

    Uczciwie mówiąc trochę zbyt entuzjastyczny ten artykuł. W żadnym wypadku to nie jest wchodzenie algorytmów na nowe terytorium. Zamieńmy modne słowo machine learning na analizę statystyczną i zaraz zobaczymy różnicę. Literaturoznawstwo od lat używa analizy statystycznej i ten aspekt analizy literatury zawsze był pograniczem nauki ścisłej i humanistycznej, więc tutaj oprócz techniki i szybkości nic się nie zmieniło.

  4. Jacek Krasko

    Według jednego z badań GPT-3 daje radę przejść ok. 14% prostych zadań programistycznych. Na ten moment ma sens jako pomoc programisty generująca niektóre funkcje i ogólną strukturę kodu, ale po którym programista musi to dokończyć i poprawić.