AI, podobnie jak fatum w filozofii Stawiszyńskiego, jest tworem człowieka, który coraz częściej działa poza jego kontrolą, rodząc fundamentalne pytania o sprawczość, technologię i nieprzewidywalność.
W erze wszechobecnej technologicznej dominacji AI wprowadza do naszej rzeczywistości nowe wymiary nieprzewidywalności. Inspirując się filozofią Tomasza Stawiszyńskiego, który w książce „Powrót fatum” zwraca uwagę na rolę nieuchronności w ludzkim życiu, można zastanowić się, jak AI staje się współczesnym odpowiednikiem fatum – siłą, która z jednej strony jest dziełem człowieka, z drugiej wymyka się jego kontroli. Aby w pełni uchwycić złożoność tej dynamiki, warto odwołać się do myśli innych filozofów, którzy analizowali relacje między człowiekiem, technologią i nieprzewidywalnością.
Iluzja kontroli nad AI
Twórcy AI często wychodzą z założenia, że potrafią w pełni przewidzieć zachowanie swoich algorytmów. Systemy uczące się, oparte na ogromnych zbiorach danych, są projektowane w sposób, który – teoretycznie – pozwala im działać w granicach ustalonych reguł. Jednak rzeczywistość pokazuje, że AI, szczególnie w swojej najbardziej zaawansowanej formie, często generuje nieoczekiwane rezultaty. Przykłady obejmują błędy w systemach rozpoznawania obrazów, tendencyjne decyzje w algorytmach selekcji kandydatów do pracy czy zaskakujące odpowiedzi chatbotów. Nieprzewidywalność AI staje się szczególnie wyraźna, gdy systemy te zaczynają działać w sposób, którego nawet ich twórcy nie rozumieją w pełni. AI działa w sposób, który odzwierciedla złożoność i chaos świata, zamiast go upraszczać. Jest to zjawisko szczególnie niepokojące w kontekście społeczeństw przyzwyczajonych do wiary w postęp i racjonalne zarządzanie rzeczywistością.
AI jako przejaw technologicznego odczarowania świata
Martin Heidegger, jeden z najbardziej wpływowych filozofów XX wieku, przestrzegał przed traktowaniem technologii jako neutralnego narzędzia. W eseju „Pytanie o technikę” podkreślał, że technologia ujmuje rzeczywistość w sposób redukcyjny, przekształcając ją w zasób do wykorzystania. W kontekście AI ta perspektywa wydaje się szczególnie istotna – modele AI przekształcają świat w dane, które można przetwarzać, analizować i optymalizować. Jednak, jak zauważył Heidegger, taka instrumentalna wizja technologii pomija jej głębszy wymiar – to, jak technologia zmienia sposób, w jaki człowiek doświadcza świata. AI, zamiast być wyłącznie narzędziem, staje się współtwórcą tej rzeczywistości. Co więcej, nieprzewidywalność AI wynika z samej istoty technologii: to, co miało być pod kontrolą, ujawnia swoją autonomię, pokazując, że człowiek nie jest jedynym podmiotem kształtującym świat.
Napięcie między kontrolą a nieprzewidywalnością
Z jednej strony, jej działanie jest wynikiem decyzji programistów – od wyboru danych po budowę czy trening modeli. Z drugiej strony, systemy oparte na uczeniu maszynowym działają w sposób autonomiczny, tworząc modele, których logika nie jest w pełni dostępna dla człowieka. To napięcie między wolą człowieka a autonomią maszyny przypomina klasyczny spór o wolną wolę i przeznaczenie. Czy AI to owoc naszej woli, czy raczej twór, który zaczyna żyć własnym życiem? Przykladowo Hannah Arendt w „Kondycji ludzkiej” opisywała ludzką zdolność do tworzenia nowych rzeczywistości jako akt „rozpoczynania czegoś nowego”. AI można uznać za przykład takiego aktu, ale również za jego potencjalne zagrożenie. Arendt przestrzegała przed skutkami działań, których konsekwencji nie jesteśmy w stanie przewidzieć. AI jest tego przykładem – raz uruchomiony model może generować rezultaty, które zaskakują nawet jego twórców.
Arendt zwraca uwagę na kluczowe zagrożenie: brak odpowiedzialności. Jeśli AI podejmuje decyzje, których człowiek nie rozumie, to kto ponosi za nie odpowiedzialność? Problem ten ukazuje, że rozwój technologii nie tylko wywołuje nowe formy nieprzewidywalności, ale także zmusza nas do redefinicji pojęcia odpowiedzialności w świecie współtworzonym przez maszyny. AI jest jednocześnie przejawem ludzkiej wolności i symbolem naszej ograniczoności w przewidywaniu skutków własnych działań. Podobnie jak starożytni Grecy akceptowali fatum jako element życia, który współistnieje z ich działaniami, tak i my musimy przyjąć AI jako twór, który może nas zaskakiwać.
Pokora wobec technologii
W kontekście AI pokora wobec technologii oznacza uznanie, że nawet najdoskonalsze algorytmy mogą prowadzić do nieoczekiwanych skutków – zarówno pozytywnych, jak i negatywnych. Technologia nie jest narzędziem, które możemy kontrolować w 100%, ale raczej partnerem w tworzeniu rzeczywistości, którego działania musimy stale monitorować i oceniać. To właśnie brak tej pokory bywa przyczyną problemów z AI. Przekonanie, że technologia może być neutralnym, doskonałym narzędziem, ignoruje jej złożoność oraz fakt, że AI zawsze działa w ramach danych i wartości, które jej dostarczamy. Jednocześnie pokora wobec AI nie powinna oznaczać bierności. Wręcz przeciwnie – wymaga aktywnego uczestnictwa w projektowaniu, wdrażaniu i regulacji systemów opartych na sztucznej inteligencji.
Maszyny jako siły twórcze
Gilles Deleuze i Félix Guattari w swoich pracach, takich jak „Tysiąc plateau”, postrzegali maszyny jako coś więcej niż narzędzia – jako siły twórcze, które są częścią większych sieci relacji. AI można interpretować w tym kontekście jako maszynę, która nie tylko wykonuje z góry zaprogramowane zadania, ale także generuje nowe rzeczywistości. Jednak w tej twórczości kryje się potencjał chaosu. Deleuze i Guattari sugerowali, że nieprzewidywalność maszyn (w tym AI) jest nieodłącznym elementem ich twórczego charakteru. Zamiast traktować AI jako coś, co wymaga całkowitej kontroli, możemy postrzegać ją jako siłę, która wprowadza nowe możliwości, zmuszając nas do redefinicji naszej relacji z technologią.
AI jako nowoczesne fatum
AI, podobnie jak fatum w rozumieniu starożytnych, staje się siłą, która wymyka się pełnej kontroli i zrozumieniu. Z jednej strony jest wynikiem ludzkiej twórczości, z drugiej – działa niezależnie od naszych intencji. Może prowadzić do nieoczekiwanych odkryć i rozwiązań, ale również generować problemy, które trudno przewidzieć i rozwiązać. Przyjęcie tej podwójnej natury AI wymaga od nas nowego spojrzenia na technologię – jako na coś, co może wzbogacać nasze życie, ale jednocześnie wymaga akceptacji jej ograniczeń. Nick Bostrom, filozof specjalizujący się w badaniach nad sztuczną inteligencją, w książce „Superinteligencja” podkreśla, że AI, szczególnie w swoich najbardziej zaawansowanych formach, może stanowić egzystencjalne ryzyko dla ludzkości. Kluczowy paradoks polega na tym, że AI jest tworzona przez człowieka, ale w momencie osiągnięcia pewnego poziomu autonomii może zacząć działać w sposób całkowicie niezależny, kierując się własnymi „celami”, które mogą być niezgodne z interesami ludzkości. Bostrom wskazuje na tzw. problem kontroli – jak zapewnić, że AI będzie działała zgodnie z ludzkimi wartościami, skoro jej decyzje mogą być nieprzewidywalne? Jego refleksje przypominają koncepcję fatum Stawiszyńskiego: AI jest jak nowoczesne przeznaczenie, które wymaga od nas nie tylko akceptacji, ale także stworzenia mechanizmów współistnienia z tym, co nieprzewidywalne.
Akceptacja nieprzewidywalności AI
Filozoficzne refleksje na temat AI wskazują, że jej nieprzewidywalność nie jest jedynie problemem do rozwiązania, ale także wyzwaniem, które może prowadzić do głębszego zrozumienia naszej relacji z technologią. Jak zauważył Stawiszyński, akceptacja fatum nie oznacza bierności, lecz uznanie ograniczeń własnej kontroli. Podobnie, w kontekście AI musimy nauczyć się akceptować jej autonomię, jednocześnie dążąc do zrozumienia i minimalizowania ryzyka.
AI stawia nas w sytuacji, w której jesteśmy zmuszeni konfrontować się z naszą ograniczoną zdolnością przewidywania skutków własnych działań. Ta refleksja – inspirowana zarówno filozofią Stawiszyńskiego, jak i myślą Heideggera, Arendt, Bostroma czy Deleuze’a – pokazuje, że przyszłość AI nie zależy wyłącznie od technologii, ale także od tego, jak zdecydujemy się z nią współistnieć. W świecie, gdzie kontrola jest iluzją, to właśnie nasze podejście do nieprzewidywalności stanie się kluczem do harmonii między człowiekiem a maszyną.
Nieprzewidywalność AI zmusza nas do refleksji nad własnym podejściem do technologii i jej roli w naszym życiu. Jak zauważa Stawiszyński, akceptacja losu – czy to w formie fatum, czy technologicznej nieprzewidywalności – może prowadzić do głębszego zrozumienia świata i samego siebie. Zamiast dążyć do pełnej kontroli nad AI, powinniśmy nauczyć się współistnieć z jej nieprzewidywalnością, traktując ją jako wyzwanie, które może nas wzbogacić i zmusić do przemyślenia fundamentalnych zasad naszej rzeczywistości. W ten sposób AI może stać się nie tylko narzędziem, ale także lustrem, w którym odbijają się nasze ambicje, lęki i ograniczenia.
Cytowane prace:
University of Hawaii, Martin Heidegger, The Question Concerning Technology, Work examines the essence of technology and its influence on how humans experience the world, Link, 1977.
Hannah Arendt – „The Human Condition”, Book explores fundamental human activities and their implications in the modern world., Link, January 1958.
Nick Bostrom – „Superintelligence: Paths, Dangers, Strategies”, This book discusses future scenarios involving advanced AI and the potential risks associated with its development, Link, 2021.
Gilles Deleuze and Félix Guattari: „A Thousand Plateaus”, Philosophical exploration of society, culture, and thought through the concept of the rhizome, Link.
Linki do innych artykułów:
– Algorithms born of our prejudices
– Will algorithms commit war crimes?