Co się dzieje z Twoją twarzą człowieku?

Technologie rozpoznawania obiektów i twarzy (pattern recognition, facial recognition) zmieniają medycynę, motoryzację, marketing i ułatwiają życie przeciętnego obywatela. Jednak postęp, jaki dzięki nim się dokonuje, ma też mroczny aspekt. Przygotujmy się więc na to, że w najbliższych latach nasze twarze nie zaznają spokoju.

Podziel się

facebook twitter linkedin email
AI facial recognition blog Norbert Biedrzycki

Jak niemal każda współczesna, innowacyjna technologia, tak i rozpoznawanie twarzy oraz obiektów ma swoją dynamiczną, ale i niedługą historię. Szukając jednego z przełomowych momentów, możemy cofnąć się do roku 2011, kiedy Jeff Dean, inżynier z Google, spotkał się z profesorem informatyki Andrew Ng. Obaj wpadli na pomysł stworzenia sieci neuronowej o dużej mocy, która zostałaby “nakarmiona” 10 milionami obrazów zeskanowanych z internetu(głównie obrazki z baz danych, maile, filmy i zdjęcia z youtube). Po kilkudziesięciu godzinach nieustannego przetwarzania wizualnych informacji, komputer zaprezentował trzy wzory: były to podobizny ludzkiej twarzy, ludzkiego ciała i kota. Od tego momentu, oprogramowanie mogło przetwarzać kolejne dane, orzekając błyskawicznie, czy – przykładowo – dany obiekt na zdjęciu jest kotem, czy nim nie jest. Nie brzmi to specjalnie spektakularnie, ale to był naprawdę przełom, bo został wypracowany standard pewnej prostej, ale niezwykle skutecznej metody. Dlatego dzisiaj nie musimy pisać już kodów, które pomagałyby w rozpoznawaniu koloru skóry, czy budowy nosa. Na tej samej zasadzie można odróżnić naszą twarz.

Mamy za co być wdzięczni

Doskonalenie obu technologii było obiecujące, ale potrzebna była rynkowa weryfikacji jej użyteczności. Naukowcy pracujący z najpotężniejszym komputerem świata IBM Watson, odkrywali imponujące możliwości, jeśli chodzi o analizę olbrzymich zbiorów danych – w tym fotografii naszego ciała, które ukazywały wizualne oznaki ciężkich chorób. Policjanci zachwycali się z kolei tym, ile czasu oszczędzają na przeglądaniu i analizowaniu archiwów fotograficznych z uwiecznionymi twarzami przestępców. Zadowoleni mogli być menedżerowie Facebooka. Biorąc pod uwagę ilość danych wizualnych zgromadzonych na portalu, doskonalenie rozpoznawania twarzy stawało się prostsze i atrakcyjne ze względu na reklamodawców. Rozwojowi tej technologii sporo zaczęli zawdzięczać producenci Tesli, Ubera i Waymo; autonomiczne pojazdy potrafią dzięki niej odróżniać człowieka od martwej bryły. Powinny być też jej wdzięczne setki rodzin w Indiach. Dzięki szybkim analizom porównawczym zdjęć dzieci zagubionych i dzieci przebywających w sierocińcach, niejeden dom mógł świętować odnalezienie zagubionych pociech po wielu latach poszukiwań.

Przebudzenie wielkiego brata

Niestety, te wszystkie przykłady – budujące – nie zmniejszają naszego lęku przed coraz bardziej realnymi scenariuszami społecznej dystopii. Jak zapewnić naszej twarzy komfort w czasach, gdy kolejną falą technologiczną, na jaką musimy się przygotować, jest biometria – wykorzystywana w urzędach i na lotniskach? Kontrowersyjne są doniesienia z Chin, gdzie skan twarzy jest już nie tylko przepustką do wielu usług – np. szybkiego płacenia w sklepach, ale staje się obywatelskim obowiązkiem, jak chociażby w sytuacji zakupu telefonu komórkowego. Oficjalne informacje o tym, że zachowania ludzi są rejestrowane przez kamery – to wszystko dla potrzeb systemu oceny obywateli – widnieją nawet w chińskich pociągach.

W naszym kręgu cywilizacyjno-kulturowym ciągle nie dopuszczamy myśli o tak bliskiej integracji technologii z polityką społeczną. Niestety, problem dotyczy nas również, może na razie w mniejszym stopniu. Kamery obserwują nas na ulicach, w parkach, szkołach, sklepach i biurowcach. Nie wiemy, jak długo nasze zdjęcia są przechowywane na dyskach, po co i dlaczego ktoś je ogląda.

Black box syndrom, czyli nie wiemy, co się dzieje

Problem nie polega tylko na tym, że nie wiemy, co dzieje się dalej z tymi danymi. Problem polega na tym, że nie wiemy, kiedy one powstają. Nie jest to przecież ściągnięcie odcisku palca – tej operacji bylibyśmy całkowicie świadomi. Gdy w okolicy, w której mieszkamy, zostaje popełnione przestępstwo, to analizuje się zapisy z wielu kamer, które monitorują okolicę i poniekąd naszą twarz. Nie powinniśmy być zaskoczeni faktem, że na wielu takich próbkach znajdziemy się również my. Czy w takim razie nie stajemy się czasem nieświadomym i biernym uczestnikiem prowadzonych śledztw, gdy nasze zdjęcie wyskakuje obok innych? Gdyby się okazało, że nagle możemy mieć dostęp do zasobów wszystkich kamer, które patrzą na nas na ulicach, w naszej pracy i urzędach, przekonalibyśmy się, jak olbrzymia część naszej codziennej aktywności została zarejestrowana. Ważna jest tu jeszcze jedna kwestia. Mam na myśli ciągłą niedoskonałość omawianych technik. Niedoskonałość, która może prowadzić do poważnych nadużyć.

Błędy mogą prowadzić do zamieszek

O uprzedzeniach teoretycznie neutralnych algorytmów pisano wielokrotnie. Magazyn Wired przedstawił w jednym z artykułów eksperymenty, które wykazywały, że pomyłki oprogramowania do rozpoznawania twarzy zachodzą dziesięciokrotnie częściej w przypadku, gdy zbiór złożony jest ze zdjęć osób o czarnym kolorze skóry. Trzy lata temu prasa amerykańska nagłośniła błędy popełniane przez komputery na komisariatach. Dochodziło do notorycznego fałszowania statystyk, które z automatu wskazywały na zwiększoną aktywność przestępczą osób o czarnym kolorze skóry. Miało to olbrzymi wpływ na procedury i praktyki śledcze. Niekorzystne statystyki zostały potwierdzone przez niezależnie prowadzone badania prowadzone przez Massachusetts Institute of Technology. Algorytmy rozpoznają zdjęcia błyskawicznie, ale niedokładnie. Procedury wykorzystywania wyników takich analiz nie są pozbawione wad, o czym wiedzą najlepiej niesłusznie wezwani na komisariaty.

Rozkaz: kamery zdemontować

Niedoskonałość technologii rozpoznawania twarzy, a także brak jasnych, uniwersalnych przepisów powoduje krytykę ze strony aktywistów, którzy wymuszają debatę i zmianę podejścia do tych kwestii, ze strony rządów i biznesu. Jeff Bezos z Amazona zadeklarował niedawno, że firma opracowuje własne wytyczne dotyczące rozpoznawania twarzy i przedstawi je do konsultacji prawodawcom. Microsoft wspierał tworzenie przepisów dotyczących ochrony prywatności w stanie Waszyngton. W tym roku Facebook zmienił politykę wobec identyfikowania twarzy użytkowników, można odmówić zgody na rozpoznawanie twarz przez algorytmy portalu. Widoczne są działania władz miast dotyczące przestrzeni publicznych. W tym roku władze San Francisco orzekły, że policja nie może już używać technologii rozpoznawania twarzy w stosunku do osoby aresztowanej. Seattle przyjęło rozporządzenie, zgodnie z którym została ujawniona cała sieć urządzeń monitorujących miasto. Władze wielu europejskich metropolii zaczynają myśleć o pomysłach stref wolnych od kamer. Oczywiście ich możliwości nie sięgają tak daleko, by wymagać wdrażania podobnej polityki przez gigantów informatycznych. Jednak niektóre prywatne firmy wykazują już podobne inicjatywy – jak chociażby agencje zajmujące się organizacją imprez masowych i koncertów. Może wkrótce zaczniemy stykać się ze zjawiskiem marketingu prywatności, czyli budowaniu wizerunku firmowego na obietnicy, że obywatel przebywa w strefie bez urządzeń rejestrujących.

Twarz cenna jak waluta

Nasze cyfrowe podobizny stają się coraz bardziej wielofunkcyjne – umożliwiają nam wielowymiarową komunikację z innymi, zapewniają dostęp do niektórych usług i urządzeń, bywają nawet przepustką do budynków, w których pracujemy. Zdigitalizowana twarz staje się dowodem tożsamości, a w pewnym sensie rodzajem nowej waluty. Pytanie, jakie się rodzi, dotyczy tego, czy możemy – jako obywatele – utrzymywać większą kontrolę nad wykorzystywaniem i upublicznianiem tych cyfrowych obrazów, które, jak żadne inne, są świadectwem naszego indywidualnego “ja”.

Co dalej?

A więc co zrobić z naszą twarzą? Trudno pogodzić się z myślą, że przed wyjściem na spacer będziemy się w przyszłości zastanawiać, czy na wszelki wypadek nie założyć na twarz … maski. Dlatego wspieranie wszelkich inicjatyw, które mogłyby przynajmniej częściowo regulować opisywane zjawisko, wydaje mi się bardzo potrzebne już dzisiaj.


.    .   .

Cytowane prace:

The University of Cambridge, Centre of the study for Existential RiskJess Whittlestone, Risks from Artificial Intelligence, Link, 2020. 

Observer, Michael Sainato, Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence, Link, 2018. 

NickBostrom.com, HOW LONG BEFORE SUPERINTELLIGENCE?, Link, 2019. 

The Guardian, Mara Hvistendahl, Can we stop AI outsmarting humanity. The spectre of superintelligent machines doing us harm is not just science fiction, technologists say – so how can we ensure AI remains ‘friendly’ to its makers? Link, 2019. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Sztuczna inteligencja jest sprawnym bankierem

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

4 comments

  1. AdaZombie

    Podstawowym ograniczeniem AI fakt, że czerpie ona naukę z danych i nie zna innego sposobu na przyswojenie wiedzy. Oznacza to, że wszelka nieścisłość danych odzwierciedlona będzie w wynikach. Zaś wszelkie dodatkowe warstwy predykcji czy analizy muszą zostać dodane oddzielnie. Ponieważ dane jeszcze nigdy nie odgrywały tak istotnej roli, mogą one stanowić o przewadze konkurencyjnej. Jeśli firma działająca w branży o wysokiej konkurencyjności dysponuje najlepszymi danymi, to – nawet jeśli wszystkie przedsiębiorstwa stosują podobne techniki – jest w uprzywilejowanej pozycji.