O tym, że cyfrowa technologia potrafi rejestrować każdy przejaw naszej aktywności w sieci wiemy nie od dziś. Cyfrowe ślady są łatwe do namierzenia. Korzystają z tego agencje reklamowe, sklepy internetowe i banki, targetując reklamy i obserwując nasze preferencje zakupowe. W ostatnich tygodniach przeszliśmy jednak na nowy poziom tych praktyk. Nigdy dotąd technologia nie była tak intensywnie i powszechnie używana do jednoczesnej diagnostyki zdrowotnej i pośrednio – do zarządzania społeczeństwem. Tak wielką skalę działań nadzwyczajnych, w których nasza prywatność staje się bardzo krucha, pamiętają tylko mieszkańcy Ameryki z okresu po 11 września. Mniej zaskoczeni sytuacją mogą być też obywatele Chin. Tam do budowania systemu scoringu społecznego wykorzystuje się dane zebrane z sieci, z ulicznych kamer i smartfonów. Czy wkraczamy w erę globalnej inwigilacji?
Pomiary, kontrole, ustawy
W czasie pandemii, cyfrowe urządzenia śledzą nas na ulicach, w sklepach, a nawet w naszych domach. Karierę przeżywają aplikacje w rodzaju TraceTogether, wykorzystujące technologię bluetooth, pozwalające na śledzenie kontaktów osoby zarażonej z innymi. Opaski na rękę połączone ze smartfonem kontrolują przemieszczanie się osób podlegających kwarantannie. Producent inteligentnych termometrów uruchomił stronę internetową, która gromadzi dane z setek tysięcy domów, po to, by prognozować wzrost zakażeń. Aplikacje potrafią rozpoznawać zarażenie koronawirusem po rodzaju kaszlu, a drony zlokalizują z powietrza osoby, które mają gorączkę. Technologia mierzy, a sankcjonujący jej użycie przedstawiciele służb i lekarze, zmieniają te pomiary w nowe normy społecznego funkcjonowania.
Co stanie się z naszymi danymi?
Każdy z nas – nie mając specjalnego wyboru – zgodził się na ograniczenie pewnej części praw. Jeśli mamy wybrać między gwarancją ochrony prywatności, a gwarancją ochrony zdrowia, wybieramy oczywiście zdrowie. Zgodziliśmy się na ograniczenie wolności przemieszczania się z troski, strachu, czasem z chłodnej kalkulacji. Jednak zaczynamy sobie zadawać pytania, co dalej? Dotyczą one pracy, życia osobistego, gospodarki i polityki. Ale stosują się też do informacji, które zebrano na nasz temat w czasie kryzysu. Czy mamy gwarancję, że zebrane w okresie pandemii dane dotyczące adresu zamieszkania i kontaktów z bliskimi, nie będą dłużej przechowywane? W przypadku danych zbieranych w internecie w czasach „normalności” mamy względną kontrolę nad nimi. Dzięki RODO możemy wycofywać nasze zgody na przetwarzanie danych, domagać się ich usunięcia. Teraz sytuacja się skomplikowała, bo ustawodawcy, powołują się na uchwały i specjalne przepisy wprowadzane na czas kryzysu.
Czasowe manipulacje
Eksperci ds. prywatności nie ukrywają zastrzeżeń dotyczących sposobów, w jaki rządy, instytucje a także prywatne firmy używają danych do realizacji polityki bezpieczeństwa. Dane biometryczne i dane dotyczące lokalizacji stały się z dnia na dzień danymi zdrowotnymi. Skanowanie twarzy na granicach traktuje się jako technologię, która służy utrzymaniu higieny. O ile takie sposoby interpretacji w czasie największego zagrożenia wydają się sensowne, to utrzymywanie tych metod na dłużej będzie niebezpieczne. Jak napisał Yuval Harari w swoim ostatnim artykule opublikowanym w Financial Times: „Do tej pory, kiedy palec dotykał ekranu smartfona i klikał link, rząd chciał wiedzieć, co dokładnie klikał palec. Ale w przypadku koronawirusa zainteresowanie się zmienia. Teraz rząd chce poznać temperaturę twojego palca i ciśnienie krwi pod skórą”
Syndrom Cambridge Analityca
Niebezpieczeństwo wycieku danych, które trafią do stron trzecich, jest wysokie. I wcale nie mówimy tu o atakach hakerskich. Afera Cambridge Analityca pokazała, że logując się na Facebooku do gier i quizów, ułatwialiśmy dostęp do naszych danych podmiotom zewnętrznym. Z podobnym mechanizmem możemy mieć do czynienia w sytuacji, gdy logujemy się do aplikacji do monitorowania samopoczucia lub kontaktów z zakażonymi. Sytuacja o tyle staje się niebezpieczna, że dane zebrane w okresie pandemii, dotyczą zdrowia, a one są zawsze łakomym kąskiem dla banków i firm ubezpieczeniowych. Ponadto, czy mamy gwarancje, że dane zbierane na potrzeby instytucji zajmujących się ochroną zdrowia, nie trafią prędzej czy później do służb zajmujących się bezpieczeństwem i do rąk polityków? Pytania te są teraz aktualne w niemal każdym kraju.
Deklaracje rządów
COVID-19 jest kryzysem niespotykanym, bo ma zasięg globalny. Jednak podejście społeczeństw do kwestii prywatności jest oczywiście różne. Singapur zadeklarował, że jego aplikacja TraceTogether nie rejestruje danych lokalizacji, ani nie ma dostępu do listy kontaktów użytkownika smartfona. Zbiory danych są przechowywane na telefonach w postaci zaszyfrowanej. Takie szyfrowanie zapowiadają też Google i Apple, które pracują nad podobną aplikacją. Co ciekawe, na skorzystanie z gotowego software’u tych firm nie zgodziły się władze Francji, które dążą – póki co bezskutecznie – do stworzenia własnych rozwiązań. Korea Południowa poinformowała, że działania związane z gromadzeniem informacji zakończą się po zakończeniu epidemii i że wszystkie dane osobowe obywateli zostaną usunięte.
Co dalej?
Każdy program społeczny, szczególnie kryzysowy, powinien być ograniczony czasowo. Sytuacji, w której przedstawiciele służb mogą bez problemu wiedzieć, gdzie w danym momencie znajduje się wybrany mieszkaniec danego kraju, nie można traktować jako wzorca normalności. Nie jest takim wzorcem zarządzanie danymi milionów obywateli tak, jakby były one danymi wojskowymi. W pewnym momencie oznaki przezwyciężenia kryzysu rozumianego w kategoriach zagrożenia zdrowia, nadejdą. Czy tym pozytywnym sygnałom będą towarzyszyły deklaracje rządów o powrocie do normalności w kwestii ochrony naszych danych – tego nie wiemy.
. . .
Cytowane prace:
Financial Times, Yuval Noah Harari: the world after coronavirus. This storm will pass. But the choices we make now could change our lives for years to come, Link, 2019.
. . .
Powiązane artykuły:
– Uczmy się jak maszyny, a nawet bardziej
– Już czas, by pogadać z maszyną
– Czy algorytmy będą popełniać zbrodnie wojenne?
Zoeba Jones
juz wkraczalismy od dawna. Covid tylko dal nam wymowke
Zeta Tajemnica
Tak mnie natchnęło: co jeśli Musk kombinuje z AI w „bezpiecznych i kontrolowanych” warunkach? Bo przecież:
Hawking, Job i chyba nawet Gates przestrzegają(li) przed zagrożeniami ze strony sztucznej inteligencji.
W strefie poza ziemskiej jako terenie niczyim można robić wszystko (!).
Sam fakt wystrzelenia auta w kosmos jako reklama czy zrobienie czegoś bo można mimo wszystko do mnie nie trafia.
Swoją drogą, jeśli to prawda, bezpieczne i kontrolowane warunki mogą okazać się niedostateczne – AI może „ewoluować”. Jako że w jakiś sposób należy badać postęp badań, Musk labs będą próbowali się skontaktować ze swoim obiektem. Podczas „połączenia” może coś przeskoczyć – dzisiaj do drugi nastolatek potrafi złamać wiele zabezpieczeń i rootować systemy operacyjne co najmniej telefonów. Strach się bać!
Krzysztof Bikowski
Obudzccie sie. Juz dawno tam jesteśmy
Adam
Dobry wpis. Niestety nie fajna przyszlosc
John Accural
Juz dawno tam jestesmy. Zadne odkrycie
Piotr Kocisz
Super wpis
JacekPaczka
Podane przykłady zaskakują. Brzmi to tak, jak gdyby wszystkie eksperckie systemy AI projektowali dyletanci. AI trenuje się na danych historycznych i w otrzymywanych potem wynikach nie ma żadnych uprzedzeń. Są jedynie zawarte prawdy o stanie społeczeństwa. Jeśli chcemy arbitralnie wprowadzić modyfikację do otrzymywanych wyników (np. równość płci) to należy odpowiednio ręcznie wpłynąć na wagi poszczególnych parametrów na etapie uczenia. To o czym piszę to absolutny elementarz projektanta systemów AI. Skąd zatem te groteskowe przykłady? Kto projektował te systemy, że wyniki tak się rozjechały z oczekiwaniami? Ktoś oczekiwał że w imię poprawności politycznej AI sama przymknie oczy na wyższe statystyki przestępczości w afroamerykańskich dzielnicach?
Adam T
Hmm, jeśli algorytm przetwarza wszystkie możliwe dane, również takie jak faza księżyca, to czy to jego wina czy zachowań mających wpływ na dane statystyczne? Podejrzewam, że w swoich wyliczeniach doszedł też do wniosku, że bruneci częściej wracają do drogi przestępczej niż blondyni lub na odwrót, albo ludzie preferujący koty nad ludźmi preferującymi psy, albo wąsacze nad brodaczami. To nie algorytm jest rasistą tylko ludzie, którzy w 2020 roku uważają kolor skóry za bardziej istotny od koloru włosów.
Co do zmian na świecie, podejrzewam że algorytm zbiera nowe dane na bieżąco i jeśli tylko takie zmiany nastąpią to zmieni on swoje postrzeganie.
Oniwaban
Dobry wpis. Niestety ludzie są zbyt nielogiczni dla AI. Oczywiście będą zabezpieczania na niskim poziomie implementacji AI, typu, że nie wolno krzywdzić ludzi itp. Nietrudno jednak wyobrazić sobie hakerów rosyjskich, czy koreańskich, którzy przy pomocy złośliwego oprogramowania i lukach w zabezpieczeniach, będą przejmować kontrolę nad AI, np: autonomicznymi dronami, robotami bojowymi i wykorzystywać do własnych celów. Usuną ludzi z równania i po wszystkim. Są znane przypadki przejęcia kontroli nad samochodami autonomicznymi w trakcie jazdy.