Zastanawiasz się, na które sfery twojego życia mogą wpływać algorytmy? Niemal na wszystkie. Czy to powód do niepokoju? Niekoniecznie, pod warunkiem że jesteś świadomy ich zastosowania oraz masz nad nimi kontrolę. Innymi słowy: tak, jednak powinieneś się martwić

Nasze dane są dziś rozproszone w licznych systemach, którymi zarządzają różne instytucje i firmy. Z istnienia wielu z nich nie zdajemy sobie nawet sprawy. Mimo naszej niewiedzy ich rola w decyzjach dotyczących naszego życia ciągle wzrasta. Przyznanie kredytu, wyrok sądowy czy przyjęcie do pracy to tylko kilka obszarów, w których o naszej przyszłości mogą już dziś decydować algorytmy.

Przecież mamy RODO

Największy kłopot z algorytmami polega na tym, że zwykle nie mamy wglądu w logikę ich działania: nie rozumiemy, jakie przesłanki oraz sposób wnioskowania doprowadziły je do takiego czy innego wyniku. Co więcej, nie wiemy też o wielu danych, które są podstawą naszych cyfrowych profili tworzonych przez firmy czy instytucje. A co z unijnym rozporządzeniem o ochronie danych osobowych? – ktoś zapyta.

Faktycznie, RODO już od roku chroni dane obywateli Unii Europejskiej. W rzeczywistości obejmuje ono jednak nie wszystkie ważne informacje na nasz temat. Poza wpływem rozporządzenia pozostają tzw. dane wywiedzione, czyli takie, które algorytmy wywnioskowały na podstawie jakichś innych źródeł. Specjalizujący się w psychometrii dr Michał Kosiński z Uniwersytetu Stanforda dowiódł kilka lat temu, że odpowiednio duży zbiór danych porównawczych (na przykład z Facebooka) pozwala tworzyć precyzyjne profile osobowe z użyciem na pozór neutralnych danych. To rezultat korelacji, czyli statystycznej oceny wspólnego występowania jakichś zjawisk czy cech, która pozwala określić prawdopodobieństwo zaistnienia jakiejś sytuacji.

Domniemanie winy

Korzystając z korelacji, system może więc na przykład wyciągnąć mniej lub bardziej zasadne wnioski dotyczące różnych, często wrażliwych, sfer naszego życia, jak wyznanie, preferencje seksualne, poglądy polityczne, wypłacalność czy skłonność do popełnienia przestępstwa. Wszystko to bez konieczności sięgania do naszych wprost wyrażonych deklaracji!

Najwyższy czas ukrócić patologie obecnego systemu, w którym to obywatel czy konsument ponosi konsekwencje błędnych decyzji algorytmów

Jeśli system błędnie zakwalifikuje zachowanie danej osoby jako negatywne, to konsekwencje takiej decyzji mogą być bardzo trudne do odwrócenia. Nie wystarczy bowiem poprawić dane w jednej bazie. Błędne informacje w bardzo prosty sposób mogą się przedostać do innych systemów i obciążyć czyjeś konto, skutkując negatywnymi konsekwencjami na wielu polach. Może się tak zdarzyć w wyniku działania tak zwanych data brokerów, czyli firm handlujących danymi.

Niestety, sprostowanie pomyłki spada na poszkodowanego, który musi sobie zadać wiele trudu, by udowodnić, że informacja na jego temat jest nieprawdziwa. Logika systemu jest bowiem taka, że jeśli raz nie miałeś szczęścia i zostałeś mylnie zaklasyfikowany, to taka etykietka może ci szkodzić przez długie lata. I to ty – ofiara – musisz udowodnić, że zaszła pomyłka.

Buntownicy z powodu

Z takim funkcjonowaniem algorytmów nie godzi się dziś wielu obserwatorów cyfrowej transformacji. Eksperci z brytyjskiego think tanku New Economic Foundation (NEF) opublikowali niedawno rekomendacje dotyczące uregulowania działania algorytmów w cyfrowym świecie.

Ich zdaniem najwyższy czas ukrócić patologie obecnego systemu, w którym to obywatel czy konsument ponosi konsekwencje błędnych decyzji algorytmów, a firmy tworzące bądź stosujące algorytmy nie muszą odpowiadać za ich działanie, nawet gdy odbywa się ono ze szkodą dla obywatela.

O tym, jak poważne i dalekosiężne mogą być efekty pomyłek algorytmów, kilka lat temu przekonała się Amerykanka Catherine Taylor. W jednej z komercyjnych baz danych przy jej nazwisku znalazła się nieprawdziwa informacja o zarzutach dotyczących próby produkcji i sprzedaży metamfetaminy. Choć firma administrująca bazą poprawiła pomyłkę, informacja o złamaniu prawa jeszcze długo prześladowała kobietę. Błędne dane znalazły się bowiem w wielu innych systemach, co kosztowało Taylor kilka lat udręki, gdy piętno przestępcy uniemożliwiało jej nie tylko wzięcie kredytu na dom, ale nawet zakup nowej pralki.

Według autorów algorytmy mogą oddziaływać niekorzystnie w trzech przypadkach:

  • Gdy są źle zaprojektowane i dają błędne wyniki.
  • Gdy wykorzystują dane, które są zastrzeżone, lub też na podstawie danych pozornie neutralnych wnioskują o informacjach wrażliwych (np. określanie statusu społecznego czy koloru skóry w oparciu o kod pocztowy, który pozwala zidentyfikować dzielnicę zamieszkania).
  • Gdy wykorzystują błędne dane występujące w cyfrowym profilu osoby.

Eksperci z NEF sądzą też, że w dzisiejszych systemach podejmowania decyzji za pomocą algorytmów brakuje zasadniczego komponentu: odpowiedzialności. Dotyczy to właściwie dwóch poziomów: tworzenia i wykorzystywania algorytmów przez firmy i instytucje oraz skali naszej zależności od decyzji algorytmów. W tym pierwszym przypadku chodzi więc o narzucenie odpowiedzialności podmiotom używającym algorytmów, w tym drugim – o precyzyjne wskazanie granic naszej odpowiedzialności za decyzje podejmowane przez algorytmy w sprawach, które nas dotyczą.

Odzyskać dane

Aby zmienić stan faktyczny, potrzebny jest nowy system, który z jednej strony pozwalałby nam łatwo i wygodnie potwierdzać swoją tożsamość online, z drugiej zaś umożliwiał sprawowanie kontroli nad naszymi danymi i zarządzanie cyfrowym profilem.

Eksperci New Economics Foundation rekomendują, by odpowiedzialność była wbudowana w nowo powstające systemy na pięciu poziomach:

  1. W przypadku każdego systemu wykorzystującego algorytmy powinna istnieć konkretna osoba odpowiedzialna za jego działanie i efekty.
  2. Każda decyzja wygenerowana przez algorytm powinna być możliwa do wyjaśnienia osobom, na których życie ma ona wpływ.
  3. Osoby budujące czy wdrażające dany system powinny mieć jasną świadomość jego newralgicznych elementów, w których mogą wystąpić błędy.
  4. Algorytmy wykorzystywane w systemie powinny umożliwiać przeprowadzenie audytu zewnętrznego, tak by ocena poprawności ich działania nie stanowiła problemu.
  5. Algorytmy służące podejmowaniu decyzji na temat osób czy społeczności powinny być oceniane pod względem podatności na dyskryminację. Kryteria i wyniki takiej oceny powinny być jawne i zrozumiałe.

Oprócz tego autorzy rekomendacji proponują również utworzenie dwóch systemów, które zrewolucjonizowałyby dzisiejszy ekosystem danych osobowych. Chodzi o tzw. paszport cyfrowy (Digital Passport system) oraz państwowe repozytorium danych (National Data Store).

Warto śledzić losy pomysłu New Economics Foundation w Wielkiej Brytanii. Jego powodzenie mogłoby bowiem świadczyć o zmianie modelu biznesowego w całym zachodnim świecie

Pierwszy z wymienionych systemów pozwalałby obywatelom na bezpieczną identyfikację w świecie cyfrowym, a zarazem chronił ich przed niepotrzebnym udostępnianiem danych wrażliwych (np. byłoby możliwe stwierdzenie czyjejś pełnoletniości bez jednoczesnego ujawniania tożsamości takiej osoby). Z kolei drugi dawałby możliwość kontroli i zarządzania naszymi cyfrowymi profilami, tak by znajdowały się tam tylko te informacje, które uważamy za stosowne, jak również – by dostęp do nich miały wyłącznie te instytucje, którym chcemy go dać.

Twórcy rekomendacji przekonują, że takie rozwiązania oraz wprowadzenie restrykcyjnego prawa dotyczącego większej odpowiedzialności firm za wykorzystywanie własnych baz danych osobowych doprowadziłoby do ucywilizowania sytuacji. Obywatele na powrót staliby się właścicielami własnych danych, a firmy zaakceptowałyby nowy model dostępu do nich, dostrzegając jego elastyczność, wydajność i brak ryzyka związanego z zarządzaniem wrażliwymi zasobami.

Warto więc śledzić losy tego pomysłu w Wielkiej Brytanii. Jego powodzenie mogłoby bowiem świadczyć o zmianie modelu biznesowego w całym zachodnim świecie. Także nad Wisłą.

Skip to content