Powierzając opiekę nad dzieckiem obcej osobie, zakładasz, że trafisz na kogoś odpowiedniego. A jeśli nie? Skąd pewność?

By wybór nie był loterią, biznes zaprzągł do pracy zaawansowane algorytmy, które mają pomóc ocenić, na ile kandydat na opiekuna godzien jest zaufania. Problem polega na tym, że komputer również może się w swojej ocenie pomylić.

Tu i ówdzie zaczynają kiełkować firmy zajmujące się pomocą w rekrutacji kadr. Swoje usługi opierają na wykorzystaniu głębokiego uczenia maszynowego. Kandydatów nie prześwietla już pracownik działu HR. Zajmują się tym systemy komputerowe, które analizują aktywność przyszłych pracowników w sieciach społecznościowych.

Odpowiedzialne za przetwarzanie tekstu, obrazu oraz sposobu wypowiadania się algorytmy drobiazgowo analizują całe nasze cyfrowe życie i na podstawie pozyskanych informacji mają dać rekruterom szybką i prostą odpowiedź: nadaje się czy nie? Niczym w łyżwiarstwie figurowym, człowiek dostaje ocenę swojej przydatności do pracy jako werdykt zespołu sędziów.

Rysy na krysztale

Taki model działania promuje między innymi nowy kalifornijski start-up Predictim, zajmujący się wyszukiwaniem osób do opieki nad dziećmi. Za sprawą, jak to określa, „zaawansowanej sztucznej inteligencji” ocenia osobowość kandydata w oparciu o treści publikowane na Facebooku, Twitterze i Instagramie. Spełnienie marzeń rodziców, dla których niekaralność i nieposzlakowana opinia to za mało.

Osoba ubiegająca się o posadę musi podać swoje personalia i umożliwić szeroki dostęp do swoich kont w serwisach społecznościowych. Oczywiście, może odmówić, ale przyszły pracodawca zostanie o tym powiadomiony. Predictim otwarcie uzależnia szansę na potencjalne zatrudnienie od przejścia całej procedury. Co więcej, końcowy raport otrzymuje wyłącznie rodzic, który o jego treści nie musi informować nawet osoby ubiegającej się o pracę.

I tu pojawiają się pierwsze rysy. Po pierwsze, nie wiemy, jak wygląda sam proces treningu maszyn, nie wiemy więc też, jak system radzi sobie z wieloznacznością treści publikowanych w sieci. Z wyjątkiem skrajnych przypadków rodzice dostają jedynie sugestie na temat zachowań wzbudzających wątpliwości, bez podania konkretnych przykładów. Żadnych linków czy nawet fraz, których sens można by samemu ocenić.

Po drugie – i może nawet ważniejsze – kryteria oceny budzą wątpliwości. „The Washington Post” opisał przypadek 24-letniej wzorowej kandydatki na opiekunkę, u której współczynnik ryzyka zażywania narkotyków algorytm ocenił jako bardzo niski: 1 na 5 punktów, ale w kategorii możliwości znęcania się, dokuczania, nieszanowania i złego nastawienia ryzyko – nie wiadomo, dlaczego rosło do 2 na 5 punktów. Wzbudziło to zaniepokojenie zarówno rodziców, jak samej zainteresowanej.

Czarna skrzynka, czarna magia

W kontekście głębokiego uczenia maszynowego szczególnie często używa się porównania do czarnej skrzynki, tajemniczego pudełka z guzikami i pokrętłami, którego zawartość i sposób działania pozostają dla postronnych zagadką. W przypadku algorytmów nie widać wyraźnej ścieżki podejmowania decyzji i uczenia się. A przecież to, czego nie znamy, budzi w nas strach.

Profilowanie ludzi na podstawie działań algorytmów zamkniętych w czarnych skrzynkach krytykują również eksperci w dziedzinie SI. Jak zauważa prof. Peter Gloor z Massachusetts Institute of Technology, usługom w stylu Predictim brakuje transparentności. Komputer wystawia nam laurkę albo rujnuje reputację, ale nie potrafi wyjaśnić, jak do tej decyzji doszedł. Typowy przykład oceny książki po okładce.

Na domiar złego większość algorytmów mających klasyfikować znaczenie tekstu i obrazu w internecie słabo radzi sobie z typową dla ludzi umiejętnością zdroworozsądkowego myślenia. Mówiąc wprost, maszyna (jeszcze) „nie czuje bluesa”, nie zna pojęcia sarkazmu, ironii, nie ma poczucia humoru. Na odróżnianiu niegroźnego komentarza od mowy nienawiści potykają się nawet najwięksi technologiczni giganci pokroju Facebooka.

Jak dowiedzieli się dziennikarze Reutersa, projekt algorytmu rekrutującego, nad którym pracowano w Amazonie, ostatecznie porzucono, gdy okazało się, że faworyzuje on mężczyzn. Bazując na danych z przeszłości system błędnie zinterpretował, że cechy reprezentowane przez kobiety (stanowiące mniejszość w branży IT) są od męskich mniej wartościowe.

Przejrzystość, nadzór i prywatność

Powyższe przykłady wyraźnie pokazują, że droga przed nami jeszcze daleka. Poza wspomnianym brakiem transparentności algorytmów systemom brakuje niezależnego nadzoru. Szczególnie w kontekście przyszłych systemów, które mają wspomagać organy ścigania w analizie negatywnych zachowań i na tej podstawie ferować wyroki. A ludziom nie wystarczy postawić zarzutów. Trzeba je też dobrze uzasadnić.

Obawy budzi również zachowanie prywatności, co wskazuje wspomniany prof. Peter Gloor. Proponuje on wzorowanie się na polityce prywatności stosowanej w Google Maps. Informacje zbiorcze są tam dostępne dla ogółu użytkowników, ale dostęp do informacji indywidualnej (np. lokalizacji) jest ograniczony wyłącznie do osoby indywidualnej. Owszem, Mapy Google gromadzą informacje o lokalizacji, ale nie są one udostępniane każdemu.

Na obecnym etapie trudno ocenić prawidłowość decyzji podejmowanych przez algorytmy specjalizujące się w selekcji kandydatów do pracy. Brak stosownych metryk sygnalizuje między innymi Upturn, mieszczący się w Waszyngtonie think tank zajmujący się analizą skuteczności tych rozwiązań.

Być może na przyznanie maszynom prawa do podejmowania decyzji, które mają realny wpływ na życie ludzi, jest jeszcze za wcześnie.

Skip to content