Skrzywienie algorytmiczne to znany problem w uczeniu maszynowym. Aby mu przeciwdziałać, stosuje się różne metody usuwania uprzedzeń z modeli sztucznej inteligencji. Czy jednak zawsze warto to robić?

Sztuczna inteligencja działa dzięki danym. Niestety, nie zawsze odzwierciedlają one rzeczywistość. Gdy zbiór danych służący do wytrenowania SI jest niewystarczająco reprezentatywny, może dojść do tzw. skrzywienia algorytmicznego. Przykład?

Weźmy systemy rozpoznawania twarzy. Jeśli do ich nauki użyje się wyłącznie zdjęć ludzi o jasnej karnacji, to nie będą one właściwie działać w przypadku osób czarnoskórych. W rezultacie systemy mogą wykluczać z kategorii „człowiek” wszystkich Afroamerykanów.

Dyskryminacja jest zaraźliwa

Jednak podobna dyskryminacja nie zawsze jest wynikiem błędów czy niedopatrzeń na etapie gromadzenia danych do trenowania modelu. Wiele systemów uczy się cały czas, na bieżąco analizując zachowania realnych ludzi. A ci, jak wiadomo, nie są wolni od uprzedzeń. Tym samym początkowo neutralny system może z czasem stać się stronniczy bądź wręcz rasistowski czy seksistowski.

Znanym przykładem takiej sytuacji był bot firmy Microsoft zbudowany z myślą o interakcjach na Twitterze. W wyniku działania trolli internetowych narzędzie w ciągu kilkunastu godzin zaczęło generować wulgarne i obraźliwe komunikaty – wszystko dlatego, że zostało złośliwie „nakarmione” z zewnątrz spreparowanymi treściami.

Podobne sytuacje, choć nie tak skrajnie negatywne, zdarzają się jednak na co dzień w przypadku wielu innych systemów. Po prostu działają tu analogiczne mechanizmy: narzędzie nie ma zmysłu moralnego i uważa każdy komunikat za tak samo wiarygodny. Skutki?

Usuwanie uprzedzeń czy cenzura?

Jamie Brandon, analityczka danych z amerykańskiej firmy CallMiner, w swoim niedawnym artykule w „AI Ethics” opisuje, jak podobne mechanizmy mogą w systemach analizujących rozmowy z klientami negatywnie wpływać na ocenę pracy konsultantów. Na czym dokładnie polega problem?

Otóż system może uznać, że padające pod adresem konsultantów obelgi czy wulgaryzmy są równoznaczne z określeniami typu „głupi” czy „niekompetentny” i jako takie adekwatnie opisują ich umiejętności. W takiej sytuacji wypowiedzi ewidentnie agresywne i obraźliwe są przez system interpretowane jako obiektywne oceny pracowników.

Aby temu zaradzić, często stosuje się tzw. debiasing, czyli usuwanie uprzedzeń z danych (od ang. bias – uprzedzenie). Taka metoda wydaje się uczciwa i pożądana – w końcu broni pracowników przed negatywnymi konsekwencjami nieuprawnionych zarzutów.

Brandon przestrzega jednak przed takim podejściem. Nazywa je cenzurowaniem modelu i twierdzi, że może być ono uzasadnione wyłącznie tam, gdzie SI działa w pełni autonomicznie, bez żadnego nadzoru człowieka. Natomiast w sytuacji, gdy dany system kontrolują ludzie, przynosi to więcej szkód niż pożytku. Dlaczego?

Ponieważ usuwa z pola widzenia zasadnicze wyzwanie. Nie chodzi bowiem tylko o to, czy algorytmy są dyskryminujące, czy też nie. Rzecz w tym, że u źródła problemu są w wielu przypadkach żywi ludzie i ich agresywne zachowania wobec innych.

Bot odporny na zniewagi

Zamiast więc czyścić zbiory danych z przejawów dyskryminacji ze strony klientów, Brandon sugeruje wzmożone prace analityczne. Dzięki nim kierownictwo firmy miałoby lepszy wgląd w realne doświadczenia swoich pracowników i trudności, na które napotykają w codziennej pracy. Dopiero takie podejście pozwoli na ich sprawiedliwą ocenę i umożliwi wprowadzenie dodatkowych rozwiązań w sytuacjach podbramkowych (np. gdy agresywny klient znieważa pracownika, powinien interweniować menedżer).

W tym przypadku negatywne efekty działania modelu SI nie są traktowane wąsko jako problem czysto techniczny, ale zyskują szerszy społeczny kontekst. Kłopot w tym, że wymaga to dodatkowej pracy analitycznej oraz większego zaangażowania ze strony kierownictwa.

Czy dzisiejsze firmy są gotowe na podobne inwestycje, by lepiej troszczyć się o swoich pracowników i zwalczać przejawy społecznej agresji? Wiele wskazuje na to, że nie. Bardziej prawdopodobny wydaje się scenariusz, w którym żywi konsultanci będą zastępowani przez boty. A te zapewne każdy klient będzie mógł obrażać do woli.

Skip to content