Śmierć George’a Floyda w Minneapolis wywołała burzliwą dyskusję o uprzedzeniach rasowych, a technologiczni giganci zawieszają prace nad technologią rozpoznawania twarzy lub deklarują, że będą jej się bacznie przyglądać

Zgon afroamerykańskiego obywatela spowodowany przez brutalną napaść białego policjanta nie miała bezpośrednio związku z żadnymi technologiami, choć samo rozpoznawanie twarzy jest testowane w kamerach policyjnych w USA. Ta śmierć wywołała jednak dyskusję, która przeniosła się na amerykańską ulicę. Wznowiono debatę na temat praw osób innych niż białe.

Problemy wieku dziecięcego

Przypomniano nieco przykurzoną już sprawę Amazona i uprzedzeń, które pojawiły się w testowanym systemie do analiz wizji komputerowej przesłanych do firmy zgłoszeń rekrutacyjnych. Wtedy program dyskryminował kobiety. Ale gigant technologiczny ma na sumieniu również inne grzechy. Stosowane algorytmy uznały, że wdrożenie usługi Prime nie ma sensu w dzielnicach zamieszkanych głównie przez mniejszości rasowe. Przypadek? Podobne wpadki ma za sobą choćby Microsoft z seksistowskimi i rasistowskimi wpisami na Twitterze, które tworzył automat do publikacji komentarzy. Pojawiały się też programy dyskryminujące niektóre grupy osób w przypadku prawa do zasiłku.

Technologia rozpoznawania twarzy to jednak trochę inna kwestia. Okazuje się, że rozwiązanie jest na bardzo zaawansowanym poziomie, ale ma swoje problemy, nazwijmy to problemami „wieku dziecięcego”. Tak działa na początku wiele programów. Przykładowo naukowcy z MIT zaobserwowali, iż systemy analizy twarzy łatwiej radzą sobie z rasą białą. W przypadku, kiedy skóra człowieka na zdjęciu jest nieco ciemniejsza lub czarna, systemy mają trudności z rozpoznaniem np. płci, nie mówiąc już o konkretnych rysach twarzy czy detekcji samej osoby. Czy to oznacza, że technologia jest nieskuteczna?

Trzeba przyznać, że ta technologia ewoluuje zarówno w czasie, jak i przestrzeni. Nieoficjalna korona najlepszych algorytmów najpierw była w rękach firm i organizacji z USA następnie w Rosji, Izraelu, by obecnie przejść w ręce Chin. Skuteczność tego rozwiązania wynika jednak nie tylko z inwestycji poczynionych w tę technologię, ale także dostępności odpowiedniego zbioru danych.

– Na początku w Stanach Zjednoczonych technologia ta rozwijała się równolegle z uczeniem maszynowym, czyli uczeniem tych automatycznych algorytmów do rozpoznawania twarzy, potem to przeniosło się do Rosji, gdzie, jak wiadomo, są świetni specjaliści od algorytmów. Potem Izrael i wykorzystanie tych rozwiązań w wojsku, na przykład do śledzenia ludzi. A na koniec Chiny, które dziś stają się liderem. Dlaczego tak się dzieje? Oczywiście w Chinach nie ma ochrony danych osobowych, a zatem system rządowy może wprowadzać do analizy rozpoznawania twarzy tyle danych, ile potrzebuje, budując olbrzymie zbiory danych. To daje ogromną skuteczność, jaka nie może być zapewniona w innych krajach, gdzie ochrona prywatności jest istotna – tłumaczy Mateusz Chrobok, ekspert ds. biometrii behawioralnej z Buguroo.

Chiny potęgą stoją

Brak ochrony wizerunku, olbrzymia próbka danych, a więc algorytmy rozwinęły się w ogromnej skali i skuteczności. Chiny dziś uznawane są za potęgę w technologii rozpoznawania twarzy. To może być powód, dlaczego amerykańskie firmy tak łatwo chcą zrezygnować bądź zmienić swoją politykę w zakresie tej technologii. Nie możemy dostarczyć produktu najskuteczniejszego, więc zrzucamy winę na rasizm. To oczywiście zbyt proste przełożenie, bo jest jeszcze jeden problem – tzw. nadreprezentacja i niedoreprezentacja pewnych danych w zbiorze. Pewne kraje mogą łatwo poradzić sobie ze skutecznością tak jak Chiny, ponieważ mają szerokie bazy danych na temat obrazów twarzy występujących w danym regionie czy kraju. Oczywiście tak skuteczne bazy danych mają swoje minusy. Warto zauważyć, że Chińczycy z dużą skutecznością stosują technologie rozpoznawania twarzy wśród mniejszości ujgurskiej, o co wielokrotnie były oskarżane na forum światowym.

To, czy w danym algorytmie jest nadreprezentacja rasy kaukaskiej, czy rasy żółtej, czy czarnej bądź ich niedoreprezentowanie, ma określony wpływ na taki algorytm. Uczy się on na podstawie próbek, które są mu przedstawiane. Trzeba też pamiętać o regionie, w którym działa dana technologia.

W Chinach nie ma ochrony danych osobowych, a zatem system rządowy może wprowadzać do analizy rozpoznawania twarzy tyle danych, ile potrzebuje, budując olbrzymie zbiory danych

Podobny wpływ na negatywne wnioski z działania tej technologii mogą stać za problemami w USA, co z kolei może skutkować właśnie analizą wskazującą na rasizm, choć z punktu widzenia nauki jest to tylko błąd zbioru. Czy decyzja IBM i Microsoftu o ograniczeniu prac nad technologiami analizy twarzy to tylko PR, a może coś więcej?

Popularna wyjaśnialna SI

– Zakładam, że żaden z algorytmów które są tworzone w Stanach czy w Izraelu, nie będzie miał takiego dobrego przełożenia i dokładności rozpoznawania ludzi jak algorytmy tworzone w Chinach. Dodajmy, że niektóre kraje czy stany w USA nakładają prawne blokady na te technologie. Firmy przejrzały na oczy, widząc, że ich zbiór danych jest słaby. Uważam to za dobry ruch i zyskają na tym wszyscy. Podobnie uczyniła Unia Europejska, która bardzo ostrożnie podchodzi do tej technologii i wprowadza sugestię o zasadach tworzenia sztucznej inteligencji w ramach dokumentu Trustworthy AI. Jednym z bardzo popularnych w ostatnim czasie terminów jest Explainable AI (XAI). Czyli technologia, która będzie w sposób transparentny w stanie uzasadnić wynik swojego funkcjonowania – komentuje Chrobok.

To oczywiste, że każdy człowiek czy instytucja powinny mieć prawo domagać się wyjaśnienia, dlaczego algorytm podjął taką decyzję, a nie inną. Dlaczego czyjeś zachowanie lub wizerunek uznał za niebezpieczne albo potencjalnie groźne. Faktem jest, że taka technologia jeszcze będzie ewoluować. Z pewnością poczekamy też na wyjaśnienia dotyczące decyzji algorytmu.

Zbiory danych w technologii rozpoznawania twarzy zawsze mają jakąś nadreprezentację lub niedoreprezentację i nie są idealne. – Jestem jednak bardzo przeciwny stwierdzeniu, że są to algorytmy rasistowskie, bo nie znam i w życiu nie spotkałem w branży ludzi, którzy tworząc tego typu algorytmy, tworzyliby je z intencją, aby stały się rasistowskie. To raczej wynika z tego, że zbiór danych, który był dla grupy twórców algorytmu dostępny, miał na przykład nadreprezentację białych mężczyzn, co wpłynęło na to, że najlepiej algorytmy rozpoznawały właśnie białe twarze mężczyzn. I stąd wynika ta duża trudność w skuteczności – zaznacza Mateusz Chrobok.

Co więcej, wiele firm wykorzystuje te technologie in plus. Na przykład do wyszukiwania przestępców na lotniskach, analizy twarzy poszukiwanych osób, w tym tych zaginionych. Na koniec warto wspomnieć znów o Amazonie i rozpoznawaniu klientów w sklepie. Oczywiście w takiej sytuacji pojawiają się kwestie etyczne. Dlatego najważniejszym celem jest transparentność rozwiązań wykorzystywanych przez firmy. Automatyczne systemy analizy obrazu niosą pewne zagrożenie dla prywatności.

Jeżeli ta technologia ma służyć wyłącznie do śledzenia osób, to firmy będą miały coraz więcej problemów z dwiema kwestiami: pozyskaniem zgody na pobranie danych do algorytmów oraz zgodnością z prawem tworzonym przez poszczególne państwa w celu ochrony prywatności. Wszystko zależy od celu przetwarzania danych i samych danych, które są zbierane. Te same informacje na przykład związane z przetwarzaniem wizerunku i analizą twarzy mogą być wykorzystane także do pozyskania informacji o tym, kim jesteś, gdzie się przemieszczasz, co robisz po pracy, jakim samochodem się poruszasz, co robisz wieczorem poza domem.

Korona najlepszych algorytmów najpierw była w rękach firm i organizacji z USA, następnie w Rosji, Izraelu, by obecnie przejść w ręce Chin

– Wzrost świadomości związanej z prywatnością jest coraz częściej uwzględniany w prawie i przeciwdziała dowolnemu wykorzystaniu danych. Jednym ze sposobów na uniknięcie problemów jest pomijanie bądź anonimizacja i nieprzesyłanie pewnych informacji analizowanych przez system, które mogą prowadzić do dyskryminacji. Jeżeli algorytm zlicza osoby jadące autem na autostradzie, to nie musi analizować, ile jest tam kobiet, a ilu mężczyzn, ilu białych, a ilu Afroamerykanów. Nie powinien mieć dostępnych informacji o tym, jaka jest religia danego kierowcy. Jedyne wnioski powinny dotyczyć liczby kierowców czy pasażerów. I tyle. Co ważne, algorytmy, które nie skupiają się na dużej ilości danych wrażliwych, są pozbawione tych biasów [stronniczości – red.] – podsumowuje Mateusz Chrobok.

Naukowcy i informatycy w USA też są przeciw

Klimat dla technologii rozpoznawania twarzy w USA staje się coraz bardziej nieprzyjazny. Zagrożenie widzą już nie tylko obywatele czy przedstawiciele firm technologicznych. 30 czerwca 2020 roku Komitet Polityki Technologicznej ACM (USTPC) wezwał do zawieszenia korzystania z technologii rozpoznawania twarzy. ACM, czyli Association for Computing Machinery – Stowarzyszenie dla Maszyn Liczących – to największa na świecie społeczność ludzi nauki, nauczycieli i profesjonalistów zajmujących się informatyką.

W oświadczeniu USTPC można przeczytać, iż Komitet wzywa do natychmiastowego zawieszenia obecnego i przyszłego korzystania z technologii rozpoznawania twarzy w każdej znanej dotąd formie lub takiej, którą można by przewidzieć. Dotyczy to zarówno firm prywatnych, jak i działań rządu USA. Zarzuty, jakie stawia Komitet, są tożsame ze wskazywanymi już zagrożeniami w debacie publicznej. Facial recognition zbyt często – zdaniem USTPC – uderza w podstawowe prawa człowieka, technologia ta generuje dane i wyniki analiz w oparciu o uprzedzenia wobec pochodzenia etnicznego, rasowego, płci, jak i innych cech możliwych do rozpoznania przez systemy komputerowe. Jej stosowanie w przeszłości często zagrażało fundamentalnym prawom jednostek do prywatności, zatrudnienia czy sprawiedliwości i wolności osobistej. Tak może być i w przyszłości.

Jak stwierdził przewodniczący USTPC James Hendler, technologia ta ma wiele łagodnych form zastosowania i świetlaną przyszłość. Ale niefortunnym faktem jest to, że po prostu nie jest jeszcze wystarczająco niezawodnie obiektywna, aby można ją wykorzystać, gdy zagrożone jest życie ludzi, mienie, a na pewno wolność. – Nadszedł czas, aby się zatrzymać, dopóki nie będziemy w stanie używać tej technologii pod odpowiednią kontrolą – zauważył Hendler.

Decyzja koncernów o wstrzymaniu prac nad wspomnianą technologią rozpoznawania twarzy zapewne jest efektem przemian związanych ze wzrostem świadomości dodatkowo wzmocnionym wydarzeniami politycznymi w USA. Wynika ona z faktu, że do tej pory algorytmy uczenia maszynowego często korzystały z niezbilansowanych baz danych ze względu na trudne warunki prawne, w jakich działały. Z pewnością też wizja Wielkiego Brata, który patrzy wszystkim na ręce, nie pomaga w adaptacji technologii, która może być wykorzystywana na wiele sposobów. Prawdopodobnie naukowców w USA, jak i w Europie czeka nowe otwarcie w obszarze technologii rozpoznawania twarzy. Pytanie pozostaje jedno: jak daleko będzie wtedy chiński smok?

Skip to content