Kalifornijski gigant internetowy, lider rozwoju sztucznej inteligencji, rozwiązał zespół ds. etyki. Powołał go… tydzień wcześniej. Jednak niektórzy członkowie komisji byli nie do przełknięcia nie tylko dla pracowników firmy

Rada Doradcza ds. Zaawansowanej Technologii (ATEAC) jako zewnętrzny podmiot miała zajmować się opiniowaniem w kwestiach etycznych, związanych ze sztuczną inteligencją, głównie z uczeniem maszynowym, zwłaszcza z technologią rozpoznawania twarzy.

Wśród ośmiu członków znaleźli się eksperci informatyki i matematyki, badacz ds. ochrony prywatności oraz dyrektor firmy zajmującej się dronami. Już jego powołanie zaczęło rodzić pytania o wykorzystanie SI w celach wojskowych (koncern przeżył rok temu protest kilku tysięcy pracowników przeciw współpracy koncernu z Pentagonem). Google powołał też Kay Coles James, 69-letnią prezeskę Heritage Foundation.

Firma rekomendowała James jako „eksperta w dziedzinie polityki publicznej z dużym doświadczeniem w pracy na szczeblu lokalnym, stanowym i federalnym”. A działania Heritage Foundation opisała jako skupiające się na „przedsiębiorczości nieograniczanej wpływem rządu, wolności jednostki i obronie narodowej”.

Tymczasem niedawno jako członkini Partii Republikańskiej działała m.in. przeciwko ruchowi LGBTQ, imigrantom (popierała np. budowę muru granicznego z Meksykiem), sprzeciwiała się prawu do aborcji. Jej wpływowy think tank z siedzibą w Waszyngtonie jest blisko związany z administracją prezydenta Donalda Trumpa.

Kandydatka bez perspektyw

Po pierwszych głosach krytyki Google ogłosił, że jej członkostwo w zespole ds. etyki pozwala na zgromadzenie na forum rady „zróżnicowanych perspektyw”.

1 kwietnia w liście otwartym grupa pracowników Google wezwała firmę do usunięcia James z rady. Argumentowali, że stanowisko pani prezes chociażby wobec praw transseksualistów i imigrantów dyskwalifikują ją jako osobę, która miałaby decydować o etyce w dziedzinie sztucznej inteligencji.

Sygnatariusze przytaczali przykłady tzw. stronniczości algorytmów (algorithmic bias) sztucznej inteligencji, która nie „widziała” kobiet innych niż białej rasy, błędnie rozpoznawała płeć mężczyzn o bardziej kobiecych głosach czy transseksualistów.

Obawiali się też, że na to skrzywienie nałoży się stronniczość samej zainteresowanej. „Wyznaczając James, Google popiera jej poglądy, sugerując, że jest to ważna perspektywa godna włączenia w proces decyzyjny. To jest niedopuszczalne” – alarmowali autorzy listu. „To sprzeczne z deklarowanymi przez Google’a wartościami”.


Joy Buolamwini z Massachusetts Institute of Technology tłumaczy, na czym polega stronniczość algorytmów.
Źródło: Ted

List sformułowany przez około 50 anonimowych pracowników firmy z Doliny Krzemowej został też opublikowany w internecie. W ciągu kilku godzin podpisało się pod nim ponad 2,3 tysiąca osób, również spoza firmy, m.in. wybitnych naukowców i działaczy związanych z etyką i SI.

Google na list nie odpowiedział, podobnie jak Heritage Foundation. Adresaci zignorowali też prośby o komentarz ze strony mediów.

Krok wstecz

W międzyczasie z udziału w pracach rady zrezygnował ekspert ds. prywatności Alessandro Acquisti. Inny jej członek prof. Luciano Floridi chciał pozostawienia James w radzie, ale potępił jej poglądy.

4 kwietnia rzecznik prasowy Google’a opublikował krótkie oświadczenie o likwidacji zespołu doradczego: „Staje się jasne, że w obecnych okolicznościach ATEAC nie może funkcjonować tak, jak byśmy tego chcieli. Tak więc rozwiązujemy radę (…)”.

Liczne badania wykazały, że algorytmy służące na przykład do rozpoznawania twarzy i inne zautomatyzowane systemy mogą powielać i wzmacniać uprzedzenia. To rosnący problem, ponieważ SI jest już wykorzystywana w systemie wymiaru sprawiedliwości, edukacji czy sektorze finansowym.

W ubiegłym roku Google opublikował wewnętrzny kodeks twórców SI. Rada miała stać na ich straży nowych reguł (druga z nich dotyczyła walki ze stronniczością algorytmów).

Co teraz?

Google zamierza „znaleźć inne sposoby, by zbierać zewnętrzne opinie” w kwestiach związanych z użyciem sztucznej inteligencji.

Skip to content