Inteligentny program sprawi, że prawnicy w San Francisco będą naprawdę wolni od uprzedzeń

Eksperci od sądownictwa są zgodni: to pierwszy taki eksperyment na świecie. Od lipca urząd Prokuratora Okręgowego San Francisco będzie korzystał z nowego systemu sztucznej inteligencji. Umożliwi on usuwanie niektórych danych identyfikacyjnych z raportów policyjnych i pozostawienie tam jedynie kluczowych faktów. Parę dni temu ogłosił to George Gascon, prokurator okręgowy San Francisco.

Chodzi o to, by w wymiarze sprawiedliwości wpływ uprzedzeń rasowych i etnicznych na wyroki był jak najmniejszy. Nie tylko uprzedzeń ludzkich, ale w konsekwencji także uprzedzeń algorytmicznych. W niektórych stanach USA, m.in. w Kalifornii, algorytmy SI służą już bowiem do przewidywania, jak w przyszłości zachowa się oskarżony – na przykład jakie jest prawdopodobieństwo, że znowu popełni przestępstwo.

Amerykański system sprawiedliwości „od zawsze” gorzej traktował tych obywateli, którzy nie byli WASP (White Anglo-Saxon Protestant – białymi anglosaskimi protestantami), i to najlepiej rodzaju męskiego. W najgorszej sytuacji byli i wciąż są Afroamerykanie. Jak pokazują statystyki, uprzedzenia rasowe funkcjonują właściwie na wszystkich poziomach wymiaru sprawiedliwości: od momentu gdy policjant aresztuje podejrzanego, przez prokuratora, aż po sędziego, który ogłasza wyrok.

W latach 2008-2014 Afroamerykanie stanowili 41 proc. aresztowanych w San Francisco, choć to jedynie 6 proc. mieszkańców miasta

Dlaczego więc sztuczna inteligencja ma wspierać głównie prokuraturę? Otóż w amerykańskim systemie sprawiedliwości prokuratorzy cieszą się wyjątkowo mocną pozycją i niezależnością. Są nie tylko prokuratorami – oskarżycielami, ale także obrońcami w sprawach osób ubogich, niemających zawodowego obrońcy. To oni decydują też na ogół o wszczęciu dochodzenia, nadzorują pracę policjantów, a czasem nawet samodzielnie przesądzają o losie rozpatrywanej sprawy.

W 2017 roku raport zlecony przez prokuraturę okręgową w San Francisco wykazał „znaczące nierówności w wyrokach sądowych wynikające z powodów rasowych i etnicznych”. W latach 2008-2014 Afroamerykanie stanowili 41 proc. aresztowanych, choć to jedynie 6 proc. mieszkańców miasta.

Co prawda nie udało się zebrać zbyt wielu dowodów na jawne uprzedzenia w środowisku prokuratorów wobec jakiejkolwiek rasy lub grupy etnicznej, ale głównym celem nowego systemu było co innego. Chodziło o wyeliminowanie uprzedzeń ukrytych, czyli uruchamianych przez z pozoru nieistotne detale, jak choćby egzotyczne brzmienie nazwiska aresztowanej osoby czy złą sławę dzielnicy, w której doszło do jej zatrzymania.

By osiągnąć ten cel, prokuratura okręgowa w San Francisco do spółki z naukowcami z Laboratorium Komputerowego Policji w Stanford zabrała się do budowy nowego systemu opartego na sztucznej inteligencji. Automatycznie wymazuje ona z dostępnych dla sądu elektronicznych rejestrów policji niektóre dane, jak nazwisko, pochodzenie, kolor oczu i włosów podejrzanego. Kasuje również nazwiska świadków i policjantów zaangażowanych w sprawę, bo ich także można czasem skojarzyć z określona dzielnicą.

Zostają jedynie czyste, neutralne fakty dotyczące przestępstwa. I to na nich opiera się wyrok.

– Nasz system wciąż musi polegać na ludziach, policjantach, dostarczających faktów, którzy także mogą być zainfekowani stereotypami – przyznał George Gascon podczas prezentacji nowego systemu. – Dlatego kiedy prokuratorzy, opierając się na zredagowanych przez system raportach policyjnych, podejmą decyzję, będą musieli raz jeszcze, tak na wszelki wypadek, spojrzeć na całość sprawy i ocenić, czy czynią słusznie.

System będzie uniwersalny i dostępny bezpłatnie dla wszystkich zainteresowanych prokuratur w kraju.

Skip to content