• System poprawnie odgaduje większość wyroków w sprawach łamania praw człowieka
  • Dostarczenie kompletnych danych może oznaczać formułowanie sprawiedliwych orzeczeń
  • Czy sztuczna inteligencja może osądzać, czy państwo skrzywdziło obywatela?

Gdy algorytm źle zarekomenduje dla ciebie brzydkie trampki w sklepie internetowym, na pewno nic złego się nie stanie. Ale jeśli źle lub stronniczo wyda wyrok? Cena błędu drastycznie wzrasta.

Coraz bardziej obiecujące, albo też przerażające są sygnały, że maszyny będą sądzić w ludzkich sprawach. Tymczasem badacze z brytyjskich i amerykańskich uniwersytetów z pomocą inteligentnych systemów sprawdzili, czy SI może wyrokować w sprawach związanych z łamaniem praw człowieka. Algorytmy wykazały się 79-procentową skutecznością.

Po co sprawdzać?

Czy człowiek może się mylić wydając wyrok? Tak. Nawał pracy sądów wymusza opracowanie systemów wspierających ważne decyzje. Naukowcy uważają, że zbudowanie tekstowego systemu predykcyjnego orzeczeń sądowych może okazać się przydatnym narzędziem pomocniczym dla prawników i sędziów.

System można wykorzystać do szybkiej identyfikacji przypadków i wyodrębnienia wzorców korelujących z pewnymi wynikami. Takie podejście nie jest wcale nowe. Już w latach 60-tych i 70-tych możliwości maszyn w tej dziedzinie zgłębiał m.in. prawnik i analityk Reed C. Lawlor, były prezes Specjalnego Komitetu ds. Pozyskiwania Danych Amerykańskiej Izby Adwokackiej. Przypuszczał, że komputery będą kiedyś w stanie analizować i przewidywać wyniki orzeczeń sądowych.

Według Lawlora, zwanego pionierem śledczym w zakresie stosowania technologii komputerowej i nowoczesnej logiki w prawie, wiarygodne przewidywanie działalności sędziów miało zależeć od naukowego zrozumienia, w jaki sposób prawo i fakty wpływają na odpowiednie decyzje sędziów.

Nowe czasy – nowe narzędzia

W 1962 roku Lawlor pisał, proroczo przewidując wykorzystanie informatyki w prawie, że „prawnik musi poradzić sobie z większą liczbą przepisów, większą liczbą problemów oraz większą liczbą organów sądowych i administracyjnych niż kiedykolwiek wcześniej. Stare metody pracy są nieodpowiednie i potrzeba nowych narzędzi.”

Szybki rozwój sztucznej inteligencji dał je obecnie wszystkim zainteresowanym naukowcom i praktykom. W Estonii już niebawem orzeczenia w sprawie sporów o wartości do 7 tys. euro będą wydawać algorytmy. Powstają też coraz bardziej dokładne i skuteczne modele predykcyjne wyroków sądowych.

Mniejszość do raportu

Czy nadchodzi coś na kształt „sprawiedliwości predykcyjnej”, jaką mogliśmy oglądać w obrazie science fiction „Raport mniejszości” z 2002 roku? Steven Spielberg pokazał nam w nim rok 2054, w którym można przewidzieć przyszłość, a winnych ukarać, zanim popełnią zbrodnię, a komisarz John Anderton (Tom Cruise) zostaje oskarżony o morderstwo, do którego jeszcze nie doszło.

Dziś w wielu amerykańskich stanach algorytmy oceny ryzyka wspierają decyzje sędziów, czy podejrzanego lub oskarżonego umieścić w areszcie, bo pozostawienie go na wolności może stanowić ryzyko popełnienia kolejnych przestępstw. Choć te systemy są już w użyciu od kilkunastu lat, nadal wzbudzają kontrowersje i są oskarżane o stronniczość.

Tymczasem naukowcy z Uniwersytetów w Londynie, Sheffield i Filadelfii postanowili sprawdzić, czy maszyny mogą orzekać podobnie jak sprawiedliwy człowiek, w innych niż finansowe spory, opierając się wyłącznie na przetwarzaniu języka naturalnego. Na pierwszy ogień wzięli orzeczenia Europejskiego Trybunału Praw Człowieka. Powstało pierwsze systematyczne badanie dotyczące przewidywania wyników spraw rozpatrywanych przez ETPC na podstawie dostępnych treści tekstowych.

Niezliczone skargi

ETPC jest międzynarodowym sądem, który orzeka w sprawie indywidualnych lub, znacznie rzadziej, skarg składanych przez państwo, w których domniemane jest naruszenie praw obywatelskich i politycznych określonych w Europejskiej Konwencji Praw Człowieka.

Przed sąd trafiają skargi na państwa, które są sygnatariuszami tej konwencji, czyli członkami Rady Europy. Jest ich obecnie 47. Zdecydowaną większość skarg wniesionych do Trybunału składają osoby prywatne, które mogą się do niego zwracać bezpośrednio, jeśli mają za sobą wykorzystaną całą ścieżkę apelacji w swoim kraju.

Wnioski są najpierw oceniane na podstawie listy kryteriów dopuszczalności. Duża liczba skarg nie spełnia warunków dopuszczenia. Sprawa może zostać przydzielona jednemu sędziemu, trzyosobowemu komitetowi lub siedmioosobowej izbie. Jeżeli sprawa przejdzie ten pierwszy etap, rozpatruje ją sędzia, albo izba, albo komitet, albo Wielka Izba w składzie 17-osobowym.

W 2015 roku izby nie dopuściły do dalszego procedowania 900 wniosków, komisje ok. 4100 skarg, a około 78 700 do dalszej procedury nie zostało dopuszczonych przez pojedynczych sędziów. W tym samym czasie zapadło niecałe 900 wyroków.

Tortury, poniżanie, prywatność

To właśnie te wyroki naukowcy wzięli pod uwagę. Badacze skupili się na sprawach, które można znaleźć w elektronicznej bazie informacji sądu HUDOC. Zbiór danych przygotowali na podstawie spraw związanych z artykułami 3, 6 i 8 Konwencji, prowadzonych w języku angielskim (zakaz tortur i poniżania, prawo do sprawiedliwego procesu i prawo do poszanowania własnego życia prywatnego i rodzinnego, domu i korespondencji).

Pozyskali dane łącznie z 584 spraw, które zawierały najwięcej danych i mogły być automatycznie pobrane, poza tym dotyczyły najczęstszych naruszeń Konwencji. Badacze stworzyli binarne zadanie klasyfikacyjne, w którym wkładem klasyfikatorów jest treść tekstowa wyodrębniona ze sprawy, a docelowym wynikiem jest rzeczywista ocena, czy doszło do naruszenia artykułu konwencji praw człowieka. Informacje tekstowe są reprezentowane przy użyciu ciągłych sekwencji słów.

Przeszkody dla maszyn

Okazało się, że model potrafi przewidywać decyzje sądu z dużą dokładnością, średnio jest to 79 procent. „Analiza empiryczna wskazuje, że formalne fakty sprawy są najważniejszym czynnikiem predykcyjnym. (…) Zauważamy również, że treść sprawy jest kolejną ważną cechą tego zadania klasyfikacyjnego i dalej badamy ten związek, przeprowadzając analizę jakościową” – opisują badacze.

Stwierdzają też, że poważnym hamulcem w rozwoju podobnego typu rozwiązań są problemy z dostępem do danych. Duże repozytoria, takie jak HUDOC, są łatwo i bezpłatnie dostępne, ale dostęp do innych rodzajów danych, zwłaszcza złożonych wniosków i dokumentów, umożliwiłby dalsze badania na pograniczu nauk prawnych i sztucznej inteligencji. I udoskonalanie algorytmów, by nigdy się nie pomyliły. Chodzi przecież o człowieka.

Zostawcie coś ludziom

A gdyby tak maszyny miały skazywać państwa za łamanie praw człowieka poprzez nadużywanie przez nie … inteligentnych maszyn, takich jak systemy rozpoznawania twarzy czy wspieranie decyzji o osadzaniu w aresztach?

– Korzystanie ze sztucznej inteligencji tylko ze względu na sztuczną inteligencję nie zawsze może być produktywne lub przydatne. Nie każdy problem najlepiej rozwiązać, stosując do tego inteligencję maszyny – napisał niedawno dr Wiaczesław Poloński, pracownik naukowy UX w Google. Specjalizuje się w uczeniu maszynowym skoncentrowanym na człowieku i jest założycielem Przewodnika Google People + AI, aktywnym członkiem Światowego Forum Ekonomicznego.

Skip to content