Cyfrowe technologie mogą przyspieszyć pracę wymiaru sprawiedliwości, upraszczając procedury czy eliminując nadmiar dokumentacji. Jednak zastosowanie zautomatyzowanych narzędzi w orzecznictwie sądowym pociąga za sobą duże ryzyko. Dlatego od sztucznej inteligencji na sali rozpraw powinniśmy wymagać, by zasady jej działania były całkowicie jawne. A z tym jest problem

Dzięki sprawnej analizie dużych zbiorów informacji systemy uczenia maszynowego mogą wspomóc sędziów w wydawaniu sprawiedliwych wyroków. Zautomatyzowana Temida ma mieć lepszy wgląd w dane dotyczące przeszłych spraw i orzeczeń. W efekcie jej rozstrzygnięcia będą bardziej bezstronne i wolne od ludzkiej arbitralności. Tak przynajmniej twierdzą zwolennicy maszynowej sprawiedliwości. Nie wszyscy prawnicy podzielają taki punkt widzenia.

Kto będzie pilnował strażników?

Przed zbyt pochopnym stosowaniem SI w orzecznictwie sądowym przestrzega Francesco Contini, włoski prawnik i jeden ze współtwórców unijnej Karty etycznego zastosowania SI w sądownictwie. Contini zauważa, że dziś trudno jeszcze wiarygodnie ocenić, czy takie rozwiązania miałyby pozytywny, czy negatywny wpływ na system orzecznictwa.

Znane są przypadki systemów informatycznych, w których przy okazji automatyzacji procedur dochodziło do błędów przez długi czas niedostrzeganych przez użytkowników. Jak zauważa Contini, ludzie korzystający z danej technologii zwykle koncentrują się na jej obsłudze i wydajności, a nie na zasadach jej działania. Podobne ryzyko występuje w przypadku systemów SI. Dlatego wymiar sprawiedliwości nie może im zaufać, dopóki w pełni nie zrozumie, na jakich zasadach funkcjonują.

Kłopot w tym, że algorytmy, wedle których działają systemy uczenia maszynowego, nie są stałe. Wraz z dostępem do nowych danych reguły predykcji mogą ulec zmianie. Dlatego nawet znając wcześniejsze zasady, nie zdobędziemy pewności, że system dalej będzie działał w ten sam sposób.

Algorytm o złym charakterze

Problem z SI w sądownictwie nie polega wyłącznie na nieprzejrzystości algorytmów. Wyzwaniem jest także możliwe „zainfekowanie” systemu uprzedzeniami – maszyna pracuje na orzeczeniach ludzkich, a te nie są wolne od uchybień i stereotypów. Może więc dojść do błędnego koła: system, który miał eliminować niesprawiedliwość i uprzedzenia, sam stanie się ich ucieleśnieniem. Co gorsza, będzie zimny, bezrefleksyjny i pozbawiony skrupułów.

Jeszcze inna trudność może wystąpić, gdy sędzia nie zgodzi się z zaleceniem maszyny. Czy opinia sprzeczna z rekomendacją SI nie będzie budzić wątpliwości i lęków co do zasadności własnego wyroku? W takim wypadku wzrośnie ryzyko niesamodzielności w podejmowaniu niezawisłych decyzji oraz konformizmu wobec zaleceń maszyny.

Dlatego Contini podkreśla, że wprowadzenie do procesu sądowego jakiejkolwiek technologii powinno być możliwe wyłącznie wtedy, gdy zasady jej działania są w pełni zrozumiałe i przejrzyste. Odwołuje się przy tym do zasad sformułowanych w Karcie etycznej SI w sądownictwie:

  1. Szacunku wobec podstawowych praw
  2. Braku dyskryminacji
  3. Jakości i bezpieczeństwa
  4. Przejrzystości, bezstronności i uczciwości
  5. Zapewnienia kontroli użytkownikom

Nie wiadomo, kiedy możemy spodziewać się systemów SI spełniających te wszystkie kryteria. Warto jednak sekundować ich twórcom. W przeciwnym razie możemy być skazani na rozwiązania, w których Temida okaże się zupełnie ślepa. Także na sprawiedliwość.

Skip to content