Prawo i sztuczna inteligencja to nie tylko przepisy regulujące technologię. W grę wchodzi także praktyczne wykorzystanie uczenia maszynowego przez wymiar sprawiedliwości. Czyżby sądownictwo czekała technologiczna rewolucja?

Przykład Estonii, która w ubiegłym roku ogłosiła, że pracuje nad zautomatyzowaniem orzekania w sprawach roszczeń nieprzekraczających 7 tysięcy euro, zdaje się potwierdzać taką tezę. Myliłby się jednak ten, kto podejrzewałby, że to zwiastun powszechnej zmiany. Na roboty w sędziowskich togach przyjdzie nam jeszcze poczekać. Tak przynajmniej twierdzą sami prawnicy.

Opublikowana niedawno monografia Prawo sztucznej inteligencji ostudzi emocje tych wszystkich, których niepokoi wpływ technologii na stosowanie prawa. Choć nie brak w niej wątków, które śmiało można zaliczyć do rozważań futurologicznych (jak choćby kwestia ogólnej SI), dominuje w niej refleksja nad wyzwaniami, z jakimi prawo musi mierzyć się tu i teraz: gdy maszyny nie są jeszcze tak inteligentne, jak chcieliby tego niektórzy wizjonerzy.

Na roboty w sędziowskich togach przyjdzie nam jeszcze poczekać

Obszerny tom zredagowali Luigi Lai (OPI PIB) oraz prof. Marek Świerczyński (UKSW). Znalazło się w nim przeszło 20 artykułów różnych autorów poświęconych rozmaitym aspektom prawa i SI. Zróżnicowana tematyka publikacji wymownie obrazuje zakres problemów, z jakimi mamy do czynienia już dziś: od statusu prawnego SI, przez odpowiedzialność za jej działanie, aż po jej zgodne z prawem wykorzystanie – choćby w roli świadka w postępowaniu dowodowym. Monografia jest skierowana przede wszystkim do prawników, jednak z pewnością zainteresuje też osoby zajmujące się technologiami.

Najpierw definicje

Tom rozpoczyna przydatna analiza autorstwa Tomasza Zalewskiego, który pyta, czym w ogóle jest sztuczna inteligencja. A dokładniej: jakie jej cechy mają znaczenie dla prawnika. Nie chodzi tu o spory czysto terminologiczne, ale o praktyczne konsekwencje przyjętych definicji. Jak bowiem zauważa Zalewski, dziś poruszając temat SI, często milcząco zakładamy, że wiemy, o czym jest mowa. W rzeczywistości jednak definicje te nierzadko się różnią – jeśli ich nie uzgodnimy, naszą uwagę mogą zaprzątnąć niewłaściwe kwestie (np. systemy, które są SI tylko z nazwy, a w praktyce nie mają z nią wiele wspólnego).

Dlatego właśnie potrzebna jest prawna definicja SI. W kontekście regulacyjnym należy w niej uwzględnić trzy kluczowe aspekty danego systemu: zdolność uczenia się, autonomię oraz interakcje z otaczającym światem. Od poziomów zaawansowania w tych obszarach zależy stopień ryzyka danego systemu SI. Czym innym jest bowiem program, którego zakres działania jest predefiniowany, a wszelkie zmiany są efektem decyzji człowieka, a czym innym taki, który ciągle ewoluuje, jest obdarzony dużym stopniem autonomii, a na dodatek funkcjonuje w obszarze szczególnie wrażliwym na ewentualne błędy (np. służba zdrowia).

Kodyfikacja w erze SI

Na zupełnie inny problem zwraca uwagę prof. Dariusz Szostek, który pisze, że tradycyjne pojmowanie prawa nie wystarcza, by skutecznie uregulować sztuczną inteligencję. W czym tkwi problem? W specyfice rzeczywistości ukształtowanej przez technologię.

W cyberprzestrzeni jesteśmy przyzwyczajeni do dostrzegania jedynie produktu końcowego, czyli interfejsu, którego zadaniem jest umożliwiać użytkownikom wygodne funkcjonowanie online. Jednak pod spodem wirtualnej rzeczywistości tkwi kod, który reguluje, co jest dozwolone w cyfrowym świecie. Gdy do gry wkracza SI, sytuacja się komplikuje, ponieważ specyfiką inteligentnych systemów jest ich zmienność. Metoda regulacji powinna więc w tym przypadku również być dynamiczna, przekonuje Szostek. Rozwiązaniem byłoby tutaj zakodowanie prawa w samych inteligentnych systemach.

Monografia jest skierowana przede wszystkim do prawników, jednak z pewnością zainteresuje też osoby zajmujące się technologiami.

Nie spodziewajmy się jednak prędkiego nadejścia samoregulujących się zastępów SI. Droga do sukcesu jest jeszcze bardzo odległa. Problemy dotyczą choćby decyzji o tym, kto miałby ustanowić prawo, które można by zakodować w SI – o ile względnie łatwo wyobrazić to sobie na poziomie Unii Europejskiej, to już w wymiarze globalnym jest to znacznie trudniejsze. Inny problem to kwestia zobligowania firm do wyposażania swoich inteligentnych produktów w konkretne mechanizmy prawne: na jakiej podstawie miałyby one być do tego zobowiązane? Podobnych pytań jest bardzo wiele i zapewne nieprędko uda się wypracować satysfakcjonujące odpowiedzi.

Niech sądzi człowiek

A co z wykorzystaniem SI na sali sądowej oraz w innych instytucjach wymiaru sprawiedliwości? Omawiająca te zagadnienia Maria Dymitruk sceptycznie podchodzi do wizji, w których autonomiczne systemy rozstrzygałyby spory sądowe. Skłonna jest prędzej dopuszczać możliwość wprowadzania narzędzi wspomagających pracę sędziów lub wstępnie analizujących wpływające do sądów sprawy. Skąd ten dystans?

Zdaniem Dymitruk systemy SI nie mogą być oceniane wyłącznie pod kątem swojej technologicznej sprawności. To, że system działa, nie oznacza jeszcze, że jest pożądany. Aby móc go z czystym sumieniem wdrożyć w tak wrażliwym obszarze, jak wymiar sprawiedliwości, musimy mieć pewność, że jego działanie wiąże się z rzeczywistą wartością dodaną, a zarazem nie niesie ze sobą efektów ubocznych, jak np. dyskryminacja. Priorytetowe znaczenie mają bowiem w tym przypadku wartości kierujące postępowaniem sądowym (jak choćby bezstronność) czy społeczne postrzeganie technologii. Kryterium ekonomiczności w żadnym wypadku nie może być tu wyłączne i decydujące, przekonuje badaczka.

Mimo dużej rozpiętości tematycznej, Prawo sztucznej inteligencji nie wyczerpuje wszystkich zagadnień związanych z omawianą problematyką. Redaktorzy tomu zapowiadają zresztą jego rychłą kontynuację – tym razem w języku angielskim. Z pewnością jest ona potrzebna – tym bardziej, że prawo nowych technologii trudno rozpatrywać wyłącznie w wymiarze krajowych jurysdykcji. Głos polskich ekspertów powinien być wyraźnie słyszalny także poza granicami Polski, tak żeby mieli oni realny wpływ na kształtowanie przyszłych przepisów, w których wszyscy będziemy kiedyś funkcjonować.


Prawo sztucznej inteligencji, red. Luigi Lai, Marek Świerczyński, Wydawnictwo C.H. Beck, Warszawa 2020.

Skip to content