Amerykanie wymyślili system do wykrywania kłamstw oparty na uczeniu maszynowym

„Przysięgam mówić całą prawdę i tylko prawdę” – z ręką na kodeksie karnym świadkowie i oskarżeni umownie zobowiązują się przed sądem do prawdomówności, wypowiadając uroczyście słowa roty. Ale to tylko słowa, a kłamstwa w salach rozpraw to powszechne zjawisko. Naukowcy z Uniwersytetów w Maryland i Dartmouth wpadli na pomysł, by zeznania nagrywane cyfrowo przepuścić przez sztucznie inteligentny wariograf. System nosi nazwę Dare.

„Prezentujemy system ukrytego automatycznego wykrywania oszustw w filmach z rozpraw sądowych” – brzmi wstęp do opisu badań, w których naukowcy wykazali 92-procentową skuteczność algorytmów w wykrywaniu konfabulacji (człowiek w tym zadaniu osiągnął poziom 81 procent).

Oprogramowanie wykorzystuje wizję komputerową do uchwycenia i klasyfikacji mikroekspresji twarzy oraz analizy częstotliwości dźwięku w celu wykrycia ujawniających się wzorów w głosach uczestników rozpraw.

Aby wyszkolić system, użyli m.in. 104 filmy z sal rozpraw, nagranych z aktorami, którzy albo kłamali, albo byli prawdomówni. Zestaw danych do wykrywania oszustw opublikowany został kilka lat temu przez informatyków z University of Michigan i University of North Texas.

Kłamstwa przed ławą

W Stanach Zjednoczonych, aby uznać winę, sędzia i (lub) ława przysięgłych musi stwierdzić ponad wszelką wątpliwość, że oskarżony jest winny przestępstwa. Ławę tworzą zwykli, obcy sobie ludzie, którzy nie zetknęli się też ze sprawą, w której orzekają. To ma gwarantować ich bezstronność. Wymagana jest albo jednomyślność (procesy karne), albo kwalifikowana większość zgodnych co do winy lub jej braku reprezentantów ławy przysięgłych. Najczęściej i w najtrudniejszych sprawach trudno jest im ustalić werdykt jednogłośnie.

– „Oszustwo jest powszechne w naszym codziennym życiu. Niektóre kłamstwa są nieszkodliwe, podczas gdy inne mogą mieć poważne konsekwencje i mogą stać się egzystencjalnym zagrożeniem dla społeczeństwa. (…) Dlatego dokładne wykrycie oszustwa ma kluczowe znaczenie dla bezpieczeństwa osobistego i publicznego” – wyjaśniają naukowcy.

Coraz więcej SI na sali sądowej

Sztuczna inteligencja coraz częściej zagląda na sale sądowe. W Estonii system rozstrzyga spory o niskiej wartości. W Chinach chatboty i awatary prowadzą procesy, w USA algorytmy oceniają ryzyko złamania sankcji karnych przez podejrzanych.

Rozwiązaniu Amerykanów przyjrzał się rosyjski karnista dr Aleksandr Michajłow. W opublikowanym pod koniec ubiegłego roku artykule stwierdził, że technologia sztucznej inteligencji w podejmowaniu decyzji przez sądy, nie będzie mogła być stosowana.

Powołuje się w swoim stwierdzeniu na opinię publiczną, która ma zaufanie do sędziów, a nie do maszyn. „Nawet ograniczone wykorzystanie sztucznej inteligencji w postępowaniu karnym, podobnie jak w Stanach Zjednoczonych, niesie ze sobą ogromne ryzyko dla prawdziwej sprawiedliwości opartej na prawie do rzetelnego procesu” – czytamy w artykule Michajłowa.

Wysoki Algorytmie…

W nieco łagodniejszym duchu wypowiada się Raja Chatilla, przewodnicząca komitetu wykonawczego Globalnej inicjatywy na rzecz etycznych rozważań w zakresie sztucznej inteligencji i systemów autonomicznych w Instytucie Inżynierów Elektryków i Elektroników (IEEE). Zwraca uwagę, że Dare należy stosować ostrożnie, szczególnie w salach sądowych. Duże prawdopodobieństwo nie oznacza pewności, ale technologia zmierza ku temu, że już za kilka lat systemy będą w 100 procentach precyzyjne.

Wizję zautomatyzowanego wymiaru sprawiedliwości, posiłkując się amerykańskim systemem Dare, roztoczył niedawno ekonomista z Oxfordu Daniel Susskind, autor publikacji o przyszłych zmianach świata w świeżo wydanej książce pt. „Świat bez pracy”. Daje wizjonerski opis tego, w jaki sposób automatyzacja wpłynie na ludzi i co powinniśmy z tym zrobić. Przywołując przykład amerykańskiej propozycji SI wykrywającej kłamstwa w sądzie pokazuje, jak maszyny będą przejmować zadania, które wymagają ludzkiej zdolności do myślenia i wnioskowania.

Kłamcy używają więcej ozdobników

W wielu placówkach naukowych prowadzone są badania nad wykorzystaniem SI i uczenia maszynowego do wykrywania kłamstw. Jednym z przykładów jest projekt prowadzony przez polskich badaczy, w którym algorytmy będą analizować, czy teksty pisane są wiarygodne, czy nie, na podstawie gramatycznych i stylistycznych cech.

Z kolei badacze z Uniwersytetu Florydy i uczelni Stanforda zbadali wytrenowanymi algorytmami uczenia maszynowego prawdomówność internautów. Eksperyment był przeprowadzony w kontrolowanych warunkach w ramach specjalnie zaprojektowanego systemu online. Uczestniczący w projekcie internauci mieli za zadanie, prowadząc rozmowę mówić prawdę lub kłamać (role były przypisywane losowo). System analizował słowa używane przez poszczególne grupy oraz sposób wysyłania odpowiedzi.

Eksperyment przeprowadzony na ludziach i maszynie pokazał, że system osiągał od 85 do 100 proc. skuteczności w wykrywaniu kłamstw w analizowanych wiadomościach, a ludzie co najwyżej w połowie przypadków.

Co wykazało badanie? Kłamcy używali w wiadomościach więcej ozdobników, częściej też posługiwali się słowami typu „myślę”, „wiem”, „zawsze” i „nigdy”, a prawdomówni „być może”, „zgadnij”, „powinien” i „mógł”. Oszukujący zauważalnie szybciej odpowiadali na wiadomości.

Skip to content