Inteligencja w sądzie

Tomasz Rożek

|

GN 21/2022

publikacja 26.05.2022 00:00

Czy można sobie wyobrazić, żeby o tym, kto jest winny i na jaki wymiar kary zasługuje, decydował nie człowiek, tylko program komputerowy, sztuczna inteligencja? W sumie nie trzeba sobie tego wyobrażać. To już się dzieje. I są ku temu konkretne powody.

Inteligencja w sądzie istockphoto

Nie twierdzę, że te powody są jednoznaczne i bezdyskusyjne. Ale też nie uważam, że są nic nieznaczące. W sumie cały problem sprowadza się do zastanowienia się, czym jest sprawiedliwość. Czy dwie różne osoby popełniające to samo wykroczenie albo przestępstwo powinny być karane w ten sam sposób? A może sprawiedliwsze jest wzięcie pod uwagę dotychczasowego życia sądzonego? Jak to wszystko wyważyć?

Upał i głód

Na decyzje podejmowane przez człowieka wpływ ma bardzo wiele czynników. Nie znam polskich badań na ten temat, ale z tych zagranicznych (głównie amerykańskich) wynika, że znaczenie ma np. kolor skóry. Gdy jest inny niż sędziego orzekającego, wyroki są statystycznie wyższe. Na wysokość wyroku wpływa również to, o której godzinie jest rozprawa. Wpływ mają temperatura w sali sądowej, a także miesiąc w roku i dzień w tygodniu. Gdy sędzia jest kibicem jakiegoś klubu sportowego, wyroki są niższe, gdy jego drużyna wygrywa. Wyroki są też łagodniejsze rano, a surowsze po południu. Prawdopodobieństwo łagodniejszego wymiaru kary jest większe po przerwie obiadowej, a mniejsze – gdy sędzia jest głodny.

To tylko mocno pobieżny przegląd wniosków z badań, które w USA zaczęto przeprowadzać już w latach 70. XX wieku. Badania prowadzone później, tym razem w sądzie imigracyjnym, wykazały, że im niższa temperatura na zewnątrz, tym częściej przyznawany był azyl. W czasie upału szanse ubiegających się o pozostanie w innym kraju stawały się mniejsze.

Kto tutaj ma rację? Ci, którzy uważają, że sędziowie powinni mieć dużą swobodę, a widełki kar powinny być szerokie, czy ci, którzy twierdzą, że powinno być wręcz przeciwnie? Jedni mówią, że symbolem systemu sprawiedliwości jest Temida, która owszem, trzyma w ręku wagę, ale jej oczy są zawiązane. Nie widzi, co waży, a sama waga nie ma mechanizmu, który ten sam ciężar raz określa jako duży, a innym razem jako mały. Drudzy twierdzą, że nie wolno ludzi karać tak samo, bo ważne są intencje, przeszłość i skrucha, ważny jest kontekst. Tego wszystkiego ślepa Temida nie zauważy.

Problem powyższy jest nierozwiązywalny, a już całą pewnością nie rozwiąże go dziennikarz naukowy. Może on jednak opisać technologię, która wkracza na sale sądowe i która jest ślepa jak Temida. Tą technologią jest sztuczna inteligencja.

Cyfrowy sędzia

Kilka lat temu w sądach jednego z amerykańskich miast postanowiono zatrudnić – na próbę – system sztucznej inteligencji. Nie orzekał on o winie bądź niewinności. Nie wydawał też wyroków, tylko dawał rekomendacje dotyczące warunkowych zwolnień więźniów. Sędzia podpisujący się pod decyzją mógł sugestii algorytmu posłuchać, ale wcale nie musiał tego robić. Gdy wyniki eksperymentu podsumowano, okazało się, że algorytm był dużo skuteczniejszy od człowieka. W skrócie mówiąc, w grupie wcześniej zwolnionych zgodnie z sugestią sztucznej inteligencji znacznie rzadziej popełniano przestępstwa i wykroczenia niż w grupie wcześniej zwolnionych decyzją człowieka. To był pierwszy przypadek, kiedy obiektywnie zmierzono, że algorytmy wykorzystywane na sali sądowej mogą być skuteczniejsze niż ludzie.

Krótko po tych doświadczeniach algorytmy zaczęto w sądach stosować częściej. Na przykład już 7 lat temu prasa w USA (m.in. dziennik „San Francisco Chronicle”) donosiła, że w lokalnych sądach testowany jest automatyczny system, którego zadaniem będzie określanie wysokości kaucji, czyli zabezpieczenia finansowego na wypadek niestawienia się w sądzie na kolejnej rozprawie. System brał pod uwagę kilka parametrów, m.in. wiek oskarżonego, jego poprzednie doświadczenia z wymiarem sprawiedliwości, zarzuty, jakie na nim ciążyły, ale także jego status majątkowy i to, czy oskarżony pojawiał się na poprzednich rozprawach. I tak jak poprzednio, pod ostateczną decyzją musiał podpisać się konkretny sędzia, który mógł wziąć pod uwagę sugestie automatu albo je zignorować. I choć na początku (tak wynika z analizy jednego z dziennikarzy) sędziowie często nie sugerowali się ustaleniami algorytmu, to z czasem coraz więcej z nich zgadzało się z podpowiedziami automatu.

Nie tylko pieniądze

Choć tego typu rozwiązania najpierw kojarzą się z filmami science fiction, a następnie ze Stanami Zjednoczonymi, w rzeczywistości prace nad cyfrowymi sędziami trwają w wielu miejscach na świecie. Do najbardziej scyfryzowanych krajów należą Łotwa i Estonia. W tej ostatniej już kilka lat temu zaczęto uruchamiać system, w którym w drobnych sprawach rozpoznanie przedprocesowe i sam proces prowadzi algorytm. Strony sporu w ogóle nie muszą pojawiać się w sądzie, uczestniczą w rozprawie on-line (system zaczęto wdrażać przed pandemią). Przesyłają dokumenty (w tym zdjęcia czy materiały wideo), a także wypełniają formularz, w którym opisują całą sytuację. Algorytm analizuje i wydaje rekomendacje, które zamieniają się w decyzję konkretnego sędziego. System jest eksperymentalny, ale przyszłość będzie coraz częściej dominowana przez algorytmy, które wspierają ludzi w podejmowaniu decyzji. Powodów pójścia tą drogą jest wiele. Algorytmy nieporównywalnie lepiej od nas radzą sobie z analizą dużych pakietów danych. Ponadto na człowieka wpływa wiele czynników zewnętrznych (jak te opisane na początku), podczas gdy na algorytm nie wpływa nic. Oczywiście może on zostać źle zaprojektowany, ale sędzia też może zostać źle wykształcony albo przekupiony.

Jest jeszcze coś. Te systemy są tańsze. Nie tylko w Polsce sądy są zapchane wieloma sprawami. Sędzia może w tym samym czasie prowadzić tylko jedną rozprawę, algorytm może ich prowadzić równocześnie setki.

Czy sztuczna inteligencja zastąpi kiedyś sędziów? Być może kiedyś tak. Na razie jednak będzie rozpoznawała sprawy proste, spory administracyjne albo te mniej skomplikowane, a i w tych przypadkach ostateczna decyzja będzie należała do człowieka. Musimy jednak pamiętać, że algorytmy są doskonałe w rozpoznawaniu, kto kłamie, a kto mówi prawdę. Człowiek może się w tej kwestii bardzo pomylić. Już kilka lat temu naukowcy m.in. z Uniwersytetu w Maryland zaczęli analizować przy pomocy odpowiednich algorytmów nagrane w sali sądowej zeznania. Pierwsza wersja algorytmu była w stanie wskazać, czy ktoś mówi prawdę, czy kłamie, z 93-procentową skutecznością. Znane są systemy, w których skuteczność w wykrywaniu kłamstw jest bliska 100 proc. W przypadku człowieka jest ona dużo niższa i wynosiła od 50 proc. (czyli w zasadzie jak przy rzucie monetą) do 80 proc. To może sędziów wyposażyć w system, który w czasie rzeczywistym wskazywałby, czy zeznający kłamie, czy mówi prawdę. •

Dostępna jest część treści. Chcesz więcej? Zaloguj się i rozpocznij subskrypcję.
Kup wydanie papierowe lub najnowsze e-wydanie.