Nowy numer 27/2022 Archiwum

Inteligencja w sądzie

Czy można sobie wyobrazić, żeby o tym, kto jest winny i na jaki wymiar kary zasługuje, decydował nie człowiek, tylko program komputerowy, sztuczna inteligencja? W sumie nie trzeba sobie tego wyobrażać. To już się dzieje. I są ku temu konkretne powody.

Nie twierdzę, że te powody są jednoznaczne i bezdyskusyjne. Ale też nie uważam, że są nic nieznaczące. W sumie cały problem sprowadza się do zastanowienia się, czym jest sprawiedliwość. Czy dwie różne osoby popełniające to samo wykroczenie albo przestępstwo powinny być karane w ten sam sposób? A może sprawiedliwsze jest wzięcie pod uwagę dotychczasowego życia sądzonego? Jak to wszystko wyważyć?

Upał i głód

Na decyzje podejmowane przez człowieka wpływ ma bardzo wiele czynników. Nie znam polskich badań na ten temat, ale z tych zagranicznych (głównie amerykańskich) wynika, że znaczenie ma np. kolor skóry. Gdy jest inny niż sędziego orzekającego, wyroki są statystycznie wyższe. Na wysokość wyroku wpływa również to, o której godzinie jest rozprawa. Wpływ mają temperatura w sali sądowej, a także miesiąc w roku i dzień w tygodniu. Gdy sędzia jest kibicem jakiegoś klubu sportowego, wyroki są niższe, gdy jego drużyna wygrywa. Wyroki są też łagodniejsze rano, a surowsze po południu. Prawdopodobieństwo łagodniejszego wymiaru kary jest większe po przerwie obiadowej, a mniejsze – gdy sędzia jest głodny.

To tylko mocno pobieżny przegląd wniosków z badań, które w USA zaczęto przeprowadzać już w latach 70. XX wieku. Badania prowadzone później, tym razem w sądzie imigracyjnym, wykazały, że im niższa temperatura na zewnątrz, tym częściej przyznawany był azyl. W czasie upału szanse ubiegających się o pozostanie w innym kraju stawały się mniejsze.

Kto tutaj ma rację? Ci, którzy uważają, że sędziowie powinni mieć dużą swobodę, a widełki kar powinny być szerokie, czy ci, którzy twierdzą, że powinno być wręcz przeciwnie? Jedni mówią, że symbolem systemu sprawiedliwości jest Temida, która owszem, trzyma w ręku wagę, ale jej oczy są zawiązane. Nie widzi, co waży, a sama waga nie ma mechanizmu, który ten sam ciężar raz określa jako duży, a innym razem jako mały. Drudzy twierdzą, że nie wolno ludzi karać tak samo, bo ważne są intencje, przeszłość i skrucha, ważny jest kontekst. Tego wszystkiego ślepa Temida nie zauważy.

Problem powyższy jest nierozwiązywalny, a już całą pewnością nie rozwiąże go dziennikarz naukowy. Może on jednak opisać technologię, która wkracza na sale sądowe i która jest ślepa jak Temida. Tą technologią jest sztuczna inteligencja.

Cyfrowy sędzia

Kilka lat temu w sądach jednego z amerykańskich miast postanowiono zatrudnić – na próbę – system sztucznej inteligencji. Nie orzekał on o winie bądź niewinności. Nie wydawał też wyroków, tylko dawał rekomendacje dotyczące warunkowych zwolnień więźniów. Sędzia podpisujący się pod decyzją mógł sugestii algorytmu posłuchać, ale wcale nie musiał tego robić. Gdy wyniki eksperymentu podsumowano, okazało się, że algorytm był dużo skuteczniejszy od człowieka. W skrócie mówiąc, w grupie wcześniej zwolnionych zgodnie z sugestią sztucznej inteligencji znacznie rzadziej popełniano przestępstwa i wykroczenia niż w grupie wcześniej zwolnionych decyzją człowieka. To był pierwszy przypadek, kiedy obiektywnie zmierzono, że algorytmy wykorzystywane na sali sądowej mogą być skuteczniejsze niż ludzie.

« 1 2 »
oceń artykuł Pobieranie..

Zobacz także

Wyraź swoją opinię

napisz do redakcji:

gosc@gosc.pl

podziel się