Sztuczna inteligencja i jej zastosowanie w wymiarze sprawiedliwości

artykul

Sztuczna inteligencja w wymiarze sprawiedliwości to dziś temat wielu debat i konferencji. Jak algorytmy AI mogą sprawdzić się w pracy prawnika? Spójrzmy na funkcjonujące już rozwiązania.

Sztuczna inteligencja wkracza do sądów

To, że sztuczna inteligencja zagości w polskich sądach nie budzi już najmniejszych wątpliwości. Dowodem na poparcie tej tezy jest zakończona niedawno konferencja w Ministerstwie Sprawiedliwości, zatytułowana  „Ius ex silico - sztuczna inteligencja w służbie wymiaru sprawiedliwości”.  W odczytanym uczestnikom konferencji liście Ministra Sprawiedliwości padły bowiem słowa, że „zaawansowane technologie cyfrowe, w tym sztuczna inteligencja, nie są już fantastyką naukową (…) stają się rzeczywistością” i jest „to również rzeczywistość i codzienność wymiaru sprawiedliwości”. Minister dodał także, że z „wielkim zainteresowaniem czeka na rezultaty konferencji, a także pomysły rozwiązań”.

Wydarzenie poświęcone zostało wykorzystaniu m.in. w sądownictwie wysokorozwiniętych systemów informatycznych. Ideą przyświecającą konferencji było przedstawienie kluczowych dla zrozumienia AI pojęć oraz technologii, w których może być stosowana. Tematem były też zagadnienia prawne, organizacyjne i techniczne związane z wdrażaniem sztucznej inteligencji w polskim wymiarze sprawiedliwości.

Choć w Polsce debata na temat zastosowania sztucznej inteligencji dopiero się rozpoczyna, na świecie funkcjonują już rozwiązania oparte o algorytmy AI, które dedykowane są wprost wymiarowi sprawiedliwości. Jakie to instrumenty?

Program COMPAS, czyli sztuczna inteligencja w amerykańskich sądach

COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) to narzędzie używane przez amerykańskie sądy do oceny prawdopodobieństwa recydywy oskarżonego. Sposób, w jaki wykorzystywany jest COMPAS najlepiej  obrazuje kazus Loomisa. W 2013 roku stan Wisconsin oskarżył Erica Loomisa o pięć zarzutów popełnienia przestępstwa w związku ze strzelaniną w samochodzie. Loomis ostatecznie zaakceptował ugodę i przyznał się do kilku pomniejszych zarzutów, takich jak próba ucieczki przed funkcjonariuszem ruchu drogowego czy prowadzenie pojazdu silnikowego bez zgody właściciela. Zanim w sprawie Loomisa wprowadzono wynik COMPAS, prokuratura i obrona uzgodniły ugodę, na mocy której Loomisa miano skazać na karę jednego roku pozbawienia wolności, którą  odbywać miał w więzieniu hrabstwa.

Przed skazaniem Loomisa przez sąd, funkcjonariusz Departamentu Więziennictwa Wisconsin sporządził raport z dochodzenia, który zawierał ocenę ryzyka, co miało przewidzieć wskaźnik recydywy Loomisa. Moment ten radykalnie zmienił sytuację oskarżonego. Przedstawiony wynik oceny ryzyka został obliczony przez COMPAS. Wygenerowany przez COMPAS wynik Loomisa zidentyfikował go jako osobę wysokiego ryzyka przemocy, wysokiego ryzyka recydywy i wysokiego ryzyka ucieczki przed procesem. Mimo zawarcia ugody określającej karę w wymiarze roku więzienia, na rozprawie sąd pierwszej instancji odniósł się do wyniku oceny ryzyka wygenerowanego przez COMPAS i sklasyfikował Loomisa jako osobę o wysokim ryzyku ponownego popełnienia przestępstwa, skazując go na sześć lat więzienia i pięć lat rozszerzonego nadzoru. Z wyrokiem  nie zgadzał się oskarżony, który podkreślał, że poleganie przez sąd na wyniku COMPAS naruszyło jego prawo do należytego procesu. Wprawdzie złożony przez Loomisa wniosek do sądu wyższej instancji o zwolnienie został odrzucony, to sąd ten wykazał się sceptycyzmem w zakresie bezgranicznego zaufania nowej technologii, wskazując że algorytmy oceny ryzyka, takie jak COMPAS, nie zastępują ludzkiego osądu.

COMPAS jest dziś jednym z najczęściej używanych algorytmów w amerykańskim systemie wymiaru sprawiedliwości w sprawach karnych i został zastosowany lub zaadaptowany przez wiele stanów, w tym Nowy Jork, Wisconsin, Florydę i Kalifornię. COMPAS wykorzystuje publiczne dane profilowe przestępców i odpowiedzi zawarte w kwestionariuszach do generowania oceny ryzyka. Kwestionariusz zawiera informacje na temat przestępstw popełnianych w przeszłości, związków, stylu życia, osobowości, pochodzenia i poziomu wykształcenia. Algorytm daje wyniki pogrupowane według poziomu ryzyka, klasyfikując oskarżonych w skali:

a)    1 - 4 niskie ryzyko;
b)    5 - 7  średnie ryzyko;
c)    8 - 10 wysokie ryzyko.

Dotychczas algorytm ocenił już ponad milion przestępców.

Projekt TJENI

Projekt TJENI to metodologiczne i technologiczne rozwiązania służące anonimizacji (pseudonimizacji) wyroków w celu ich publikacji i kategoryzacji. Głównym celem projektu jest z jednej strony umożliwienie szerokiego dostępu do orzecznictwa (nie tylko prawnikom, ale również ogółowi społeczeństwa), z drugiej zaś poprawa spójności orzecznictwa krajowego ze standardami praw człowieka określonymi w orzecznictwie Europejskiego Trybunału Praw Człowieka.

W marcu tego roku odbyły się warsztaty bilateralne projektu TJENI z przedstawicielami Polski. W celu zwiększenia spójności orzecznictwa krajowego ze standardami praw człowieka określonymi w orzecznictwie Europejskiego Trybunału Praw Człowieka, uczestnicy spotkania omówili potrzeby, możliwe rozwiązania i praktyczne kroki w celu ułatwienia skutecznego dostępu do bazy danych orzecznictwa ETPC (HUDOC), a także przedstawili prezentacje na temat krajowej bazy danych orzecznictwa oraz nowej platformy dzielenia się wiedzą Europejskiego Trybunału Praw Człowieka (KS).

Projekt TJENI jest realizowany przez Radę Europy i finansowany przez Islandię, Liechtenstein i Norwegię za pośrednictwem Funduszy Współpracy Regionalnej EOG i Funduszy Norweskich.

Smart-sądy w Chinach

Na czele rankingu nowych technologii w sądach plasują się jednak Chiny. Aktualnie wprowadzają one zmiany mające doprowadzić do powstania pierwszego na świecie systemu prawnego zintegrowanego ze sztuczną inteligencją. Jeszcze w grudniu 2019 r. Chiny ogłosiły, że miliony spraw sądowych rozstrzygają obecnie „sądy internetowe”, które nie wymagają od obywateli stawienia się w budynku sądu. „Inteligentny sąd” nie składa się jednak z ludzi, ale obejmuje sędziów AI i umożliwia uczestnikom rejestrowanie spraw online i rozstrzyganie ich za pośrednictwem cyfrowej rozprawy sądowej. Zgodnie z 14. Planem Pięcioletnim przyjętym przez Ogólnochińskie Zgromadzenie Przedstawicieli Ludowych w marcu 2021 r., chińskie sądy do 2025 r. przejdą na czwartą generację sądów inteligentnych (smart courts).

Chiny, wprowadzając zmiany, motywują je chęcią monitorowania sędziów, usprawnieniem procedur sądowych i zwiększeniem wiarygodności sądowej, co ma zaowocować pierwszym na świecie systemem prawnym zintegrowanym ze sztuczną inteligencją.  Jednak w opinii ekspertów, zmiany wchodzące w skład chińskiej inicjatywy „inteligentnego sądu” (smart courts) mają na celu wzmocnienie scentralizowanej władzy politycznej i zwiększenia nadzoru nad sędziami.

Polski wymiar sprawiedliwości w dobie AI

Jak kształtuje się polska wizja wymiaru sprawiedliwości w dobie AI? Niewątpliwie sztuczna inteligencja stanie się narzędziem wykorzystywanym również w polskich sądach. Czy proces technologicznej reformy zajdzie tak daleko jak w Chinach? Odpowiedź na to pytanie brzmi: raczej nie, gdyż jest mało prawdopodobne, by sztuczna inteligencja mogła całkowicie zastąpić sędziego – człowieka. Jednak nie można wykluczyć sytuacji, by w określonych sprawach, na poziomie pierwszej instancji, wykorzystywany był w przyszłości algorytm np. do wydania nakazu zapłaty. Wszystko zależy od tego, jak rozwinie się technologia oparta na AI.

Choć niewątpliwie sztuczna inteligencja posiada wiele zalet (oszczędność czasu i kosztów postępowań sądowych, poprawa ich efektywności czy szybkości), to warto pamiętać, że AI to także szereg zagrożeń. Jak słusznie wskazał resort sprawiedliwości, są nimi: podejmowanie decyzji na podstawie niepełnych danych, brak ludzkiego doświadczenia, ryzyko naruszenia praw obywatelskich, problemy z ochroną prywatności, uzależnienie od technologii czy dyskryminacja i bezrobocie. Jednak mając świadomość korzyści i strat będziemy w stanie wypracować model, w którym człowiek i technika nie będą się zwalczać, lecz uzupełniać.

 

pracadlaprawnika

 

Źródło:
- A. ”Mac” Tailor,   AI Prediction Tools Claim to Alleviate an Overcrowded American Justice System… But Should they be Used?, https://stanfordpolitics.org/2020/09/13/ai-prediction-tools-claim-to-alleviate-an-overcrowded-american-justice-system-but-should-they-be-used/
- M. Lau, China’s courts use data analytics and blockchain evidence storage on the way to first AI-integrated legal system https://www.scmp.com/news/china/politics/article/3124815/chinas-courts-use-data-analytics-and-blockchain-evidence?module=perpetual_scroll_0&pgtype=article&campaign=3124815
- Foster Transparency of Judicial Decisions and Enhancing the National Implementation of the ECHR (TJENI), https://www.coe.int/en/web/national-implementation/tjeni
- TJENI project bilateral workshop held with representatives of Poland, https://www.coe.int/en/web/national-implementation/-/tjeni-bilateral-workshop-with-representatives-of-poland
- komunikat Ministerstwa Sprawiedliwości dotyczący konfrencji „Ius ex silico - sztuczna inteligencja w służbie wymiaru sprawiedliwości”, https://www.gov.pl/web/sprawiedliwosc/sztuczna-inteligencja-w-sluzbie-wymiaru-sprawiedliwosci--konferencja-ministerstwa-sprawiedliwosci

 

Treści publikowane w serwisie internetowym PlanetaPrawo.pl mają charakter informacyjno-edukacyjny. Nie stanowią one porad prawnych i nie zastępują profesjonalnej pomocy prawnej. Administrator nie ponosi odpowiedzialności za jakiekolwiek skutki związane z ich wykorzystywaniem. Wszelkie prawa zastrzeżone – powołując się na publikację podaj źródło. Wykorzystywanie zawartości serwisu internetowego PlanetaPrawo.pl jako danych treningowych AI jest zabronione. 

PlanetaPrawo.pl - przepisy, praktyczne komentarze, orzecznictwo, marketing prawniczy

Odwiedź nasz Sklep, polub nas na Facebooku, obserwuj nas na Twitterze

>>Powrót do artykułów w: Kancelaria

Korzystając z naszych usług akceptujesz postanowienia Regulaminu oraz Polityki prywatności. Strona wykorzystuje pliki cookie. Możesz zarządzać plikami cookie poprzez modyfikację ustawień przeglądarki, z której korzystasz.

Przechodzę dalej