Teisė
Teisė
Download

Teisė ISSN 1392-1274 eISSN 2424-6050

2020, Vol. 115, pp. 55–69 DOI: https://doi.org/10.15388/Teise.2020.115.4

Dirbtinis intelektas priimant teismo sprendimą – algoritmų klasifikavimas remiantis teisinio kvalifikavimo stadijomis

Donatas Murauskas
Vilniaus universiteto Teisės fakulteto
Viešosios teisės katedros asistentas
socialinių mokslų daktaras
Saulėtekio al. 9, I rūmai, LT-10222 Vilnius, Lietuva
Tel.: (+370 5) 236 6175
El. paštas: <donatas.murauskas@tf.vu.lt>

Straipsnyje1 nagrinėjama dirbtinio intelekto sistemų taikymo teismų veikloje problematika. Pateikiama teismuose taikytinų algoritmų klasifikavimas, atsižvelgiant į racionaliu modeliu pagrįstas tris teisės taikymo stadijas: faktų nustatymas, taikytinos teisės nustatymas ir sprendimo priėmimas. Pateikiamos įžvalgos dėl galimų teisės į teisingą bylos nagrinėjimą saugiklių, atsižvelgiant į algoritmų taikymo rizikas kiekvienoje iš aptariamų teisės taikymo stadijų.
Pagrindiniai žodžiai: teisės taikymas; teisinis kvalifikavimas; dirbtinis intelektas; teismai; teisė į teisingą bylos nagrinėjimą.

Algorithms in Judicial Environments – the Importance of Identifying Relevant Judicial Decision-Making Stage

The paper examines the application of Artificial Intelligence systems in the judicial environments. It provides an outline of a typology of different algorithms applicable in judicial environments depending on judicial decision-making stage. This is a positive analysis which aims at identifying relevant algorithms in every judicial decision-making stage, be it assessing the facts, indicating the applicable law or deciding.
Keywords: application of law; legal classification; artificial intelligence; courts; right to a fair trial.

Received: 09/03/2020. Accepted: 20/04/2020
Copyright © 2020 Donatas Murauskas. Published by
Vilnius University Press
This is an Open Access article distributed under the terms of the Creative Commons Attribution Licence, which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited.

Įvadas

Dirbtinio intelekto (toliau – DI) sąvoka jau tapo šių laikų simboliu. DI sistemos padeda išanalizuoti kompleksinę informaciją, ją struktūrizuoti, suteikti apibendrinamąsias išvadas. Vis dėlto DI nėra žmogaus intelekto pakaitalas. Tai žmonių sukurta programinė įranga2. Tad „nesibaigiančią euforiją dėl DI potencialo ir jį lydintį krūpčiojimą“ (Gaubienė, 2019) verta analizuoti itin atidžiai, įsigilinus į konkrečios DI sistemos požymius.

Tuo pat metu reikia nepamiršti, kad žmonės yra „nepataisomai nenuoseklūs“ priimdami apibendrinamuosius sprendimus, pagrįstus kompleksine informacija. Taip, remdamasis empiriniais tyrimais, pažymi Nobelio premijos ekonomikos srityje laureatas D. Kahnemanas (Kahneman, 2013, p. 224). Ignoruoti aktyviai vystomų skaitmeninių technologijų suteikiamo informacijos analizės potencialo nereikėtų. Galimybė išvengti subjektyvumo priimant sprendimus – bene svarbiausias didžiųjų duomenų (angl. big data) industrijos argumentas už sprendimų priėmimo algoritmizavimą įvairiuose procesuose (Završnik, 2018, p. 131).

Algoritmų pritaikymas viešosios valdžios veikloje – itin „karštas“ klausimas. Lietuvos dirbtinio intelekto strategijoje (Lietuvos dirbtinio intelekto strategija, 2019) pažymima, kad DI sistemos žada unikalius ir neprilygstamus pranašumus viešajam sektoriui. Jau pats pirmasis strategijoje nurodomas DI sistemų panaudojimo viešajame sektoriuje pavyzdys – DI modelių panaudojimas prognozuojant nusikalstamas veikas. Tuo pat metu pateikiama ir strateginė rekomendacija – padidinti DI sistemų naudojimą viešajame sektoriuje (Lietuvos dirbtinio intelekto strategija, 2019, p. 11).

Viena iš kontroversinių, bet aktyviai svarstomų galimybių algoritmizuojant viešąjį sektorių – teismų veiklos efektyvinimas ir kokybės didinimas įtraukiant daugiau galimybių remtis algoritmų pagrindu teikiama informacija. Teismo sprendimo priėmimas – dažnai su kompleksinės informacijos analize susijusio klausimo sprendimas. Tad sudėtingos informacijos apdorojimas, padedant algoritmams3, gali būti daug žadantis. Vis dėlto ekspertai nuogąstauja dėl algoritmų panaudojimo rizikos teismų aplinkoje4.

Daug diskusijų dėl teismų veiklos algoritmizavimo pavojų skirta etiniams standartams nustatyti. Nustatant bendrus universalius standartus trūksta konkretumo – kokiame teismų veiklos kontekste kyla algoritmizavimo pavojų? Ar algoritmizavimas tapatus automatizavimui? Dažnai net gan rimtos analizės įtraukia tokius mokslinės fantastikos terminus kaip „teisėjas-robotas“. Tai toliau kursto ne visada pagrįstą prielaidą, kad algoritmizavimas susijęs su teismų veiklos funkcijos delegavimu ne žmogiškos kilmės sprendimų priėmėjams.

Šiuo straipsniu keliamas praktinio ekspertų siūlomų etinių standartų įgyvendinimo klausimas. Pristatoma viena iš straipsnio autoriaus atliekamo praktinio žmogaus teisių apsaugos standartų įgyvendinimo, panaudojant DI sistemas teismų aplinkoje, tyrimo dalių. Straipsnio objektas – teismo veikloje, nagrinėjant bylas, taikytinų algoritmų priskyrimas teisės taikymo stadijai. Aptariama algoritmų priskyrimo teismo atliekamo teisės taikymo stadijai svarba, norint įvertinti realias teisinių gynybos priemonių panaudojimo galimybes – ginčijant algoritmų pagrindu gaunamus duomenis teismų veikloje. Darbe nėra nagrinėjami su teismų veiklos administravimu, bylų skirstymu, tiesiogiai teismo sprendimo priėmimo proceso konkrečioje byloje neveikiantys algoritmizavimo atvejai.

Algoritmų taikymo vertinimas remiantis teisinio kvalifikavimo etapais, autoriaus žiniomis, nėra nagrinėtas kitų autorių. Straipsnyje, pateikiant teisinio kvalifikavimo etapus, daugiausiai remiamasi W. Twiningo (Twining, 2006) bei G. Lastauskienės (Lastauskienė, 2009) darbais. Pateikiant algoritmų taikymo, nustatant faktus teismo procese, aspektus daugiausiai remiamasi A. Završniko (Završnik, 2018, Završnik, 2019) ir R. Klingele (Klingele, 2015) įžvalgomis. Analizuojant taikytinos teisės nustatymo algoritmizavimą daugiausiai remiamasi R. Kitchino (Kitchin, 2017) ir S. N. Mart (Mart, 2016) darbais. Aptariant teisės taikymo algoritmizavimo ypatumus svarbiausios yra C. McCormick ir kitų (McCormick, 2013) įžvalgos bei CEPEJ analizė (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018).

Straipsnio tikslas – sugrupuoti algoritmų panaudojimo teismo veikloje formas, remiantis konvenciniu trijų stadijų teisinio kvalifikavimo modeliu. Siekiant šio tikslo įgyvendinami tokie uždaviniai. Pirma, glaustai pristatoma klasikinė teisinio kvalifikavimo samprata. Antra, nustatoma, kokiai teisinio kvalifikavimo stadijai gali būti priskirti šiuo metu pasaulyje vystomi teismo veikloje taikytini algoritmai. Trečia, identifikuojamos galimos teisės į teisingą bylos nagrinėjimą pažeidimo rizikos valdymo gairės, atsižvelgiant į konkrečioje stadijoje teismo veikloje taikytinų algoritmų turinį.

Straipsnyje daroma prielaida, kad, diskutuojant dėl teismo sprendimo priėmimo proceso algoritmizavimo galimybių ir rizikų, esminę įtaką turi konkretaus taikytino algoritmo vieta teismui atliekant teisinį kvalifikavimą. Ši algoritmo taikymo vieta lemia, kokiame procesinių garantijų kontekste reikia kalbėti apie algoritmų keliamų rizikų valdymą. Šiuo straipsniu pristatoma autoriaus tyrimo dalis – doktrininio tipo. Tyrimu, pateikiant argumentus ir iliustruojant pavyzdžiais, siūlomas algoritmų teismo veikloje klasifikavimo būdas, pagrįstas konvenciniu teisinio kvalifikavimo modeliu. Remiantis teisėtyros darbuose aptariamais praktiniais teismo veikloje taikomų algoritmizavimo sprendimų pagrindu konstruojama teorinė šių algoritmų grupavimo teorija. Tai pozityvios įžvalgos, straipsniu nesiekiama įgyvendinti normatyvinių uždavinių. Dėl teismo sprendimo proceso algoritmizavimo idėjos kompleksiškumo ir daugialypiškumo straipsniu nėra siekiama apžvelgti visko. Tai yra bandymas diskutuoti dėl teismo atliekamo teisinio kvalifikavimo stadijų išskyrimo idėjos plačiame teismų veiklos algoritmizavimo diskurse.

1. Algoritmai teismų veikloje – sprendimo alternatyva ar pagalba teisėjui?

Dar 1992 m. P. Schwartz, vienas iš garsiausių DI sistemų etinės problematikos tyrėjų, nurodė, kad „kompiuteriai dabar yra integruota vyriausybės administravimo dalis“ (Schwartz, 1992, 1322). Ši nuostata iš dalies atspindi ir sunkiai į rėmus telpančią diskusiją dėl DI sistemų keliamų pavojų teismų veiklai ir žmogaus teisėms.

DI sistemų integravimą į teismų veiklą galima suprasti dvejopai. Pirma, kaip tam tikros sprendimo priėmimo monopolio dalies perdavimą DI sistemoms. Antra, kaip DI sistemų panaudojimą, sprendžiant su kompleksinės informacijos analize susijusius klausimus. Pirmoji samprata kelia diskusijų dėl teismų veiklos ypatumų. Taip pat ši samprata nukreipia dėmesį nuo tikrosios praktinės naudos, kurią gali suteikti DI sistemos – sudėtingos informacijos analizės ir sugrupavimo. Būtent siekis pakeisti subjektyvų žmogiškąjį vertinimą, analizuojant didelį kiekį informacijos, yra esminė statistinės analizės įtraukimo į sprendimų priėmimo procesus nauda (Plesničar, Stubbs, 2018, p. 165).

Ir iš tiesų žmogaus teisėms kylantys pavojai labai skiriasi nuo konkretaus algoritmų panaudojimo būdo teismų veikloje. 2018 m. gruodžio mėn. Europos veiksmingo teisingumo komisijos (toliau – CEPEJ) susitikime priimta Europos etikos chartija dėl dirbtinio intelekto naudojimo teisminėse sistemose ir jų aplinkose (toliau – CEPEJ chartija) yra vienas iš reikšmingiausių ir išsamiausių šiandien „minkštosios teisės“ šaltinių, susijusių su algoritmų naudojimu teismų veikloje. CEPEJ chartija pagrįsta ekspertų atliktu tarpdisciplininiu tyrimu, įtraukiant tiek įvairių valstybių taikomas praktikas, tiek ekspertų, išmanančių techninę algoritmų taikymo pusę, įžvalgas.

CEPEJ chartiją pagrindžiantis tyrimas atskleidžia, kaip svarbu pamatyti konkretaus algoritmo taikymo kontekstą, norint teikti bent preliminarias išvadas dėl tokio algoritmo grėsmių žmogaus teisėms (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018). Minėtos CEPEJ analizės pagrindu ekspertai sugrupavo DI sistemų naudojimo teismų aplinkoje Europoje formas: (i) pažengusios teismų praktikos paieškos sistemos; (ii) ginčų sprendimas internetu; (iii) pagalba rengiant dokumentus; (iv) analizė (bylų baigties prognozavimas); (v) sutarčių kategorizavimas ir (vi) Chatbots panaudojimas, siekiant informuoti proceso dalyvius (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018, p. 17). Iš išvardytų formų matyti, kad toli gražu ne kiekvienas būdas yra susijęs su teismų sprendimo priėmimo monopolio perdavimu algoritmui.

Siekiant geriau suprasti, kokią vietą kai kurie ekspertų aptariami algoritmai užima teismui nagrinėjant bylą, galima pažvelgti į teismo sprendimo struktūrą. Pradėkime nuo teismo sprendimo sampratos.

Pats paprasčiausias būdas apibrėžti teismo sprendimą – tai teismo padaryta išvada dėl teisme iškelto klausimo5. Kaip pažymi P. Kuconis ir V. Nekrošius, teismui išsprendus bylą iš esmės, atsakius į klausimą, kas teisus konkrečioje situacijoje, ji baigiama nagrinėti teisingumo vykdymo aktu (Kuconis, Nekrošius, 2001, p. 34). E. Laužikas et al. teismo sprendimą apibrėžia kaip motyvuotą teismo valdžios aktą, kuriuo aiškinant ir taikant teisės normas konkretiems šalių santykiams ir nustatytiems faktams iš esmės ir galutinai išsprendžiamas ginčas dėl teisės (Laužikas et al., 2005, 146). Kartais teismas gali išspręsti klausimą ir dėl fakto. Pavyzdžiui, bendrosios kompetencijos teismas, priimdamas sprendimą dėl juridinio fakto, ar Konstitucinis Teismas, priimdamas išvadą vienu iš šio teismo kompetencijos klausimų (Murauskas, 2015, p. 39).

Teismo sprendimo apibrėžimo paieška veda link klasikinio racionalistinio teismo sprendimo apibrėžimo, apimančio taikytiną teisę ir fakto nustatymą. Teismo sprendimo priėmimas yra kompleksinis procesas, tačiau galime rasti supaprastintų šio proceso modelių, lengviau padedančių jį suprasti. Teismo sprendimo priėmimas gali būti matomas pagal teisinio kvalifikavimo kategoriją, kuri įprastai struktūruojama kaip supaprastintas silogizmo taikymas – nustatant taikytiną teisės normą (didžioji premisa), įvykusį faktą (mažoji premisa) ir darant atitinkamą abi premisas tenkinančią išvadą (Twining, 2006, p. 272). G. Lastauskienė pažymi, kad teisės taikymą galima suprasti kaip bendrosios teisės normos pritaikymo individualiam atvejui ir individualios teisės normos sukūrimo procesą (Lastauskienė, 2009, p. 41–42). Pažiūrėkime, ką jis apima.

Teismas, spręsdamas ginčą, įprastai turi pažvelgti į byloje aptariamos situacijos faktinę ir teisinę puses bei priimti individualų sprendimą. Apibendrintai galima identifikuoti tokias tris teisės taikymo (teisinio kvalifikavimo) stadijas: (i) faktinių aplinkybių analizė; (ii) aplinkybes atitinkančių teisinių nurodymų parinkimas; (iii) individualaus sprendimo priėmimas (Lastauskienė, 2009, p. 42). Pažvelkime, kaip esami algoritmų panaudojimo būdai pasireiškia kiekvienoje iš šių stadijų.

2. Fakto nustatymas – tikimybėmis pagrįstas aplinkybių konstatavimas

Teisės taikymas nėra metafizinis reiškinys. Svarbi teisės taikymo prielaida – pripažinti, kad tam tikru mastu tiesa gali būti nustatyta. Remiantis konvenciniu racionalistiniu ginčų sprendimo modeliu, galutinis ginčo sprendimo rezultatas yra teisingo sprendimo priėmimas, paremtas tinkamu galiojančios teisės taikymu tikriems materialiems nagrinėjamos situacijos faktams (Twining, 2006, p. 272).

Nustatyti faktines bylos aplinkybes padeda įrodinėjimo procesas. Faktų nustatymą, kaip itin svarbią teismų funkciją, ir iki šiol ryškiausią įrodymų teoriją konceptualizavo utilitarizmo etinės teorijos kūrėjas Dž. Bentamas (Jackson, Doran, 2010, p. 177). Įrodinėjamos vertinamai situacijai reikšmingos aplinkybės – tai įrodymų sąsajumo kriterijus, kurį aktyviai turi taikyti teisėjas (Lastauskienė, 2009, p. 43).

Dauguma iš iki šiol praktikoje plačiai žinomų su faktiniu vertinimu susijusių algoritmų – baudžiamosios justicijos srityje. Todėl orientuojamasi į šiuos konkrečius aktualius algoritmus, nespekuliuojant dėl faktinių aplinkybių nustatymo potencialo ateityje. Baudžiamosios justicijos srityje taikomus algorit­mus galima skirstyti į keturias grupes: (i) kriminalinės žvalgybos veiksmai; (ii) teisėsaugos institucijų veikla – nusikalstamų veikų prevencija ir nustatymas; (iii) teismų veikla – kardomosios priemonės ir bausmės skyrimas bei (iv) probacija – vykdant baudžiamąsias sankcijas (Završnik, 2018, p. 138).

Svarbu pabrėžti, kad aptariami algoritmai visų pirma skirti asmenų elgesiui prognozuoti ateityje. Nepaisant didelio potencialo, faktinių aplinkybių nustatymas remiantis statistiniu modeliavimu kol kas nėra plačiai taikomas teismų procesuose. C. McCormick ir kiti pažymi, kad tikimybės negali būti laikomos įrodymais. Tai vertinimai, pagrįsti statistiniais ar kitais duomenimis (McCormick, 2013, p. 1267). Vystantis informacinėms technologijoms vis dažniau diskutuosime, kaip skirtingų žinomų aplinkybių nustatymas gali nulemti tam tikros reikšmingos nežinomos aplinkybės tikimybę.

Šiuo metu teisėsaugos institucijos vis daugiau dėmesio skiria nusikalstamų veikų prevencijai. Populiarėja statistiniu modeliavimu pagrįsti įrankiai, kuriais siekiama nustatyti asmenis, galinčius daryti nusikalstamas veikas ar jų aukas, taip pat teritorijas, kuriose yra didesnė nusikalstamų veikų padarymo tikimybė. Tai leidžia teisėsaugos institucijoms imtis prevencinių veiksmų, užkirsti kelią galimai nusikalstamai veikai. Pavyzdžiui, sustiprinant konkrečios teritorijos patruliavimą arba taikant prevencines priemones – asmens judėjimo apribojimą ar kt. Teismų dalyvavimas prevencijos veikloje gali būti gan ribotas, pavyzdžiui, įteisinant prevencinių priemonių taikymą. Čia slypi viena didžiausių konceptualių šių laikų problemų – teisėsaugos institucijų polinkis dėl naujų techninių galimybių prioretizuoti prevenciją savo veikloje. Tai kai kurių autorių įvardijama baudžiamosios justicijos paradigmos pokyčiu (Marks, 2017), tačiau šiame straipsnyje algoritmų taikymas nusikalstamų veikų prevencijai plačiau nėra nagrinėjamas.

Daugeliu atvejų algoritmų taikymo prasmė yra panaši – asmens elgesio prognozavimas, atsižvelgus į charakteristiką ir esamus istorinius statistinius duomenis apie kitų asmenų elgesį panašiose situacijose. Iliustratyvus faktinių aplinkybių, padedant algoritmams, taikymas yra asmens rizikos vertinimas (angl. risk assessment) individualizuojant bausmę. Šioje srityje toliausiai pažengusios yra JAV teisėsaugos institucijos. Tai pirmiausiai susiję su JAV pastarąjį dešimtmetį vykstančiu bandymu perorientuoti bausmių skyrimo sistemą nuo griežto įkalinimu pagrįsto požiūrio į įrodymais pagrįstą nuteistųjų resocializaciją (Klingele, 2015, p. 551–552).

Pasak C. Klingele, įrodymais pagrįsta praktika yra pataisomoji praktika ar intervencija, kurios veiksmingumas yra pagrįstas empiriškai reikšmingais (angl. empirically sound) tyrimais. Toks susikoncentravimas į įrodymais pagrįstus sprendimus yra nulemtas noro atsisakyti euristika, susiklosčiusia praktika ar spėjimais pagrįstas intervencijas bausmių skyrimo praeityje (Klingele, 2015, p. 556). Tad algoritmų taikymas, siekiant nuspėti asmens elgesį, grindžiamas siekiu suteikti daugiau skaidrumo, nuoseklumo sprendimų priėmimo procese (Završnik, 2018, p. 148–149).

Įrodymais pagrįstos praktikos požiūriu ypatingo dėmesio visuomenėje sulaukė JAV teisėsaugos institucijų pradėta naudoti COMPAS programa. COMPAS – bene pirmasis baudžiamosios justicijos srityje taikomas algoritmas, sulaukęs tokio didelio tiek teisės praktikų, tiek teisėtyrininkų dėmesio. COMPAS šifruojamas kaip Pataisomasis pažeidėjų valdymo profiliavimas alternatyvioms sankcijos (angl. Correctional Offender Management Profiling for Alternative Sanctions). Tai privačios įmonės Northpointe išvystytas klausimynas, naudojamas kai kuriose JAV valstijose.

COMPAS įrankio esmė yra paprasta. Programai būtini duomenys surenkami nusikalstama veika kaltinamiems asmenims ar juos apklausiantiems pareigūnams pildant klausimyną. Remiantis klausimynu nustatoma informacija apie asmens praeitį, jo elgesį įvairiose gyvenimo situacijose, gyvenamąją aplinką. Klausimynas apima tiek statinio (pvz., kiek kartų asmuo buvo patrauktas atsakomybėn), tiek dinaminio pobūdžio informaciją (pvz., kaip pastaruoju metu asmuo jaučiasi). Suvedus duomenis algoritmo pagrindu pateikiama tikimybė, kiek konkretus asmuo linkęs pakartotinai daryti nusikalstamas veikas. Ši išvada pateikiama teisėjui, kuris priima sprendimą dėl bausmės individualizavimo, įvertindamas alternatyvių sankcijų (pvz., laisvės atėmimo) skyrimo prasmingumą.

Bene daugiausia dėmesio teisėtyroje skiriama COMPAS po šio įrankio taikymo teisėtumo vertinimo JAV Viskonsino valstijos Aukščiausiojo Teismo byloje Loomis v. Wisconsin (Viskonsino Aukščiausiojo Teismo sprendimas byloje State v. Loomis, 2016). Kaltinamasis E. Loomis byloje teigė, kad algoritmo panaudojimas jo baudžiamojoje byloje pažeidė teismo proceso nešališkumo principą. Nors Viskonsino Aukščiausiasis Teismas paliko nepakeistą žemesnės instancijos teismo sprendimą E. Loomis baudžiamojoje byloje, kai kurie algoritmų taikymo pavojai sprendime aptarti.

A. Završnik pabrėžia, kad vienas iš sudėtingiausių klausimų dėl tam tikrų vertinimų algoritmizavimo – vertinimą atliekančių žmonių (pareigūnų, teisėjų) šališkumas (Završnik, 2019, p. 11). Įdomu, kad pats Viskonsino Aukščiausiasis Teismas pabrėžė kuo tikslesnių duomenų, priimant sprendimą dėl bausmės skyrimo, poreikį. Teismas algoritmo taikymo teisėtumą patvirtinančiame sprendime rėmėsi įrodymais pagrįstų bausmių skyrimo idėja. Teismas pabrėžė, kad anksčiau tokie klausimais: ar reikia gydymo?, jei taip, kokio?, kiek laiko turi trukti priežiūra? nuolat buvo paliekami teisėjo intuicijai ar pataisos sistemos pareigūno standartinei praktikai6.

Bene garsiausia Europoje naudojama rizikos vertinimo priemonė – HART. Tai Jungtinės Karalystės teisėsaugos institucijų kartu su Kembridžo universiteto mokslininkais vystoma programa. Ja taip pat siekiama nustatyti asmens polinkio pakartotinai nusikalsti riziką. Programoje atsižvelgiama į apie 30 kriterijų. Naudojami 2008–2012 m. Durham policijos archyvo duomenys. Įdomu, kad pirminiuose testuose 2013 m. konstatuotas net 98 proc. tikslumas, kai konstatuota maža recidyvo rizika, ir 88 proc. tikslumas – nustačius didelę recidyvo riziką (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018, p. 52).

Nors asmens elgesio prognozavimas nėra tradicinis faktinių praeityje įvykusių aplinkybių identifikavimas teismo veikloje, o tam tikras asmens elgesio ateityje nuspėjimas, nurodyti pavyzdžiai iliustruoja statistika paremtų algoritmų galimybes prisidėti prie informuoto teisėjo sprendimo. Išvysčius algoritmus, padedančius nustatyti tam tikrų aplinkybių tikimybę, vienas iš didžiausių kilsiančių klausimų – kiek teismas gali remtis statistikos analize pagrįsta tikimybe? (McCormick, 2013, p. 1266).

Didelė baudžiamosios justicijos srityje taikytinų algoritmų problematika – jų vertinimas esamų baudžiamojo proceso kategorijų kontekste7. Galima numanyti, kad bausmių skyrimo metu priimamo sprendimo reikalingų faktų nustatymas yra įrodinėjimo proceso dalis – juk pateikiami vertinimai, kurie remiasi byloje esamais įrodymais: klausimynais, stebėjimais ir kt. Pagal savo esmę tokios baudžiamajame procese naudojamos priemonės atlieka teismui pateikiamos specialisto / eksperto išvados funkciją.

Analogiška problematika yra ir su kitais teismų procesais: civiliniu, administraciniu ir kitais. Statistika pagrįstos išvados įrodomosios galios klausimas lieka atviras tiek dėl ribotų ekspertinių galimybių teismui įvertinti tokios išvados patikimumą, tiek dėl techninių sunkumų tiksliai identifikuoti tam tikro įvykio tikimybę. Pirmas klausimas dėl teisėjų galimybių įvertinti ekspertinių žinių patikimumą patenka į vis gilesnį ekspertinių žinių teismų procesuose diskursą (Dillon, 2018). Antras klausimas yra techninio pobūdžio ir spręstinas kartu su techninę algoritmo pritaikymo pusę išmanančiais ir algoritmo rezultatus interpretuoti galinčiais ekspertais.

Algoritmo pagrindu teikiamos išvados vertė savaime ir jos pateikimas specialisto teismo procese lemia sudėtingą pateikiamos informacijos patikimumo klausimą. Asmenybės nustatymo atveju specialistas, įvertinęs statistinę medžiagą, remiasi tam tikra moksline metodika ir atitinkamai pateikia tikimybėmis įvardijamą situacijos vertinimą. Kai tokiai išvadai pasitelkiamas algoritmas – metodika (algoritmas) tampa savarankiškos išvados šaltiniu. Kol kas sunku įsivaizduoti atvejus, kai algoritmo situacijos vertinimas nėra pateikiamas teismui be specialisto dalyvavimo. Tad šiandien aktualių algoritmų kontekste pateikiamos tikimybės traktuotinos ir vertintinos kaip specialisto priemonės jo atliekamame faktų teikimo teismui procese. Ateityje galime numanyti vis didesnį iššūkį, paplitus įvykių tikimybės nustatymo galimybėms, kiekvieną kartą jiems pristatyti pasitelkti specialistą.

Faktų nustatymo metu teismo procese algoritmų naudojimas problemiškas dėl vaidmens kitų įrodymų atžvilgiu. Algoritmo taikymo atveju teismui reikšmingų faktinių aplinkybių nustatymas nėra pakeičiamas – algoritmas yra papildoma ekspertinė galimybė, remiantis statistiniais metodais, nustatyti reikšmingas aplinkybes. Todėl teismas savarankiškai vertina visus duomenis, kartu ir tuos, kurie pateikti specialistų, remiantis algoritmais.

Teisės į teisingą bylos nagrinėjimą prasme algoritmų pagrindu teikiamų faktinių išvadų teisėtumas vertintinas per šią teisę užtikrinančių įrodinėjimo taisyklių taikymą. Žmogaus teisių ir pagrindinių laisvių apsaugos konvencijos (Konvencija) 6 straipsnio (teisė į teisingą bylos nagrinėjimą) prasme Europos Žmogaus Teisių Teismas (EŽTT) yra nurodęs, kad klausimas dėl įrodymų vertinimo yra susijęs su analize, ar bylos nagrinėjimas kaip visuma, įskaitant tai, kaip buvo gauti įrodymai, buvo teisinga8. Ne mažiau svarbus klausimas yra šaliai sudaroma galimybė ginčyti įrodymų tikrumą ir prieštarauti prieš jų teikimą9.

3. Taikytinos teisės nustatymas – teisinių informacinių sistemų naudojimas

Antroji teisės taikymo stadija – taikytinų teisės normų nustatymas (Lastauskienė, 2009, p. 46). Nustatyti taikytiną teisę nagrinėjamų faktinių aplinkybių kontekste – dažnai itin kompleksinė veikla. Vis didesnis taikytinų teisės normų skaičius, sudėtingas teisės normų tarpusavio ryšys verčia teisę tapti išimčių iš bendrųjų taisyklių tinklu. Šiandien dėl teisės sistemos sudėtingėjimo teisinis reguliavimas, teismų praktika, teisės principai, kitos reikšmingos teisės nuostatos jau tampa besivystančio sudėtingų sistemų (angl. complex systems) mokslo objektu (Arbesman, 2017).

Taigi, sudėtinga, bet sąlygiškai stabili teisės sistema verčia matyti didžiulį algoritmizavimo potencialą. Šiuo atveju pirmiausiai kalbame apie rinkose besikuriančias teisinės analizės priemones, leidžiančias identifikuoti aktualius teisės šaltinius – teisines informacines sistemas.

Atsižvelgiant į ne itin platų lietuvių kalbos paplitimą, tokių priemonių vystymas Lietuvoje turi kol kas gan ribotas galimybes. Būtų sunku rasti teisininką, kuris nėra naudojęsis Infolex teisės aktų ar teismų praktikos paieškos sistema. Atitinkamai, net esant viešai prieinamiems Lietuvos teismų sprendimams ir teisės aktams bei jų projektams, tikėtina, kad dauguma teisėjų vien dėl patogumo ir efektyvumo naudojasi Infolex sistema. Infolex sistemos suteikiama galimybė rasti aktualios teismų praktikos yra svarbi teismų veiklai efektyvinti. Nedaug kas norėtų, kad vieninteliu teismų praktikos šaltiniu būtų spausdintiniai teminiai teismų praktikos rinkiniai.

Apskritai teisinės analizės srityje algoritmizavimo galimybės yra plačios. Didelę reikšmę kuriamoms teisinėms informacinėms sistemoms turi suprogramuoti paieškos metodai, duomenų sąsajumo lygmenys. Duomenų bazių valdytojai įprastai neleidžia susipažinti su jų naudojamų algoritmų turiniu – tai intelektinės nuosavybės teisės saugomi kūriniai (Mart, 2017, p. 389). Todėl diskusija dėl kiekvienos teisinės analizės priemonės šališkumo, patikimumo, gylio, kategorijų sąsajumo yra gan spekuliatyvi. Ir nors šis klausimas aktualus kiekvienam teisininkui, teismų veiklos kontekste teisinių informacinių sistemų naudojimo rizika vertintina ypač atidžiai, atsižvelgiant į teisėjų veiklos ypatumus.

S. N. Mart pažymi svarbią etinę teisinėje analizėje naudojamo algoritmo supratimo pusę. Ji pabrėžia konkrečių rezultatų gavimo prielaidų suvokimo svarbą (Mart, 2017, p. 393–394). Klasikinės Būlio algebra paremtos paieškos sistemos vis dar dominuoja mūsų mąstyme. Tačiau daugėja priemonių, kuriose įdiegtos sudėtingos klasifikavimo schemos, išankstinis informacijos filtravimas, informacijos prioretizavimas, atsižvelgiant į vartotojui nežinomus veiksnius (Mart, 2017, p. 391–392). Tokių priemonių vystymas teisėjų darbe gali lemti tam tikrų etinių įtampų atsiradimą.

Programavimas nėra vienpusė mechaniška veikla. Algoritmo kūrimas – sudėtingas procesas, apimantis bandymus, bendradarbiavimą, diskusijas, derybas (Kitchin, 2017, p. 18). R. Kitchin pabrėžia, kad algoritmai daro įtaką mūsų supratimui apie pasaulį. Algoritmai visada yra tam tikru mastu nekonkretūs, laikini, chaotiški pasiekimai (ten pat, p. 18).

R. Kitchin pažymi, kad algoritmų pagrindu pateikiamų rezultatų nenuspėjamumas yra nulemtas trijų priežasčių. Pirma, algoritmai yra dalis plataus informacijos sąveikos tinklo, kuris lemia jų funkcionalumą. Todėl prastos kokybės duomenys lemia silpnus rezultatus. Antra, sunku iš anksto numatyti algoritmų šalutinį poveikį, jų faktiškai kuriamą rezultatą. Trečia, algoritmai gali būti šališki ar būti su klaidomis dėl trikių (angl. bugs) ir programavimo klaidų (Kitchin, 2017, p. 19).

Įdomus S. N. Mart su kolegomis atliktas eksperimentas iliustruoja paieškos sistemų algoritmų problematiką. Tyrimo metu buvo analizuojama, kaip analogiško klausimo teisinė analizė atliekama skirtingose populiariose anglakalbėse teisinės paieškos sistemose. Tyrėjai analizavo šešių populiarių teisinės analizės būdų rezultatus, atliekant analogiškas paieškas. Į tyrimą įtraukti ne tik seniausios Westlaw ir Lexis Advance sistemos, bet ir naujesnės Fastcase, Google Scholar, Ravel bei Casetext. Studija atskleidė, kad kiekviena sistema pagrįsta skirtingais šališkumais ir prielaidomis. Pavyzdžiui, daugiausiai aktualių naujausių bylų į užklausas pateikė Casetext, Fastcase ir Westlaw. O didžiausias susijusių su užklausa bylų procentas nustatytas Lexis Advance ir Westlaw paieškos sistemose (Mart, 2017).

Teisėjų darbo kontekste paieškos priemonės pasirinkimas gali nulemti randamus rezultatus. Polinkis naudoti vieną ar kitą šaltinį gali prisidėti prie teisėjo klaidos. Teisinės informacinės sistemos gali paveikti teismo nešališkumą, nes šios sistemos nebūtinai yra neutralios (Contini, Cordella, 2017, p. 252). Jei paieškos sistema padeda atrinkti netinkamą šaltinį, jos pateikiamus duomenis būtina vertinti kitų prieinamų šaltinių kontekste.

Kaip ir pirmiau nurodyto faktų konstatavimo atveju, taikytinos teisės nustatymo metu teisėjas nėra pasyvus algoritmo „sprendimo priėmimo“ stebėtojas – jis renkasi, analizuoja duomenis, vertina alternatyvas. Teisėjui paliekama pakankama diskrecija priimant sprendimą, nes remiantis algoritmu nėra pateikiamas galutinis atsakymas10.

Teisės į teisingą bylos nagrinėjimą užtikrinimo požiūriu itin svarbūs teismo proceso rungimosi ir šalių lygybės principai. Taikydamas Konvencijos 6 straipsnį EŽTT yra nurodęs, kad rungimosi principas reiškia šalių galimybę žinoti ir komentuoti visus įrodymus ir teiginius, pateiktus siekiant daryti įtaką teismo sprendimui11. Tad teisėjas nėra vienintelis subjektas, darantis įtaką byloje taikytinai teisei nustatyti. Šalys taip pat teikia savo teisinį vertinimą konkrečioje situacijoje ir jų pateiktas vertinimas ilgainiui galėtų būti stiprinamas per rungimosi principo įtvirtinimą, atsižvelgiant į rizikas, susijusias su taikytinos teisės nustatymo algoritmizavimu. Rungimasis ir įsiklausymas į šalių pateikiamus argumentus yra tarp svarbiausių saugiklių, leidžiančių sumažinti paieškos sistemos daromos klaidos tikimybę.

4. Galimybės automatizuoti sprendimo priėmimą

Nustačius faktines bylos aplinkybes ir taikytiną teisę, galima pereiti prie galutinio teisės taikymo veiksmo – sprendimo priėmimo. Formalios logikos požiūriu – tai subsumcija. Kaip nurodo G. Lastauskienė, subsumcijos metu bendroje teisės normoje įtvirtintas standartas užpildomas nustatyta faktine situacija. Taip bendromis normomis sprendžiama konkreti gyvenimo situacija – sukuriama individuali teisės norma (Lastauskienė, 2009, p. 50).

Teisėjo atliekamas sprendimo priėmimo veiksmas praktikoje retai kada gali būti prilygintinas subsumcijai formalios logikos požiūriu. Subsumcija teisėjo veikloje yra labiau alegorija, leidžianti suprasti ir struktūrizuoti teismo sprendimo priėmimo procesą.

Tai, kaip teismui pavyko atlikti subsumciją, galima matyti iš eksplicitinės teismo sprendimo dalies – pateiktų motyvų. Tad esminė sprendimo priėmimo stadijos išraiškos forma yra motyvų išdėstymas, t. y. teismo atliekamas teisinis argumentavimas. Teisinis argumentavimas, viena iš teisinio samprotavimo formų (Stelmach, Brozek, 2006, p. 12), yra bene svarbiausia teismų naudojama teisinio samprotavimo priemonė (Murauskas, 2015, p. 49). Teismo pateikiami argumentai suteikia pagrindą teikti apeliaciją, yra teismo sprendimą įteisinanti priemonė.

2018 m. CEPEJ analizėje atkreipiamas dėmesys į specifinių dirbtinio intelekto sistemų – natūralios kalbos apdorojimo ir mašininio mokymosi – potencialą teisės taikymo teismų veikloje (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018, p. 29). Mašininis mokymasis yra po skėtine DI samprata patenkanti algoritmus tirianti sritis, apimanti kompiuterio savybę mokytis iš pateikiamų duomenų, nesinaudojant iš anksto pateikiamomis taisyklėmis. Galimybė įvertinti duomenis, kurti duomenų grupes ir atitinkamai duomenis jungiančias taisykles potencialiai gali padėti algoritmų pagrindu, remiantis praeities teismo praktika, spręsti konkrečią faktinę situaciją. Tai didelė galimybė ir patiems teismams, leidžianti ne tik turėti sprendžiamo ginčo automatizuotai paruoštą šabloną, bet ir sudaranti dideles galimybes suderinti teismų praktiką.

Tačiau net ir labiausiai sofistikuotoms dirbtinio intelekto sistemoms neįmanoma nustatyti tikslo sukurti teisinio argumentavimo konkretaus sprendimo atveju. Šios sistemos nustato skirtingų sprendimo parametrų koreliacijas ir identifikuoja specifinius skirtingais parametrais pagrįstus modelius. Nepaisant koreliacijų nustatymo ribotumo12, tokie modeliai leidžia kalbėti apie galimybes tam tikromis situacijomis bandyti „nuspėti“ teismo sprendimo baigtį (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018, p. 29).

Teismų veikloje arčiausiai sprendimo priėmimo stadijos algoritmizavimo yra sprendimo „svarstyklių“ arba, kitais žodžiais, ginčo krypties nustatymas nesudėtinguose ginčuose. Šiuo atveju kalbama apie priemones, kurios leidžia dažnai pasikartojančiose ir aiškiais kriterijais apibrėžtinose situacijose sukurti algoritmą, nurodantį siūlomą sprendimo baigtį, esant konkretiems faktams (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018, p. 43). Galima kalbėti apie ginčus, kuriems reikia nedidelio argumentavimo, pavyzdžiui, kai kurios administracinių nusižengimų teisenos bylos, ginčai dėl mokesčių už komunalines atliekas ir pan. „Svarstyklės“ yra vienas žingsnis nuo šiuo metu teisinių informacinių sistemų taikomų paieškos variklių, o kai kurios labiau išvystytos teisinės informacinės sistemos iš esmės jau siūlo panašias analizės paslaugas.

Vis dėlto sprendimo priėmimo stadijos algoritmizavimo idėja yra dar labai toli nuo realybės. Daugiausia dėmesio diskusijoje dėl sprendimo priėmimo algoritmizavimo suteikiama dviejų tipų algoritmų taikymo atvejams: (i) teismų praktikos analitinėms priemonėms, kuriomis bandoma „nuspėti“ teismo sprendimą, ir (ii) skaitmeniniams ginčų sprendimams.

Teismo sprendimo „nuspėjimo“ idėja labai artima pirmiau minėtoms „svarstyklėms“. Iš esmės idėja yra analogiška – galimybė remiantis apibrėžtais kriterijais, jau išnagrinėtomis teismo bylomis, nuspėti bylos baigtį. Būdų atlikti tokį „nuspėjimą“ yra begalė. Lieka išvados patikimumo klausimas. Teismo veikloje tokia priemonė potencialiai galėtų suformuoti pradinį sprendimo tekstą konkrečioje byloje arba bent jau atkreipti teisėjo dėmesį į aplinkybes, kurios reikšmingos skirtingą baigtį turėjusiose praeities bylose. Iki dabar eksperimentavimas su teismų sprendimų „nuspėjimu“ dažniau atliekamas privačių subjektų arba akademinio pasaulio atstovų. Tikėtina, kad sėkminga priemonė galėtų tapti ir teismų veiklos pagrindu.

Vienas iš plačiai žinomų pavyzdžių yra tyrėjų grupės iš Londono universiteto koledžo (UCL), Šefildo ir Pensilvanijos universitetų sukurtas algoritmas, leidžiantis 79 proc. tikslumu „nuspėti“ bylos Europos Žmogaus Teisių Teisme baigtį. Metodas remiasi teismo sprendimų teksto analize (Aletras, 2016). Tiesa, atidesnis pasitelkto metodo vertinimas gali kelti nemažai jo patikimumo klausimų. Pavyzdžiui, tai, kad faktų konstatavimo dalis, į kurią kreipia tyrėjų taikytas modelis, EŽTT sprendimuose nėra tvirtinama atskirai nuo galutinio teismo sprendimo. Todėl gali būti, kad faktinei daliai surašyti daroma įtaka, atsižvelgus į konkrečios bylos baigtį.

Galimybė „nuspėti“ ginčo baigtį yra gan populiari ir teismų veiklos efektyvinimo kontekste. Populiarėja idėja suteikti potencialiems bylininkams galimybę pasitikrinti sėkmę prieš kreipiantis į teismą. Idėjos esmė – siekis optimizuoti teismų sąnaudas, sudarant galimybes suinteresuotiems asmenims iš anksto įvertinti kreipimosi į teismą prasmę.

Kalbant apie bent kiek sudėtingesnes situacijas galima pripažinti – algoritmizavimo idėjai svarbus kontekstas. Teisinis argumentavimas nėra statistika, o teismo sprendimas nėra matematinis modelis. Teisėjas į veiklą įtraukia daugybę veiksnių. Tos pačios situacijos vertinimas gali labai skirtis, o skirtingų teisės principų kolizija sprendžiama identifikuojant prioritetą konkrečiu atveju. Žodinis bylos nagrinėjimas gali nulemti tai, kad teisėjas, bendravęs su bylos šalimi, turi labiau visapusišką įspūdį apie susidariusią situaciją.

Kita vertus, ar tikrai noras individualizuoti situaciją ir nesiremti statistiniais duomenimis ir jų analize pagrįstas? McCormick ir kiti pabrėžia, kad galimas nenoras įtraukti tikimybėmis pagrįstus vertinimus gali būti susijęs su pagarba žmogaus autonomijai ir orumui. Teismai gali būti nelinkę remtis nuasmeninta statistine analize, vertindami konkretaus žmogaus elgesį. Be to, kiekvienas žmogus turi turėti galimybę nukrypti nuo statistinio elgesio vidurkio (McCormick, 2013, p. 1268–1269).

Su teismo sprendimo baigties „nuspėjimu“ susijęs kitas sprendimo priėmimo veiksmo algoritmizavimo potencialas – skaitmeniniai ginčų sprendimai (ODR). Nesudėtingus ginčus perkelti į elektroninę erdvę nėra nauja idėja, bet ji įgauna vis didesnį pagreitį (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos..., 2018, p. 44). Didelė skaitmeninių ginčų sprendimų dalis pirmiausiai yra susijusi su ginčų sprendimo perkėlimu į elektroninę erdvę.

Sprendimo priėmimo algoritmizavimo prasme aktualūs bandymai automatizuoti bent dalį skaitmeninio ginčo sprendimo proceso. Štai Vokietijoje veikianti mediacijos paslauga Online Schlichter yra iš dalies automatizuota – siūlomi tekstų blokai, atsižvelgiant į ginčo turinį, o mediatorius pateikia ginčo sprendimo rekomendaciją. Tai neretai leidžia gan operatyviai išspręsti situaciją be didelių papildomų sąnaudų (Online Dispute Resolution..., 2015, p. 15).

DI sistemų įtraukimas yra nuoseklus žingsnis, kurio laukiama iš skaitmeninių ginčų sprendimų vystytojų. Pagrindinis DI sistemų įtraukimo į skaitmeninius ginčų sprendimus tikslas yra „pasiekti technologinę ribą, lemiančią skaičiavimo sistemų veikimą trečiosios šalies vaidmenyje“ (Carneiro et al., 2014, p. 214). Sprendimų priėmimo automatizavimas pirmiausiai bandomas nesudėtinguose ginčuose įvairiose alternatyvių ginčų sprendimo platformose. Galima numanyti, kad būtent alternatyvūs ginčų sprendimai yra ta forma, kurioje išbandyti atskiri algoritmai ilgainiui bus perkeliami į tradicinius teismus.

CEPEJ analizė atskleidžia slidų ryšį tarp algoritmų, potencialiai galinčių pateikti duomenis dėl sprendimo krypties („svarstyklių“), ir algoritmų, realiai atliekančių subsumcijos veiksmą (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018, p. 45). Tačiau šioje vietoje reikėtų grįžti į supančią realybę – teisėjo atliekamas subsumcijos veiksmas praktikoje neprilygintinas subsumcijai logikos požiūriu. Itin ribotos informacijos ir taikytinos teisės situacijose nekyla didelių problemų dėl sprendimo priėmimo stadijos algoritmizavimo. Aiškūs teismo sprendimo kriterijai kai kuriuose ginčuose gali itin pagreitinti sprendimo priėmimo procesą, sumažinti teisėjų darbų krūvį tais atvejais, kai nereikia didelių ekspertinių žinių. Tačiau tokie ginčai yra ne visi.

Daugelyje ginčų teisėjai vertina sudėtingas faktines situacijas, niuansuotą teisinį reguliavimą. Taip pat teisėjai sprendžia teismų praktikos įtampas, susiduria su vertybiniais dialogais, mato visuomenės ir socialinės padėties kontekstą bei vertina daugybę kitų nematomų veiksnių. Kaip yra nurodęs A. Barakas, tarp teisėjo funkcijų yra suprasti teisės paskirtį visuomenėje ir padėti teisei atitikti savo paskirtį (Barak, 2006, p. 292). Tad specifinių, kontekstinių rodiklių algoritmizavimas šiandien neįmanomas technine prasme. Be to, tokia idėja prieštarautų esminiams teisėjo veiklos postulatams. O ypač – kartu egzistuojantiems skirtingiems teisėjų veiklos modeliams, apimantiems tiek konservatyvaus originalisto, tiek plačią aktyvaus teisėjo sampratas.

Tais atvejais, kai algoritmų pagrindu atliekama analizė gali būti prilyginama subsumcijai (pvz., pateikiamas teismo sprendimo projektas), teisinių garantijų užtikrinimas pirmiausiai yra susijęs su teisėjo peržiūros galimybe ir kuo išsamesniu teisiniu argumentavimu. Teisės į teisingą bylos nagrinėjimą prasme EŽTT yra nurodęs, kad teismai turi pakankamai aiškiai nurodyti sprendimo priėmimo pagrindus, o motyvuotas teismo sprendimas yra svarbus, siekiant užtikrinti veiksmingą asmens galimybę teikti apeliaciją13. Būtent sprendimų argumentavimo reikalavimas yra viena iš esminių priemonių, leidžiančių išsaugoti teismo sprendimo teisėtumą šioje teisinio kvalifikavimo stadijoje.

Išvados

1. Teismų veikloje nagrinėjant bylas taikytinų algoritmų pavyzdžiai leidžia teigti apie būtinybę įvertinti jų potencialą remiantis praktinėmis panaudojimo galimybėmis. Algoritmų taikymo teismo veikloje saugikliai analizuotini konkrečių teisinio kvalifikavimo stadijų kontekste. Tik taip įkontekstintas algoritmo potencialas gali būti vertinamas žmogaus teisėms kylančių rizikų aspektu. Teismo sprendimą suvokiant kaip konvencinį trijų teisinio kvalifikavimo stadijų procesą – fakto nustatymą, teisės nustatymą ir sprendimo priėmimą – galima aiškiau identifikuoti kiekvienai stadijai aktualių algoritmų taikymo teisines prielaidas.

2. Fakto nustatymo atveju algoritmai gali padėti įrodinėjimo procese. Šiame procese esminės teisinės gynybos priemonės įtvirtinamos įrodinėjimo proceso taisyklėmis.

3. Teisės nustatymo atveju algoritmai gali padėti analizuoti gausius teisės šaltinius, išrinkti taikytiną teisę. Naudojant algoritmus taikytinos teisės nustatymo metu pagrindiniai saugikliai įtvirtinami remiantis rungimosi ir šalių lygiateisiškumo principais.

4. Galutiniame sprendimo priėmimo veiksme algoritmų potencialas yra ribotas, jis gali būti susijęs su nesudėtingų ginčų sprendimu arba, remiantis algoritmu, siūlant tam tikrus praeities duomenimis pagrįstus sprendimo modelius. Tokiais atvejais saugiklių reikia ieškoti reikalavimuose, susijusiuose su pareiga pateikti išsamų teisinį argumentavimą ir galimybe teisėjui keisti algoritmo pagrindu pateikiamus vertinimus.

Literatūra

Specialioji literatūra

Aletras, N. et al. (2016). Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, PeerJ Computer Science, 2:e93, 2016 [interaktyvus], Prieiga per internetą: https://doi.org/10.7717/peerj-cs.93 [žiūrėta 2019 m. gruodžio 17 d.].

Arbseman, S. (2017). Overcomplicated: Technology at the Limits of Comprehension. Portfolio.

Barak, A. (2006). Teisėjo vaidmuo demokratinėje valstybėje. Konstitucinė jurisprudencija, Nr. 1.

Carneiro, D. et al. (2014). Online Dispute Resolution: an Artificial Intelligence Perspective, 41(2) Artificial Intelligence Review, 211.

Contini, F.; Cordella, A. (2017). Law and Technology in Civil Procedures. In The Oxford Handbook of Law, Regulation, and Technology, eds. R. Brownsword et al., OUP.

Dillon, J. (2018). Expertise on Trial. 19 Columbia Science and Technology Law Review 247.

Kahneman, D. (2013). Thinking Fast and Slow. 1st ed. Farrar, Straus and Giroux.

Jackson, J.; Doran, S. (2010). Evidence. In A Companion to Philosophy of Law and Legal Theory, ed. D. Patterson, 2nd ed., Wiley-Blackwell.

Kitchin, R. (2017) Thinking critically about and researching algorithms. Information, Communication & Society, 20:1.

Klingele, C. (2015). The Promises and Perils of Evidence-Based Corrections. Notre Dame L. Rev., 91.

Kuconis, P.; Nekrošius, V. (2001). Teisėsaugos institucijos. 2-asis leidimas. Vilnius: Justitia.

Lastauskienė, G. (2009). Teisinis kvalifikavimas formaliosios logikos požiūriu. Teisė, 73.

Laužikas, E. et al. (2005). Civilinio proceso teise. II tomas. Vilnius: Justitia.

Marks, A; Bowling, B; Keenan, C. (2017). Automated Justice? Technology, Crime, and Social Control. In the Oxford Handbook of Law, Regulation, and Technology. eds. R. Broownsword; E. Scotford; K. Yeung. OUP.

Mart, S. N. (2017). The Algorithm as a Human Artifact: Implications for Legal {Re}Search, SSRN. Law Library Journal, Vol. 109:3.

McCormick, Ch, T. et al. (2013). McCormick on evidence. Vol. 1, 7th ed., West Group.

Murauskas, D. (2015). Instrumentalizmas teismų sprendimuose: argumentavimas įvertinus socialinius padarinius. Daktaro disertacija. Vilnius: Vilniaus universitetas.

Stelmach, J. and Brozek, B. (2006). Methods of Legal Reasoning. Springer.

Stubbs, M. M. and Plesničar, K. Š. (2018). Subjectivity, algorithms and the courtroom. In Big Data, Crime and Social Control. Ed. A. Završnik, Routledge.

Schwartz, P. (1992). Data Processing and Government Administration: The Failure of the American Legal Response to the Computer. Hastings Law Journal, 43.

Twining, W. (2006). Rethinking Evidence: Exploratory Essays. 2nd edition. Eds. W. Twining and Ch. McCrudden. Cambridge University Press.

Završnik, A. (2018). Algorithmic crime control. In Big Data, Crime and Social Control. Ed. A. Završnik, Routledge.

Završnik, A. (2019). Algorithmic justice: Algorithms and big data in criminal justice settings. European Journal of Criminology [interaktyvus]. Prieiga per internetą: https://journals.sagepub.com/doi/10.1177/1477370819876762 [žiūrėta 2020 m. vasario 5 d.].

Teismų praktika

Brandstetter v. Austria [ECHR], 28 August 1991, nos. 11170/84; 12876/87; 13468/87.

Hadjianastassiou v. Greece [ECHR], 16 December 1992, no. 12945/87.

Khan v. the United Kingdom [ECHR], 12 May 2000, no. 35394/97.

Bykov v. Russia [GC] [ECHR], 10 March 2009, no. 4378/02.

JAV Viskonsino Aukščiausiojo Teismo sprendimas byloje State v. Loomis (881 N.W.2d 749 (Wis. 2016)).

Kiti šaltiniai

A Dictionary of Law. (2009). 7th ed., editors J. Law, E. A. Martin, Oxford: Oxford University Press.

Dirbtinio intelekto apibrėžtis. (2019). Pagrindiniai pajėgumai ir mokslo šakos. Europos Komisijos Aukšto lygio ekspertų grupė DI klausimais.

Europos veiksmingo teisingumo komisijos (CEPEJ) Europos etikos chartija dėl dirbtinio intelekto naudojimo teisminėse sistemose ir jų aplinkose. (2018) [interaktyvus]. Prieiga per internetą: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c [žiūrėta 2019 m. gruodžio 12 d.].

Gaubienė, N. (2019). Lietuvos dirbtinio intelekto strategija: ar teisingai suprantamas dirbtinis intelektas? Teise.Pro [interaktyvus]. Prieiga per internetą: http://www.teise.pro/index.php/2019/08/26/n-gaubiene-lietuvos-dirbtinio-intelekto-strategija-ar-teisingai-suprantamas-dirbtinis-intelektas/ [žiūrėta 2020 m. vasario 1 d.].

Lietuvos dirbtinio intelekto strategija. (2019) [interaktyvus]. Prieiga per internetą: http://kurklt.lt/wp-content/uploads/2019/04/DI_strategija_LT_koreguota.pdf [žiūrėta 2019 m. gruodžio 12 d.].

Online Dispute Resolution for Low Value Civil Claims. Online Dispute Resolution Advisory Group. Civil Justice Council. (2015) [interaktyvus]. Prieiga per internetą: https://www.judiciary.uk/wp-content/uploads/2015/02/Online-Dispute-Resolution-Final-Web-Version1.pdf [žiūrėta 2020 m. kovo 25 d.].

Patikimo dirbtinio intelekto etikos gairės. (2019). Europos Komisijos Aukšto lygio ekspertų grupė dirbtinio intelekto klausimais [interaktyvus]. Prieiga per internetą: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top [žiūrėta 2020 m. sausio 12 d.].

Algorithms in Judicial Environments – the Importance of Identifying Relevant Judicial Decision-Making Stage

Donatas Murauskas
(Vilnius University)

Summary

Discussions regarding the algorithmization of judicial decision-making are widespread. Even more so, the risks linked to shifting the responsibility from human judges to artificial intelligence. In practice, the impact of the use of algorithms on human rights should be considered in a more rigorous way. General conclusions about the risks associated with algorithms in the judiciary do not provide enough information on how human rights will be affected in practice and how should we develop present safeguards.

This paper attempts to classify presently used or potential algorithms within the framework of a conventional three stages judicial decision-making structure. The structure includes assessing the facts, indicating applicable law and decision-making stages. The author assumes that placing algorithms in the context of a given stage provides us with more practice-oriented discussions about needed regulatory reforms and interpretation of available remedies. The author provides preliminary outlook on relevant right to a fair trial safeguards in all three decision-making stages.

This paper is a positive doctrinal analysis. It is part of an ongoing research on the right to a fair trial remedies in the context of the ongoing algorithmisation of law-enforcement and judicial decision-making.

Dirbtinis intelektas priimant teismo sprendimą – algoritmų klasifikavimas remiantis teisinio kvalifikavimo stadijomis

Donatas Murauskas
(Vilniaus universitetas)

Santrauka

Straipsniu siekiama preliminariai sugrupuoti algoritmų panaudojimo teismų veikloje formas, remiantis konvenciniu trijų stadijų teisinio kvalifikavimo modeliu. Siekiant šio tikslo pirmiausiai glaustai pristatoma klasikinė teisinio kvalifikavimo samprata. Toliau nustatoma, kokiu aspektu kiekvienoje iš trijų teisinio kvalifikavimo stadijų gali būti panaudoti šiuo metu vystomi algoritmai. Galiausiai identifikuojamos kai kurios teisės į teisingą bylos nagrinėjimą pažeidimo rizikos valdymo gairės, atsižvelgiant į konkrečioje stadijoje taikomų algoritmų turinį.

Straipsnyje konstatuojama, kad su algoritmų taikymu teismų veikloje susijusi rizika turi būti įvertinta, atsižvelgiant į algoritmo panaudojimo praktines galimybes. Algoritmams taikyti teismų aplinkoje naudojami saugikliai analizuotini konkrečių teismo sprendimo priėmimo proceso stadijų kontekste. Konstatuojama, kad tik taip įkontekstintas algoritmo potencialas gali būti analizuojamas kylančių rizikų aspektu.

Remiantis konvenciniu teisės taikymo stadijų modeliu pateikiamos įžvalgos dėl kiekvienos iš stadijų metu naudojamų algoritmų potencialo. Teigiama, kad faktą nustatant algoritmai gali padėti įrodinėjimo procese. Nustatant teisę algoritmai gali padėti analizuoti gausius teisės šaltinius, padėti išrinkti taikytiną teisę. Galutiniame sprendimo priėmimo veiksme algoritmų potencialas yra ribotas, jis gali būti susijęs su paprastų, techninio pobūdžio ginčų sprendimu arba, remiantis algoritmu, siūlant tam tikrus praeities duomenimis pagrįstus sprendimo modelius. Straipsnyje pateikiamos preliminarios teisės į teisingą bylos nagrinėjimą taikymo gairės kiekvienoje iš aptariamų teisės taikymo stadijų.

Šiuo straipsniu pristatoma autoriaus tyrimo dalis – doktrininio tipo. Juo nesiekiama normatyvinių išvadų, tai pozityvioji analizė. Tai platesnio teisėsaugos institucijų ir teismų veiklos algoritmizavimo keliamų rizikų teisės į teisingą bylos nagrinėjimą tyrimo dalis.

Donatas Murauskas yra Vilniaus universiteto Teisės fakulteto asistentas, mokslo darbuotojas. Baigęs teisės magistro studijas Vilniaus universiteto Teisės fakultete, studijavo ekonominę teisės analizę pagal LL.M programą Bolonijos, Hamburgo ir Roterdamo universitetuose. Apgynė teisės krypties disertaciją Vilniaus universitete. Turi ilgametę teisėjo padėjėjo patirtį Lietuvos vyriausiajame administraciniame teisme. Vadovavo Teisingumo ministerijos Atstovavimo Europos Žmogaus Teisių Teisme skyriui, laikinai ėjo Vyriausybės atstovo Europos Žmogaus Teisių Teisme pareigas. Stažavosi Roterdamo universitete (Nyderlandai), Šarlotės teisės mokykloje (JAV), Mastrichto universitete (Nyderlandai), Wake Forest universitete (JAV) pagal Fulbright programą. Moksliniai interesai: žmogaus teisių teisė, žmogaus teisės ir technologijos, teisinis argumentavimas, nacionaliniai ir supranacionaliniai teismai.

Dr. Donatas Murauskas is an Assistant Professor at Vilnius University. He was the Head of Representation Division of Lithuanian Government to the European Court of Human Rights and the United Nations Human Rights Committee. He was a Fulbright Research Scholar at Wake Forest University School of Law. He earned his Master at Vilnius University, LL.M in Law & Economics at Bologna University (Italy), Hamburg University (Germany) and Rotterdam University (the Netherlands) and Ph.D. at Vilnius University. He was a judicial clerk at the Supreme Administrative Court of Lithuania. Research interests: Human Rights Law; Human Rights and Technologies; Legal Reasoning; National and Supranational Courts, Constitutional Law.

1 Straipsnyje pristatoma autoriaus atliekamo tyrimo Artificial Intelligence and Human Rights: Re-evaluating International Human Rights Frameworks dalis. Straipsnyje pateikiamos įžvalgos įkvėptos Vilniaus universitete 2019 m. organizuotų tarptautinių konferencijų Algorithmisation of Dispute Resolution ir Future of Tech metu ir po jų vykusių diskusijų. Autoriaus atliekamo tyrimo dalis yra finansuojama pagal Fulbright Visiting Scholars programą, atliekamą Wake Forest universitete, JAV 2019 m. lapkričio – 2020 m. gegužės mėn. Autorius ypač dėkoja vertingas pastabas pateikusiems anoniminiams recenzentams.

2 Referuojama į DI sistemų apibrėžimą, pateikiamą Europos Komisijos Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais sukurtoje DI apibrėžtyje (Dirbtinio intelekto apibrėžtis, 2019, p. 6).

3 Algoritmas – baigtinė formalių taisyklių (loginių operacijų ir instrukcijų) seka, leidžianti pasiekti rezultatą, remiantis pradine pateikta informacija (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018, p. 69).

4 Žr. šiuo požiūriu vieną svarbiausių ir autoritetingiausių programinių dokumentų – 2018 m. gruodžio mėn. Europos veiksmingo teisingumo komisijos (CEPEJ) susitikime priimtą Europos etikos chartiją dėl dirbtinio intelekto naudojimo teisminėse sistemose ir jų aplinkose, o ypač jos I priedą (Europos veiksmingo teisingumo komisijos (CEPEJ) Europos... 2018).

5 Angl. [a] decision made by a court in respect of the matter before it. (A Dictionary of Law, 2009).

6 Žr. JAV Viskonsino Aukščiausiojo Teismo sprendimas byloje State v. Loomis (881 N.W.2d 749 (Wis. 2016)), 40 pastraipą.

7 Nereikia pamiršti, kad JAV taikomas COMPAS programos pavyzdys turi būti matomas per specifinę JAV teisės sistemos skiriamą vaidmenį bausmės skyrimo etapui – jis laikomas gan techniniu veiksmu ir jam nėra skiriama tokio paties dėmesio užtikrinti teises, kaip etape, nustatančiame nusikalstamos veikos padarymą.

8 Žr. pvz., Europos Žmogaus Teisių Teismo sprendimą byloje Khan v. the United Kingdom, 12 May 2000, no. 35394/97, § 34

9 Žr. pvz., Europos Žmogaus Teisių Teismo sprendimą byloje Bykov v. Russia [GC], 10 March 2009, no. 4378/02, § 89;

10 Faktų nustatymo kontekste žr. M. M. Stubbs ir K. Š. Plesničar straipsnį Subjectivity, algorithms and the courtroom (Plesničar, Stubbs, 2018, p. 163).

11 Žr. pvz., Europos Žmogaus Teisių Teismo sprendimą byloje Brandstetter v. Austria, 28 August 1991, nos. 11170/84; 12876/87; 13468/87, § 67.

12 Ekspertai pabrėžia, kad viena iš didžiausių pasitikėjimo algoritmais problemų yra klasikinė koreliacijos ir priežastingumo sutapties problema, kai koreliacija dar nereiškia priežastingumo (angl. correlation does not imply causation). Dideli duomenų kiekiai gali padėti aptikti reikšmingų veiksnių grupes. Tačiau veiksnių sąsajos gali būti atsitiktinės, o tai tik sumažins šiomis sąsajomis pagrįstų sprendimų kokybę.

13 Žr. pvz., Europos Žmogaus Teisių Teismo sprendimą byloje Hadjianastassiou v. Greece, 16 December 1992, no. 12945/87