Teisė ISSN 1392-1274 eISSN 2424-6050

2022, Vol. 125, pp. 145–160 DOI: https://doi.org/10.15388/Teise.2022.125.9

Automatizuoti administraciniai nurodymai Lietuvoje

Goda Strikaitė-Latušinskaja
https://orcid.org/0000-0003-1284-5783
Vilniaus universiteto Teisės fakulteto
Viešosios teisės katedros doktorantė
Saulėtekio al. 9, I rūmai, LT-10222 Vilnius, Lietuva
Tel.: (+370 5) 236 61 75
El. paštas: goda.strikaite@tf.vu.lt

Straipsnyje atliekant įvairių teisės šaltinių analizę pateikiamas vertinimas, koks automatizuoto administracinio nurodymo būdas yra naudojamas Lietuvoje, kokias rizikas pasirinktas subinstituto įtvirtinimo nacionalinėje teisėje būdas sukelia, analizuojama, kokia yra europietiška technologijų integracijos įgyvendinant valstybės viešąsias funkcijas kryptis. Įvertinus nacionalinės teisės nuostatas ir Europos Sąjungos teisinį reguliavimą, siūloma, kaip būtų galima patobulinti pasirinktą algoritmų inkorporavimo į administracinių nurodymų priėmimo procesą būdą. Taigi, straipsnyje analizuojami potencialūs automatizuoto administracinio nurodymo subinstituto probleminiai aspektai, lemiami pasirinkto teisinio reglamentavimo ir automatizacijos integravimo būdo.
Pagrindiniai žodžiai: administracinis nurodymas, automatizuotas administracinis nurodymas, viešasis sektorius, automatizacija, automatizacija viešajame sektoriuje.

Automated Administrative Orders in Lithuania

By analyzing various sources of law, this paper provides an assessment of the method of automated administrative order that is used in Lithuania, its potential problematic risks, determined due to the chosen legal regulation, as well as the European vision of integrating technology in the implementation of the public functions of the state. After evaluating the provisions of both national law and European Union law, a proposal regarding how to improve the chosen method of incorporating algorithms into the process of adopting certain administrative orders is made.
Keywords: administrative order, automated administrative order, public sector, automation, automation in the public sector.

_________

Received: 19/05/2022. Accepted: 07/11/2022
Copyright © 2022 Goda Strikaitė-Latušinskaja. Published by
Vilnius University Press
This is an Open Access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited.

Įvadas

Temos aktualumas. Technologijų vystymosi raida yra neatsiejama nuo jos sukeliamų padarinių visuomenės gyvenime, dėl sukeliamų drastiškų pokyčių jos įvardijamos pramonės revoliucijomis. Kiekviena pramonės revoliucija sukėlė didžiulius socialinius pokyčius ir sukūrė daugybę galimybių, o ketvirtoji pramonės revoliucija (Schwab, 2017) pagal mastą, išplitimo spartą bei atsižvelgus į tolesnės plėtros galimybes yra pripažįstama didžiausia, tad labai svarbu tinkamai reglamentuoti technologijų naudojimo tvarką ir numatyti kartu su šia revoliucija atsirandančias teisines rizikas, neužkertant kelio tvariam technologijų vystymuisi. Pažymėtina, kad kalbant apie reglamentavimą susiduriama su dvejopa rizika – nepakankamai sureguliuoti teisinę sistemą arba ją sureguliuoti per daug. Tikėtina, jog dėl itin plačių išmaniųjų technologijų pritaikymo galimybių ateityje joms bus skirta vis daugiau funkcijų. Inovacijų taikymas itin skatintinas būtent viešajame sektoriuje (pavyzdžiui, Vesnic, Scapolo, 2019; Europos Komisijos komunikatas Europos skaitmeninės..., 2020; Europos Komisija baltoji knyga..., 2020; Komisijos komunikatas Europos Parlamentui..., 2020). Atitinkamai vyriausybės visame pasaulyje vis dažniau pasitelkia automatizuotas sprendimų priėmimo sistemas, dažnai apibūdinamas kaip algoritmai (Calo, Citron, 2021; Henley & Booth, 2020). Viena iš dabar plačiai nagrinėjamų temų tiek doktrinoje, tiek jurisprudencijoje yra algoritminių priemonių naudojimas administracinėse procedūrose ne tik kaip pagalba priimant tokius sprendimus (paliekant galutinai sprendimą priimti pareigūnui), bet ir kaip galutinio sprendimo subinstitutas (Coiante 2021; Green 2021).

Įvertinusi šiuolaikinių technologijų galimybes ir tarptautinę praktiką, 2018 m. kovo 6 d. Valstybinė eismo saugumo komisija priėmė sprendimą diegti šiuolaikines technologijas, siekiant kuo labiau automatizuoti ir supaprastinti Kelių eismo taisyklių pažeidimų tyrimo, įforminimo ir patraukimo administracinėn atsakomybėn procesus (Valstybinės eismo saugumo komisijos..., 2018). Taigi, nuo 2019 m. sausio 1 d. Lietuvoje buvo įtvirtintas tam tikrų administracinių nurodymų automatinis surašymas. Susidūrus su vienu iš pirmųjų išmaniųjų technologijų taikymo viešajame sektoriuje pavyzdžių Lietuvoje – administracinių nurodymų surašymu remiantis algoritmais – itin svarbu yra tinkamai įvertintas ir reglamentuotas subinstitutas.

Originalumas. Lietuvos teisės doktrinoje administracinio nurodymo institutą yra nagrinėję Kristina Mikalauskaitė-Šostakienė ir Audrius Zykevičius (Mikalauskaitė-Šostakienė, Zykevičius, 2013), Lina Beliūnienė (Beliūnienė et al., 2014), Audronė Gedmintaitė (Gedmintaitė, 2020) bei Ieva Deviatnikovaitė (Deviatnikovaitė, 2021). Šiuose šaltiniuose pateikiama bendra administracinio nurodymo instituto samprata, tačiau nėra pateikiama vertinimo, kaip instituto taikymą keičia automatizacija ir kokių naujų teisinių iššūkių dėl to kyla. Dėl subinstituto naujumo teismų praktikoje nėra pateikiama automatizuoto administracinio nurodymo teisinio vertinimo, o teisės doktrinoje yra tik bendras autorės bei Jurgitos Paužaitės-Kulvinskienės parengtas straipsnis, kuriame vertinama, ar Lietuvos Respublikos administracinių nusižengimų kodeksas yra adaptyvus automatizacijos pokyčiui, bei išskiriamos tam tikros reglamentavimo problemos, pavyzdžiui, tokios: teisinė spraga dėl atsakomybės ar algoritmo negebėjimas patikrinti tam tikrų administracinio nurodymo surašymo sąlygų egzistavimo (Paužaitė-Kulvinskienė, Strikaitė-Latušinskaja, 2022). Autorės žiniomis, šis tyrimas yra pirmasis bandymas detaliau apžvelgti automatizuoto administracinio nurodymo reglamentavimą Lietuvoje, taip pat įvertinti tokias kylančias rizikas, kaip antai funkcijų automatizavimo problema, diskriminacijos rizika, sumažėjusio pasitikėjimo technologijomis rizika bei teisinė spraga dėl atsakomybės už netinkamai surašytus automatizuotus administracinius nurodymus bei Europos Sąjungos lūkesčius dėl technologijų naudojimo viešajame sektoriuje.

Tikslas ir objektas. Šio straipsnio tikslas – įvertinti, ar Lietuvoje pasirinktas automatizuotų administracinių nurodymų surašymo algoritmus įtraukiant į tokių sprendimų priėmimo procesą būdas yra tinkamas. Pasiekti tyrimo tikslą leis įvykdyti tyrimo uždaviniai: 1) atskleisti automatizuoto administracinio nurodymo sampratą; 2) išgryninti galimas reglamentavimo ir automatizacijos taikymo praktikoje spragas ir rizikas; 3) įvertinti automatizuotu būdu priimto administracinio nurodymo atitiktį Europos Sąjungos formuojamiems lūkesčiams dėl technologijų naudojimo viešajame sektoriuje; 4) pateikti konkrečius sprendimus, kurie užtikrintų tinkamesnį algoritmų naudojimą, priimant automatizuotus administracinius nurodymus.

Tyrimo metodai. Rengiant šį straipsnį naudotas lingvistinis tyrimo metodas, juo aiškinamos bend­rinės kalbos žodžių reikšmės (pavyzdžiui, administracinis nurodymas). Teleologinio teisės aiškinimo metodu nustatyti įstatymo normų tikslai, uždaviniai (pavyzdžiui, kalbant apie administracinio nurodymo institutą). Aiškinant teisės normų sąveiką pasitelktas sisteminis teisės aiškinimo metodas, juo įvertinti sisteminiai ryšiai su kitomis teisės normomis bei kitais teisės šaltiniais (pavyzdžiui, kalbant apie pareigūnų funkcijų automatizavimo problemą). Straipsnyje taip pat pasitelktas sisteminis tyrimo metodas, juo bandoma atskleisti teisės normų turinį ir prasmę.

Naudoti šaltiniai. Rengiant šį straipsnį daugiausia analizuojama norminė literatūra, Europos Sąjungos teisės aktai, Lietuvos teisės aktai. Autorė taip pat analizuoja teisės mokslininkų, tokių kaip Cary Coglianese (Coglianese, 2020), Elena Buoso (Buoso, 2020), Jean-Bernard Auby (Auby, 2020), darbus ir jais remiasi nagrinėdama pasirinktą darbo temą. Darbe remiamasi Lietuvos Respublikos Konstitucinio Teismo nutarimais, Lietuvos teisės aktų travaux préparatoires bei Europos Sąjungos „minkštosios teisės“ šaltinių analize.

1. Automatizuotų administracinių nurodymų samprata

Administracinis nurodymas yra į administracinio nusižengimo protokolą įrašomas pasiūlymas asmeniui per tam tikrą laiką savo noru sumokėti baudą, lygią pusei minimalios baudos, nustatytos už asmens padarytą administracinį nusižengimą (Lietuvos Respublikos administracinių nusižengimų kodekso (toliau ­­­– ir ANK), 2015, 610 str. 1 d.). Nors administracinis nurodymas sąlygiškai nėra naujas institutas administracinėje teisėje1, automatizuota šio dokumento priėmimo galimybė įsigaliojo tik 2019 m. sausio 1 d., priėmus kodekso pataisas, o faktiškai pradėjo veikti nuo 2020 m. sausio 1 d.2, todėl yra gana nauja ir reikalauja atskiro vertinimo. Įtvirtinus administracinio nurodymo instituto automatizaciją3, ANK buvo įtvirtintas baigtinis administracinių nusižengimų, užfiksuotų ne asmens, įtariamo padarius administracinį nusižengimą, akivaizdoje sąrašas, už kuriuos administracinio nusižengimo protokolas su administraciniu nurodymu yra suformuojamas automatiškai. Taigi automatizuotu būdu priimtas administracinis nurodymas turėtų būti suprantamas kaip tenkinus visas surašymui keliamas sąlygas už tam tikrus administracinius nusižengimus automatiškai Administracinių nusižengimų registre suformuojamas nurodymas, kuriuo administracinį nusižengimą padariusiam asmeniui siūloma per tam tikrą laiką savo noru sumokėti baudą, atitinkamai lygią pusei minimalios baudos. Automatizacija šiame procese turėtų būti suprantama kaip administracinių nusižengimų protokolų parengimas naudojant programinę įrangą, eliminuojant žmogiškąjį įsikišimą.

Pažymėtina, kad automatizacijai yra patikėti administraciniai nurodymai už tokius administracinius pažeidimus, kuriuos nustatant yra daromos transporto priemonės nuotraukos arba vaizdo įrašai, kuriuose užfiksuojami nusižengimai, arba nusižengimai užfiksuojami stacionariomis ar mobiliosiomis teisės pažeidimų fiksavimo sistemomis (ANK 611 str. 3 d.). Teigtina, jog pasirinktas būtent toks numerus clausus pagal dabartinį technologijų išsivystymo lygį yra logiškas ir suprantamas – automatizuojami administraciniai nurodymai už tokius pažeidimus, kurie yra užfiksuojami su technologijų pagalba – tokio administracinio nurodymo surašymo procese yra visiškai eliminuota surašančiojo nurodymą diskrecija.

Lingvistiškai analizuojant administracinio nurodymo apibrėžimą „administracinis nurodymas – į administracinio nusižengimo protokolą įrašomas pasiūlymas asmeniui ... savo noru sumokėti baudą, lygią pusei minimalios baudos arba ... minimalią baudą, nustatytą šio kodekso specialiosios dalies straipsnyje (straipsnio dalyje), kuriame (kurioje) nustatyta atsakomybė už asmens padarytą administracinį nusižengimą“ (ANK 610 str. 1 d.) matyti, kad nurodyta funkcija iš esmės gali būti automatizuota, kitaip tariant, nėra privalomas pareigūno dalyvavimas, nėra reikalavimo, kad būtent pareigūnas įrašytų pasiūlymą sumokėti baudą asmeniui. Remiantis paprastu silogizmu, už (tam tikrą) administracinį pažeidimą yra taikoma pusė minimalios baudos (arba tam tikrais atvejais – minimali bauda), numatytos kodekso specialiosios dalies atitinkamame straipsnyje (didžioji premisa), asmuo X padarė didžiojoje premisoje įvardytą administracinį pažeidimą (mažoji premisa), vadinasi, asmeniui X bus taikoma pusė įstatymuose numatytos minimalios baudos. Toks rutininio ir mechaniško administracinio nurodymo taikymo proceso automatizavimas technologijų plėtros kontekste vertintinas teigiamai.

ANK taip pat nurodyta, jog, išskyrus atvejus, kai administracinio nusižengimo protokolai ir nurodymai surašomi automatiškai, administracinių nusižengimų teisena pradedama, administracinių nusižengimų tyrimas atliekamas ir administracinių nusižengimų protokolai surašomi institucijų pareigūnų (ANK 589 str.). ANK papildomai įtvirtinta, jog ne tik pareigūnai pradeda administracinių nusižengimų teiseną – ji gali būti pradėta ir automatiškai Administracinių nusižengimų registre suformuojant administracinio nusižengimo protokolą ar pranešimą apie administracinio nusižengimo požymių turinčios veikos padarymą (ANK 590 str. 1 d., 2 d.). Visišką pareigūno eliminavimą surašant automatizuotus administracinius nurodymus patvirtina ir ANK pakeitimo įstatymo aiškinamajame rašte nurodytos šios nuostatos: 1) Administracinių nusižengimų protokolus formuojant automatiškai bus eliminuojamas žmogiškasis faktorius; 2) siūloma administracinio nusižengimo protokolą su administraciniu nurodymu ar tik administracinio nusižengimo protokolą ir kitus procesinius dokumentus suformuoti automatiškai Administracinių nusižengimų registre, t. y. administracinių nusižengimų protokolai ir kiti procesiniai dokumentai užsipildytų per programinę įrangą automatiškai. Atitinkamai siūloma siaurinti tokiu būdu surašomo protokolo turinį (atsisakoma protokolą surašiusio pareigūno duomenų (nurodoma jį surašiusi įstaiga); 3) administracinių nusižengimų protokolai ar pranešimai apie galimai padarytą administracinį nusižengimą suformuojami Administracinių nusižengimų registre automatiškai, t. y. tokiais atvejais administracinių nusižengimų teisena pradedama nedalyvaujant pareigūnui (ANK pakeitimo įstatymo aiškinamasis raštas, 2018). Vis dėlto kyla klausimas, ar tikrai ši funkcija gali būti visiškai deleguota algoritmui? Ar tokiu būdu tinkamo pareigūnų funkcijų atlikimo užtikrinimas nenublanksta prieš procesų efektyvumą?

2. Automatizuotų administracinių nurodymų probleminiai aspektai

Dar 1988 m. Shoshana Zuboff teigė, kad viskas, kas gali būti automatizuota, bus automatizuota (Zuboff, 1988). Apie automatizacijos neišvengiamumą netolimoje ateityje kalba ir tokie garsūs teisės mokslo atstovai kaip Richard Susskind (Susskind R., 2019; Susskind, R., Susskind, D., 2010; Susskind R., 2010), Klaus Schwab (Schwab, 2017) ir kiti. Automatizacijos ambicijas rodo ir 2013 m. Oksfordo universiteto pateikta prognozė, jog yra didelė rizika, kad apie 47 proc. darbo vietų JAV bus automatizuotos iki 2033 metų (Frey, Osborne, 2013, p. 1, 38, 44). Visą pasaulį sukrėtusi COVID-19 pandemija privertė palankiau pasižiūrėti į technologijų siūlomas galimybes. Tikėtina, ir požiūris į automatizaciją apklausus respondentus dabar būtų labiau teigiamai vertinamas nei apklausus juos prieš pandemiją (Susskind, 2020).

Remiantis Tarptautinės ekonominio bendradarbiavimo ir plėtros organizacijos pateikta prognoze – darbo vietų, kurioms gresia automatizavimas, skaičius Lietuvoje yra antras pagal dydį lyginant su EBPO šalių narių vidurkiu – 42 proc. (OECD How’s Life in the..., 2019, p. 156). Administracinio nurodymo automatizavimas yra svarbus technologijų integravimo į viešąjį sektorių Lietuvoje etapas, padėjęs ir padėsiantis pagrindus kitoms inovacijų iniciatyvoms įgyvendinant viešąsias valstybės funkcijas. Kaip minėta, administracinio nurodymo automatizavimas yra vienas iš tų atvejų, apie kuriuos kalba tarptautinė bendruomenė. Tačiau vertinant jos tinkamumą, būtina aptarti jau dabar ryškėjančias potencialias problemas.

2.1. Diskriminacijos rizika

Viena iš dabartinio teisinio reglamentavimo įžvelgtinų problemų yra diskriminacijos rizika. Technologinės priemonės gali būti itin galingos. Juk viena situacija, kai tam tikras pareigūnas traktuoja asmenis nevienodai, tačiau visai kita situacija, kai valstybė pasitelkia technologines priemones, kurios sistemingai nevienodai traktuoja ir diskriminuoja tam tikrus asmenis. Svarbu suvokti ir tai, kad šiais laikais algoritmai veikia remdamiesi ne mums įprasta kauzaline, deterministine logika, o statistinėmis koreliacijomis ir tikimybių logika. Pažymėtina, kad algoritmai priima sprendimus, remdamiesi jiems pateiktais duomenimis, todėl nustatyti, ar pateikta informacija yra racionali, ar pastebėti pateiktų duomenų šališkumo negali. Deterministiniai algoritmai nėra diskriminuojantys per se, bet jie gali turėti diskriminuojančius padarinius. Tarkime, paaiškėjus, kad tam tikroje etninėje, socialinėje ar religinėje grupėje pažeidimai yra dažnesni, sistema paskatintų kontrolės veiklą dažnai nukreipti į konkrečią asmenų grupę. Nors tokia išvada būtų logiška, ji būtų diskriminuojanti (Buoso, 2020, p. 121).

Algoritmų perpratimo sudėtingumas lemia, kad tokio pobūdžio diskriminaciją pastebėti gali būti itin sunku. Antai neseniai buvo nustatyta, jog kompiuterinė sistema, naudota siekiant paskirstyti studentus tarp Paryžiaus mokyklų, į vieną iš jų paskyrė net 83 proc. stipendijas gavusių studentų (Auby, 2020, p. 10). Nyderlandų valdžios institucijoms apskritai buvo neleista naudoti algoritmais paremtos rizikos vertinimo sistemos, kuri buvo skirta aptikti ir patraukti baudžiamojon atsakomybėn už sukčiavimą – buvo konstatuota, jog ši sistema pažeidė asmens teisę į privatumą, nes buvo renkama ir kaupiama perteklinė asmeninė informacija bei pripažinta, kad egzistuoja didžiulė šališkumo rizika (Boix-Palop, 2020, p. 89–90). Dar vienas su algoritmų diskriminacija susijęs pavyzdys – kai kuriose Jungtinių Amerikos Valstijų jurisdikcijose teisėjų naudojama automatizuota sprendimų priėmimo programa COMPAS (angl. Correctional Offender Management Profiling for Alternative Sanctions). Ši programa yra privaloma pagalbinė priemonė, naudojama numatyti recidyvizmo riziką – tikimybę, ar kaltinamasis nusikals dar kartą. Programinė įranga, atsižvelgdama į tokius veiksnius, kaip antai ankstesni areštai, amžius ir užimtumas, generuoja tikimybę 10 balų sistemoje, kiek asmuo yra linkęs nusižengti pakartotinai, o atsižvelgdamas į šios programinės įrangos generuotus balus, teisėjas gali nuspręsti, ar sulaikyti kaltinamąjį iki teismo ir (arba) nuosprendžio paskelbimo. Vis dėlto buvo pastebėta, jog nors ši programinė įranga gali būti itin naudinga, ji yra šališka, nes sistema afroamerikiečiams rečiau generavo teigiamą balą nei baltaodžiams. Nustatyta, jog naudojant COMPAS, juodaodžiai kaltinamieji buvo neteisingai įvertinti kaip priklausantys „didelei rizikai“, taigi, tikėtina, kad jie padarys pakartotinius nusikaltimus du kartus dažniau nei baltieji. Atitinkamai netinkamos prielaidos buvo padarytos ir, atvirkščiai, – baltieji buvo įvertinti kaip mažesnės rizikos, tačiau pakartotinių nusikaltimų padarė dvigubai daugiau (Zalnieriute et al., 2021). Kaip teisingai pažymėjo Europos Tarybos veiksmingo teisingumo komisija, vertindama tokio pobūdžio sistemų naudojimą, tokios priemonės gali reprodukuoti nepagrįstą ir jau esamą nelygybę baudžiamojo teisingumo sistemoje – užuot taisius tam tikras problemines politikos kryptis, su technologijų pagalba jos gali būti įteisinamos (European ethical Charter..., 2018, p. 55). Šie pavyzdžiai rodo, jog algoritmai, taikomi pačiose įvairiausiose srityse, yra linkę diskriminuoti tam tikrus asmenis, o tai pastebėti gali būti itin sunku. Ne veltui ir jurisprudencijoje pabrėžiama, kad nesąžiningos vyriausybės gali pasitelkti algoritmines priemones sustiprinti savo galią išvengti atsakomybės, pažeisti privatumą, diskriminuoti mažumas, politinius oponentus ar nepalankius asmenis (Coglianese, 2020, p. 46).

Šiame straipsnyje kalbėti apie šią riziką svarbu, nes, kaip minėta, algoritmams būdinga diskriminacija galima kiekviename sektoriuje, kur jie naudojami, įskaitant ir automatizuotus administracinius nurodymus, nes pats algoritmo veikimas iš esmės nesiskiria bet kuriame sektoriuje. Algoritmų esmė yra duomenys, kurių pagrindu jie yra užprogramuojami. Automatizuotų administracinių nurodymų tyrimo kontekste svarbu paminėti ir tai, jog, surašant minėtus nurodymus, algoritmas gali pasirinkti, surašyti automatizuotą administracinį nurodymą ar ne; taip pat yra laisvė pasirinkti, kokį tekstą įrašyti į nurodymą, ir pan. Taigi šiuo atveju nagrinėti pavyzdžiai yra aktualūs ir nagrinėjamo subinstituto kontekste. Nemažai klausimų kelia ir techninio sprendimo galimybė prieš skiriant administracinį nurodymą patikrinti, ar nėra šių pagrindų, kai nurodymo surašyti negalima: 1) sankcijoje už administracinį nusižengimą nustatyta didesnė negu vieno tūkstančio penkių šimtų eurų maksimali bauda; 2) asmuo per metus padarė pakartotinį administracinį nusižengimą, išskyrus šio kodekso 415 straipsnio 1, 2 ir 6 dalyse, 416 straipsnio 2, 3, 4 ir 5 dalyse, 417, 418, 419 straipsniuose, 420 straipsnio 1 dalyje, 421 straipsnyje, 432 straipsnio 1 dalyje, 459 straipsnio 1, 4 ir 5 dalyse, 463 straipsnyje numatytus administracinius nusižengimus; 3) asmuo administracinį nusižengimą padarė būdamas neblaivus ar apsvaigęs nuo narkotinių, psichotropinių ar kitų psichiką veikiančių medžiagų ir tai turėjo įtakos administracinio nusižengimo padarymui, vengė patikrinimo dėl neblaivumo ar apsvaigimo, vartojo alkoholį, narkotines, psichotropines ar kitas psichiką veikiančias medžiagas po eismo įvykio iki jo aplinkybių nustatymo; 4) administracinis nusižengimas sukėlė nežymų sveikatos sutrikdymą; taip pat administraciniu nusižengimu padaryta turtinė žala, kuri nėra visiškai atlyginta; 5) už asmens padarytą veiką nustatytas privalomas turto konfiskavimas; 6) asmuo padarė administracinį nusižengimą, susijusį su naudojimusi specialiąja teise šios teisės neturėdamas arba kai ji iš asmens buvo atimta (kodekso 610 str. 2 d.). Manytina, jog tais atvejais, kai administracinis nurodymas yra surašomas automatizuotu būdu ir nėra visiškai jokio žmogaus įsikišimo, faktiškai ne visų pagrindų buvimas ar nebuvimas gali būti patikrintas – nėra aišku, kokiu būdu techninis sprendimas sugeba patikrinti, ar nėra analizuojamo kodekso straipsnio normos trečiojo (nusižengimą asmuo padarė apsvaigęs), ketvirtojo (nusižengimas sukėlė nežymų sveikatos sutrikdymą) ir šeštojo (asmeniui buvo atimta specialioji teisė arba jos neturėjo) pagrindų, turint omenyje, jog nustatant analizuojamus administracinius nusižengimus yra daromos transporto priemonės nuotraukos arba vaizdo įrašas, kuriose (kuriame) užfiksuojami nusižengimai, arba nusižengimai užfiksuojami stacionariomis ar mobiliosiomis teisės pažeidimų fiksavimo sistemomis (kodekso 611 str. 3 d.). Manytina, kad būtent vertinant šiuos kriterijus iškyla didžiausia rizika, jog algoritmas, atsakingas už automatizuoto administracinio nurodymo surašymą, gali būti suprogramuotas netinkamai ir turėti diskriminacinių padarinių.

Taigi, įvertinus jurisprudencijoje plačiai diskutuojamą algoritmų diskriminacijos problemą (Jablonskowa et al., 2018; Prezmyslaw et al., 2018), taip pat atsižvelgus į galimas kibernetinio saugumo grėsmes (Jangirala et al. 2018; Abomhara, Koien, 2015), įvertinus tai, jog 2020 m. spalio 8 d. Europos Parlamento pranešime su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos (Europos Parlamento pranešimas su rekomendacijomis..., 2020) nurodyta, kad bet kokia nauja dirbtinio intelekto reguliavimo sistema, apimanti teisines prievoles ir etikos principus, taikomus kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, turėtų visapusiškai atitikti Europos Sąjungos pagrindinių teisių chartiją (toliau – ir Chartija), taigi turėtų, inter alia, būti naikinamas šališkumas ir diskriminacija, įskaitant kovą su mažumų diskriminacija, teigtina, jog visiška pareigūnų funkcijų automatizacija, vertinant dabartinį technologijų išsivystymo lygį, kelia pavojų dėl galimo neatitikimo nediskriminavimo principui, o tai neatitinka pagrindinių teisių ir laisvių garanto.

Atkreiptinas dėmesys, kad neaiškumas, kaip veikia algoritmai, jų polinkis diskriminuoti bei sudėtingumas identifikuoti tokius diskriminacijos atvejus, taip pat nėra suderinami su Europos Sąjungos siekiu didinti pasitikėjimą technologijomis, nes būtent pasitikėjimas yra būtina platesnio europietiško technologijų integravimo sąlyga (Europos Komisijos baltoji knyga..., 2020; Komisijos komunikatas Europos Parlamentui..., 2020). Ne veltui ir Europos Komisijos 2020 m. vasario 19 d. komunikate Europos skaitmeninės ateities formavimas pažymima, jog investicijos į inovacijas yra tik viena medalio pusė – tikra skaitmeninė transformacija turi prasidėti nuo Europos piliečių ir įmonių pasitikėjimo, kad jų taikomosios programos ir produktai yra saugūs (Europos Komisijos komunikatas Europos skaitmeninės..., 2020).

Kalbant apie procesų automatizavimą ir pasitikėjimą technologijų skvarba, svarbu paminėti ir tai, jog pasitikėjimas gali priklausyti ir nuo padarinių, susijusių su laipsniu, iki kurio žmonės yra pakeičiami sprendimų priėmimo procese. Ko gero, suprantama, kad mažiau visuomenei kels nerimą situacijos, kai technologiniams sprendimams bus deleguojamos tokios funkcijos, kaip, tarkime, laiškų rūšiavimas, palyginti su sprendimu dėl įkalinimo bausmės trukmės. Panašiai, tarkime, visuomenė palankiai priims algoritmus, nusprendžiančius, pavyzdžiui, kur išsiųsti darbo saugos inspektorių, bet tik kol pagrindiniai sprendimai – ar bausti mokesčių mokėtojus – vis tiek priklausys nuo to, ką žmogus auditorius nuspręs atlikdamas individualizuotą patikrinimą (Coglianese, 2020, p. 39). Atitinkamai, visuomenė būtų linkusi labiau pasitikėti algoritminiu eismo reguliavimu ir mažiau linkusi pasitikėti algoritmais, priimančiais automatizuotus administracinius nurodymus, kurie gali sukelti tiesioginių padarinių tam tikriems individams. Atsižvelgus į tai, kad pasitikėjimas valstybėje yra būtinas išsivysčiusios visuomenės elementas, be kurio valstybė negali tinkamai funkcionuoti, manytina, jog technologinė skvarba turi būti didinama laipsniškai, taigi teigtina, kad algoritmai (bent kol kas) turėtų būti suprantami ir naudojami tik kaip pagalba pareigūnams priimti administracinius nurodymus.

2.2. Pareigūnų funkcijų automatizavimo problema

Antra problema yra susijusi su pareigūnų išimtine kompetencija. Antai asmeniui, siekiančiam tapti statutiniu valstybės tarnautoju, yra keliami tam tikri kvalifikaciniai reikalavimai, inter alia, nepriekaištingos reputacijos reikalavimas. Juk tinkamas teisinis reguliavimas bei operatyviai ir produktyviai savo funkcijas atliekantys valstybės tarnautojai užtikrina sėkmingą valstybės vykdomosios valdžios formuojamos politikos įgyvendinimą (Glebovė, 2010, p. 130–131). Ne veltui Lietuvos Respublikos Konstitucinis Teismas akcentuoja, jog pagal Konstituciją valstybės tarnyba – tai tarnyba Lietuvos valstybei ir pilietinei Tautai, todėl valstybės tarnyba turi būti lojali Lietuvos valstybei ir jos konstitucinei santvarkai, o jos paskirtis – užtikrinti žmogaus teises ir laisves, garantuoti viešąjį interesą (Konstitucinio Teismo 2007 m. rugpjūčio 13 d. nutarimas). Iš to išeina, kad valstybės tarnautojai turi ypatingą vietą Lietuvos teisės sistemoje ir įgyvendina svarbias funkcijas. Atitinkamai asmuo, siekiantis tapti valstybės tarnautoju, turi atitikti tam tikrus reikalavimus. Apibendrinus tai, kas pirmiau išdėstyta, kvestionuotina, ar valstybės tarnautojų ypatingos funkcijos, įtvirtintos Lietuvos Respublikos Konstitucijoje ir įstatymuose, gali būti automatizuotos visiškai? Taigi, kaip turėtume suvokti automatizacijos vietą šiame procese – kaip priemonę padėti pareigūnams efektyviau vykdyti savo funkcijas ar kaip pareigūno substitutą, perimantį pareigūno funkcijas (deleguotas jam Konstitucijos ir įstatymų bei nulemtas pareigūno atitikties kvalifikaciniams reikalavimams)? Šiame kontekste algoritmų naudojimas galėtų būti tik pagalba pareigūnui, tačiau galutinis sprendimas (taigi ir atsakomybė už jo priėmimą) turėtų būti priimamas pareigūno.

Pažymėtina, kad Lietuvoje turime ir kitą panašų technologijų viešajame sektoriuje naudojimo pavyzdį – siekdamas mažinti administravimo išlaidas, Lietuvos bankas taiko standartinių užduočių automatizavimą – vartotojų ir finansų rinkos dalyvių ginčus nagrinėjantys Lietuvos banko darbuotojai, naudodamiesi įdiegtu techniniu sprendimu, gali pavesti robotui parengti tam tikrus raštus, pavyzdžiui, pranešimus vartotojui ar jo atstovui apie pradėtą ginčo nagrinėjimo procedūrą. Pasitelkus programinę įrangą automatizuoto proceso metu robotas geba pasirinkti reikiamą standartinį dokumento šabloną, reikiamose vietose įklijuoti reikiamas reikšmes (pavyzdžiui, ginčo nagrinėjimo terminą, finansų rinkos dalyvio pavadinimą ir kt.). Atitinkamai tarnautojui belieka revizuoti sugeneruotą dokumentą4. Atkreiptinas dėmesys, kad Lietuvos banko pažangaus sprendimo naudojimas, kitaip nei automatizuoto administracinio protokolo surašymo atveju, yra revizuojamas tarnautojo. Tokiu būdu, suprantama, jog rizika, galinti kilti dėl netinkamo technologijos veikimo, tenka asmeniui, peržiūrėjusiam tam tikrą sprendimą. O automatizuoto administracinio nurodymo priėmimo atveju galutinis suformuotas dokumentas nėra peržiūrimas, administracinių nusižengimų protokolai dėl sistemomis užfiksuotų nusižengimų formuojami automatiškai, t. y. su programine įranga nedalyvaujant pareigūnui. Iš to išeina, jog ši programinė įranga iš esmės turi visas su administracinio protokolo surašymu susijusias pareigūno teises (įskaitant ir pradėti administracinių nusižengimų teiseną ar surašyti administracinį protokolą su nurodymu), bet ne pareigas, ir nėra saistomas pareigūnams nustatytų atsakomybės normų. Apibendrinus reikia paskyti, kad kvestionuotinas išimtinių valstybės tarnautojų funkcijų visiškas delegavimas (be kvalifikuoto asmens galimybės revizuoti surašytą administracinį nurodymą prieš jį išsiunčiant atitinkamam asmeniui) algoritmams.

3. Automatizuoto administracinio nurodymo atitiktis europietiškai vizijai

Dar 2016 m. Europos Komisija pažymėjo, kad skaitmeninėmis viešosiomis paslaugomis mažinama įmonių ir piliečių administracinė našta: bendravimas su viešojo administravimo įstaigomis tampa spartesnis ir veiksmingas, patogesnis, skaidresnis ir pigesnis (Komisijos komunikatas Europos Parlamentui, Tarybai..., 2016). Europos Komisija 2018 m. Skaitmeninėje strategijoje iškėlė tikslą – pereiti prie skaitmeniniu būdu pertvarkytos administracijos (European Commission Digital Strategy..., 2018, p. 25), o Europos Komisijos pasiūlyme dėl Europos regioninės plėtros fondo ir Sanglaudos fondo akcentuojama, jog viešojo administravimo įstaigos turėtų teikti paslaugas visų pirma skaitmeniniu būdu (be kita ko, naudodamos atitinkamą automatiškai nuskaitomą informaciją) (Europos Komisijos pasiūlymas Europos Parlamento..., 2018). Sprendimų dėl konkrečių individų priėmimas yra neatsiejama daugybės viešojo sektoriaus institucijų funkcijų dalis ir tokių sprendimų priėmimo procese vis labiau pripažįstamos algoritmų siūlomos galimybės. Nors galime pastebėti Europos Komisijos skatinimą vis labiau integruoti technologijas teikiant viešąsias paslaugas, vis dėlto nėra aišku, kokio masto technologinė intervencija į tradicinius viešojo sektoriaus paslaugų teikimo būdus yra laikoma „europietiška“. Aksioma, kad pagrindinė algoritmų varomoji jėga yra duomenys. 2020 m. vasario 19 d. Europos Komisijos komunikate Europos duomenų strategija teigiama, kad Europos Sąjungos konkurentai, kaip antai Kinija ir Jungtinės Amerikos Valstijos (toliau – JAV), jau sparčiai diegia inovacijas ir visame pasaulyje propaguoja savąsias prieigos prie duomenų ir jų naudojimo koncepcijas. JAV duomenų erdvės organizavimas paliktas privačiam sektoriui – tai lemia didelę koncentraciją. Kinijoje vyriausybė vykdo sekimą, o technologijų milžinės griežtai kontroliuoja didžiulius duomenų kiekius neužtikrindamos pakankamos asmenų apsaugos. Europos potencialą turime išnaudoti europietiškai – užtikrinti duomenų judėjimą ir platų jų naudojimą kartu išlaikant aukštus privatumo, saugumo, saugos ir etikos standartus (Komisijos komunikatas Europos Parlamentui..., 2020). Antai Europos Komisijos komunikate 2030 m. skaitmeninės politikos kelrodis: Europos skaitmeninio dešimtmečio kelias kaip vienas iš tikslų nurodoma nustatyti išsamų skaitmeninių principų rinkinį – kaip informacijos šaltinį naudotojams ir gaires politikos formuotojams bei skaitmeninių paslaugų teikėjams – į kurias, inter alia, įeitų ir į žmogų orientuotų algoritmų etikos principai (Komisijos komunikatas Europos Parlamentui, Tarybai..., 2021). Taigi matyti, jog europietiška technologijų integracija, priešingai, nei tarkime, minėtos Kinijos atveju, yra neatsiejama visų pirma nuo tinkamo žmogaus teisių užtikrinimo. Nors pastebime, kad Europos Sąjungos požiūris į technologijų intervenciją viešajame sektoriuje yra orientuotas į balansą tarp technologinio pranašumo ir pasitikėjimo, siekimo padidinti mokslinių tyrimų ir pramonės pajėgumus bei pagrindinių žmogaus teisių užtikrinimo, vis dėlto nėra aišku, kokio masto technologijų intervencija į tradicinius viešųjų paslaugų teikimo būdus yra laikoma „europietiška“.

2020 m. balandžio 21 d. Europos Parlamentas pristatė pranešimą su rekomendacijomis Europos Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos, kur buvo pateiktas pasiūlymas priimti reglamentą dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų (Europos Parlamento pranešimas su rekomendacijomis..., 2020). Minėtame pranešime nurodyta, kad, Europos Parlamento manymu, technologijos, kuriomis galima priimti automatizuotus sprendimus ir taip pakeisti valdžios institucijų priimamus sprendimus, turėtų būti vertinamos labai atsargiai, ypač teisingumo ir teisėsaugos srityse. Vertinant, kodėl svarbesnį akcentą Europos Parlamentas deda būtent teisėsaugos ir teisingumo institucijų veiklai, manytina, jog tokį šių institucijų išskyrimą, ko gero, lemia minėtas pasitikėjimo technologijomis, kaip lemiamo sėkmingos technologijų integracijos elemento, stiprinimas. Pranešime taip pat pažymima, kad nors dirbtinio intelekto, robotikos ir susijusių technologijų diegimas viešosios valdžios sprendimų priėmimo srityje teikia naudos, tačiau galimas ir sunkus piktnaudžiavimas, pvz., masinis stebėjimas, prognozavimo strategijos ir teisių į tinkamą procesą pažeidimai, todėl valstybės narės turėtų naudotis tokiomis technologijomis tik tuo atveju, jei yra išsamių jų patikimumo įrodymų ir jeigu yra įmanoma žmogaus atliekama prasminga peržiūra arba tokia peržiūra yra sistemingai atliekama tais atvejais, kai iškyla pavojus pagrindinėms laisvėms. Iš to išeina, jog Europos Parlamentas skatina atsargiai naudotis technologijų siūlomomis galimybėmis ir prioritetą visada skirti pagrindinėms žmogaus laisvėms.

Kalbant konkrečiai apie šiame straipsnyje analizuojamus automatizuotus administracinius nurodymus, atkreiptinas dėmesys į šias minėtame Europos Parlamento pranešime nurodytas nuostatas: 1) priimant bet kokį sprendimą, naudojant dirbtinį intelektą, robotiką ar susijusias technologijas, kai įgyvendinamos viešosios valdžios prerogatyvos, turėtų būti užtikrinamas prasmingas žmogaus įsikišimas ir tinkamas procesas; 2) dėl technologinės pažangos neturėtų būti naudojamasi dirbtiniu intelektu, robotika ir susijusiomis technologijomis siekiant leisti joms autonomiškai priimti viešojo sektoriaus sprendimus, kurie turi tiesioginį ir didelį poveikį piliečių teisėms ir pareigoms; 3) priimant sprendimus dirbtinis intelektas niekada neturėtų pakeisti žmonių – sprendimai, pvz., dėl užstato ar lygtinio paleidimo, kurie paskelbiami teisme, arba sprendimai, grindžiami tik automatizuotu duomenų tvarkymu, sukeliantys teisines pasekmes asmenims arba turintys jiems didelį poveikį, visada turi būti priimami atliekant prasmingą vertinimą ir žmogui priimant sprendimą; 4) sprendimams, priimtiems naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, arba jais grindžiamiems sprendimams ir toliau turi būti taikoma prasminga žmogaus atliekama peržiūra, sprendimai, įsikišimas ir kontrolė; 5) programinės įrangos, algoritmų ir duomenų lemiamas šališkumas ir diskriminacija yra neteisėti ir su tuo turėtų būti kovojama reglamentuojant jų projektavimo ir diegimo procesus. Iš paminėtų ištraukų iš Europos Parlamento pranešimo matyti, jog iš esmės tais atvejais, kai technologijų pagalba priimamas sprendimas, turintis tiesioginį ar didelį poveikį asmenų teisėms ir pareigomis, turi būti užtikrinta tokių sprendimų revizija. Atkreiptinas dėmesys į tai, kad Europos Parlamento siūlomame reglamente išskiriami labai rizikingi dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo būdai arba tikslai, tarp kurių, inter alia, yra išskirti viešojo sektoriaus sprendimai, kurie daro didelį tiesioginį poveikį fizinių ar juridinių asmenų teisėms ir pareigoms.

Aksioma, jog automatizuotų administracinių nurodymų poveikis piliečių teisėms ir pareigoms yra tiesioginis. Vis dėlto, siekiant įvertinti, ar automatizuotų administracinių nurodymų sukeliamos pasekmės asmenų teisėms ir pareigoms yra laikomos didelėmis, reikalinga atskira analizė, nes Europos Parlamento pasiūlyme nėra pateikta apibrėžimo, kokios pasekmės yra laikomos didelėmis, taip pat tai yra vertinamojo pobūdžio sąlyga. Manytina, kad automatizuoti administraciniai nurodymai galėtų būti priskiriami prie sukeliančių didelių pasekmių, nes: 1) vienas iš tikslų, kurių buvo siekiama įtvirtinus administracinio nurodymo institutą 2011 m., – pasiekti administracinės nuobaudos tikslų optimaliu būdu (Administracinių teisės pažeidimų kodekso aiškinamasis raštas, 2010). Taigi, administracinių nurodymų institutu yra siekiama nuobaudos tikslų; 2) jurisprudencijoje vyrauja diskusija dėl asmens, kuriam surašytas administracinis nurodymas, laikymo baustu administracinės atsakomybės požiūriu, net ir įvykdžius administracinį nurodymą (Mikalauskaitė-Šostakienė, Zykevičius, 2013); 3) administracinis nusižengimas, padarytas pakartotinai, kol dar nepasibaigęs numatytas terminas, laikytinas atsakomybę sunkinančia aplinkybe (ANK 36 str. 1 d. 12 p.). Atitinkamai administracinės nuobaudos ir administracinio poveikio priemonės rūšys parenkamos atsižvelgiant, inter alia, į atsakomybę lengvinančias ir sunkinančias aplinkybes (ANK 34 str. 1 d). Taigi viešojo sektoriaus sprendimai, kuriems būtų priskirtini ir šiame straipsnyje analizuojami automatizuoti administraciniai nurodymai, nes jie sukelia tiesiogines ir dideles pasekmes piliečių teisėms ir pareigoms, priskiriami dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo būdams, kuriems siūloma taikyti griežtesnį nei įprasta reguliavimą.

Minėtas pasiūlymas nėra privalomojo pobūdžio, tačiau jis rodo Europos Parlamento išreikštą rūpestį dėl viešojo sektoriaus, kaip tam tikro ypatingo segmento, sugriežtinto reguliavimo technologinių sprendimų integravimo priimant sprendimus atžvilgiu. Nors kol kas vis dėlto būtų sunku apibrėžti, kokia yra technologijų integracijos europietiška vizija ir kokia intervencija į tradicinius sprendimų priėmimo būdus bus skatinama, o kokia – ribojama, iš Europos Parlamento pasiūlymo matyti, kad automatizuoti administraciniai nurodymai vis dėlto turėtų būti revizuojami pareigūnų. Tai lemia, jog iš pirmiau analizuotų „minkštosios teisės“ šaltinių matome, kad sprendimai, grindžiami tik automatizuotu duomenų tvarkymu, sukeliantys teisines pasekmes asmenims arba turintys jiems didelį poveikį, visada turi būti priimami atliekant prasmingą vertinimą ir žmogui priimant galutinį sprendimą. Tokį vertinimą lemia ir dabartinė technologijų pažanga – neturėtų būti naudojamasi dirbtiniu intelektu, robotika ir susijusiomis technologijomis siekiant leisti joms autonomiškai priimti viešojo sektoriaus sprendimus, kurie turi tiesioginį ir didelį poveikį piliečių teisėms ir pareigoms.

Artimas šiame straipsnyje analizuojamai automatizuotų administracinių nurodymų priėmimo sričiai – teisingumo vykdymas. Čia pažymėtina, kad Europos Sąjungoje skatinamas tokių technologijų integravimas, kurios atlieka tam tikrus epizodinius veiksmus, palengvina ir pagreitina teisėjo darbą, bet nepakeičia paties žmogaus visiškai. Antai 2020 m. spalio 8 d. Europos Tarybos priimtose išvadose dėl naudojimosi skaitmeninimo teikiamomis galimybėmis įgyvendinant teisę kreiptis į teismą įtvirtinta, jog teismo sprendimą visada turi priimti žmogus ir šio veiksmo negalima pavesti dirbtinio intelekto priemonei (Europos Tarybos išvados..., 2020). Taip pat ši mintis šiek tiek plačiau detalizuota 2020 m. gruodžio 2 d. Europos Komisijos komunikate „Teisingumo sistemų skaitmeninimo Europos Sąjungoje priemonių rinkinys“, kur pabrėžiama, jog dirbtinio intelekto priemonių naudojimas gali padėti teisėjams, tačiau neturi įsiterpti į jų sprendimų priėmimo įgaliojimus ar trukdyti teismų nepriklausomumui (Komisijos komunikatas..., 2020). Taigi nors ir analizuojama technologijų taikymo vykdant teisingumą kryptis yra įtvirtinta „minkštosios teisės“ šaltiniuose, matome, kad europietiška vizija šioje srityje apsiriboja tam tikrų funkcijų – sudėtinių sprendimo priėmimo dalių – delegavimu technologijoms, galutinio sprendimo priėmimo našta paliekama žmogui. Tiesa, verta paminėti, kad 2021 m. birželio 17 d. išleistose Europos Tarybos Ministrų Komiteto gairėse dėl internetinių ginčo sprendimo mechanizmų civiliniame ir administraciniame teismo procese (Guidelines adopted by..., 2021) pabrėžiama, jog valstybės narės galėtų kurti ir stiprinti pasitikėjimą internetiniu ginčų sprendimu, paaiškinant visuomenei, kad šių priemonių naudojimas neturi visiškai pakeisti esamų teismo procesų, o turi juos papildyti ir sukurti papildomų galimybių kreiptis į teismą, taip pat jog tai turi būti vertinama kaip pagalba priimant teismo sprendimus, palengvinanti teisėjo darbą. Tačiau kartu gairėse pažymėta ir tai, jog negali būti vienintelio paprasto atsakymo į klausimą, kaip reikėtų užtikrinti sprendimų, į kurių priėmimą buvo įtrauktos internetinio ginčų sprendimo priemonės, peržiūrą. Antai, anot Europos Tarybos Ministrų Komiteto, kai internetinis ginčų sprendimas atlieka tik antraeilį vaidmenį ir padeda teisėjui procese, nėra jokios priežasties nukrypti nuo standartinių apeliacinio skundo taisyklių, taikomų procedūroms, kuriose nėra minėto elemento, tačiau šis klausimas tampa itin svarbus, kai internetinio ginčų sprendimo priemonės tampa įrankiais priimti visiškai automatizuotus sprendimus. Tokiu atveju šalims turėtų būti leista ginčyti visiškai automatizuotus sprendimus ir prašyti, kad tokią peržiūrą atliktų teisėjas. Gairėse pažymima, jog Europos Žmogaus Teisių Teismas nenurodo, kokiu lygmeniu ši teisių gynimo priemonė turi būti taikoma, galimi du modeliai: valstybė narė turi nuspręsti, ar peržiūra turėtų būti atliekama tuo pačiu teisminiu lygmeniu, ar aukštesniu apeliaciniu lygmeniu.

Panašiai ir Donatas Murauskas, vertindamas teismo veikloje, nagrinėjant bylas, taikytinų algoritmų priskyrimą teisės taikymo stadijai, nurodė, jog galutiniame sprendimo priėmimo veiksme algoritmų potencialas yra ribotas, jis gali būti susijęs su nesudėtingų ginčų sprendimu arba, remiantis algoritmu, siūlant tam tikrus praeities duomenimis pagrįstus sprendimo modelius. Tokiais atvejais saugiklių reikia ieškoti reikalavimuose, susijusiuose su pareiga pateikti išsamų teisinį argumentavimą ir galimybe teisėjui keisti algoritmo pagrindu pateikiamus vertinimus (Murauskas, 2020). Šiame kontekste verta paminėti, jog Europos Sąjungos teisės aktai rodo, kad būtent žmogaus priežiūra gali apsaugoti nuo potencialios algoritmų žalos. Čia paminėtina bene svarbiausia iniciatyva Europoje šiuo metu – 2021 m. balandžio 21 d. Europos Komisijos paskelbtas pasiūlymas dėl Dirbtinio intelekto reglamento, kuriame įtvirtinta, kad žmogaus priežiūra (kartu su kitais mechanizmais) yra „griežtai būtina, siekiant sumažinti riziką pagrindinėms teisėms ir saugumui, kurią kelia dirbtinis intelektas ir kuri neaptariama kitose esamose teisinėse sistemose“ (Europos Komisija, 2021). Toks požiūris nėra naujas – dar 2016 m. priimtame Europos Parlamento ir Tarybos reglamente (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB įtvirtintas draudimas priimti sprendimus, dėl kurių asmenims kyla teisinės pasekmės arba kuris jiems panašiu būdu daro didelį poveikį, priimtus remiantis vien automatizuotu duomenų apdorojimu (Bendrasis duomenų apsaugos reglamentas 2016). Neseniai atliktas tyrimas parodė, kad algoritminis tikslumas ne visada lemia optimalius rezultatus (Bansal et al., 2021; Green & Chen, 2021), kas paskatino būtinybę plačiai svarstyti apie žmogaus-algoritmo kolaboracijos modelį, o ne sutelkti dėmesį tik į algoritmo veikimo optimizavimą (Green & Chen, 2019). Teoriškai algoritmų įtvirtinimas, kartu užtikrinant žmogaus priežiūrą, leistų vyriausybėms gauti algoritminio sprendimų priėmimo tikslumą, objektyvumą ir nuoseklumą bei individualizuotą, susijusią su konkrečiu kontekstu, žmogaus sprendimų priėmimo diskreciją (Green 2021).

Atsižvelgus į paminėtą Europos Sąjungos teisinį reguliavimą, galima daryti išvadą, kad europietiškasis modelis pasižymi dvilypiu tikslu – viena vertus, yra skatinamas technologijų vystymasis, tačiau, kita vertus, pirmenybė suteikiama ir yra ieškoma balanso su žmogaus teisėmis. Manytina, jog, atsižvelgus į dabartinį technologijų išsivystymo lygį, geriausiai europietišką viziją atspindėtų toks algoritmų inkorporavimo į viešojo sektoriaus sprendimų priėmimo procesą būdas, kuriuo būtų skatinamos inovacijos ir pasinaudojama jų teikiama nauda – tikslumu, greitumu, nuoseklumu, tačiau kuriuo būtų užkertamas kelias algoritmų sukeliamoms rizikoms – klaidoms, diskriminacijai. Toks būdas, manytina, galėtų būti žmogaus, šiuo atveju – pareigūno ir algoritmų simbiozė. Užtikrinus žmogaus priežiūrą priimant automatizuotus administracinius nurodymus ne tik būtų eliminuojamos šio darbo 2 skyriuje nagrinėtos problemos kaip diskriminacijos rizika, pareigūnų funkcijų automatizavimo problema bei skatinamas didesnis pasitikėjimas technologijų integracija viešajame sektoriuje apskritai. Toks požiūris atitiktų ir Europos Sąjungos formuojamą požiūrio į technologijų integravimo į viešąjį sektorių kryptį – algoritmų potencialas būtų išnaudojamas pagal jų technologinį išsivystymo lygį, o žmogaus priežiūra sumažintų riziką pagrindinėms teisėms ir saugumui, kas atitiktų ir bendrąjį tikslą – užtikrinti tinkamą technologinio pranašumo skatinimo ir tinkamos žmogaus teisių apsaugos pusiausvyrą.

Išvados

Apibendrinant galima padaryti tokias esmines išvadas:

1. Lietuvoje šiuo metu galiojantis automatizuoto administracinio nurodymo teisinis reglamentavimas yra tobulintinas. Nėra įtvirtinta, kam priskiriamas tam tikriems administraciniams nurodymams priimti naudojamas algoritmas – įrankiui ar savarankiškam subjektui. Pasirinktas automatizuotų administracinių nurodymų sudarymo būdas kelia tokias potencialias problemas, kaip antai ypatingų pareigūnų funkcijų delegavimo problema, diskriminacijos rizika ir sumažėjusio pasitikėjimo technologijomis rizika.

2. Pasirinktas automatizacijos pritaikymo formuojant tam tikrus administracinius nurodymus taikymas neatitinka europietiškos technologijų integracijos į viešąjį sektorių vizijos. Europoje, viena vertus, technologinės inovacijos yra ypač skatintinos, kita vertus – pabrėžiama, kad palaikomos tokios inovacijos, kurios yra orientuotos į žmogų ir tinkamą jo teisių užtikrinimą. Įvairiuose Europos Sąjungos institucijų priimtuose dokumentuose matoma, kad yra pabrėžiama tiesioginė koreliacija tarp žmogaus priežiūros ir tinkamo piliečių teisių užtikrinimo.

3. Atsižvelgus į išdėstytų problemų riziką, siūlytina pereiti prie hibridinio administracinių nurodymų priėmimo modelio, kur automatizacija būtų suprantama ir naudojama kaip įrankis, paspartinantis administracinių nurodymų priėmimą, tačiau galutinio sprendimo priėmimo našta tektų pareigūnui. Tokiu būdu galimybė pareigūnui peržiūrėti nurodymą kompensuotų pareigūno dalyvavimo priimant sprendimą stoką. Atitinkamai, būtų eliminuojama visų išvardytų problemų atsiradimo rizika ir toks modelis atitiktų Europos Sąjungos formuojamą požiūrį dėl technologijų inkorporavimo į viešojo sektoriaus sprendimų priėmimo procesą.

Literatūra

Teisės aktai

Tarptautinės konvencijos, rekomendacijos ir kt.

Europos Sąjungos pagrindinių teisių chartija. OJ C 202, 7.6.2016, p. 389–405.

Europos Parlamento 2017 m. vasario 16 d. rezoliucija su rekomendacijomis Komisijai dėl robotikai taikomų civilinės teisės nuostatų (2015/2013(INL).

Europos Sąjungos reglamentai, direktyvos ir kt.

Europos Parlamento ir Tarybos 2016 m. balandžio 27 d. reglamentas (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas).

Europos Sąjungos pagrindinių teisių chartija.

Konstitucija, kodeksai, įstatymai

Lietuvos Respublikos Konstitucija (1992). Valstybės žinios, 33-1014.

Lietuvos Respublikos administracinių nusižengimų kodeksas (su pakeitimais ir papildymais) (2015). TAR, 11216.

Lietuvos Respublikos administracinių nusižengimų kodekso 33, 38, 417, 424, 569, 573, 575, 589, 590, 595, 602, 610, 611, 612, 669, 682 ir 686 straipsnių pakeitimo įstatymas (2018). TAR, 21888.

Lietuvos Respublikos valstybės tarnybos įstatymas (1999). Valstybės žinios, 66-2130.

Lietuvos policijos darbuotojų etikos kodeksas (2018). TAR, 5-V-706.

Specialioji literatūra

Abiteboul, S., Dowek, G. (2020). The age of algorithms. Cambridge, United Kingdom; New York, NY: Cambridge University Press.

Abomhara, M., Koien, G. (2015). Cyber Security and the Internet of Things: Vulnerabilities, Threats, Intruders and Attacks. Journal of Cyber Security, 4(1), 65–88.

Auby, J. B. (2020). Administrative law facing digital challenges. European review of digital administration & law, 1(1–2), 7–16.

Bansal, G. et al. (2021). Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork. Proceedings of the AAAI Conference on Artificial Intelligence, 35(13), 11405–11414, https://doi.org/10.1609/aaai.v35i13.17359.

Beliūnienė, L. et al. (2014). Galimybė susiaurinti teismo funkcijas administracinių teisės pažeidimų procese. Vilnius: Lietuvos teisės institutas.

Boix-Palop, A. (2020). Algorithms as Regulations: Considering Algorithms, when Used by the Public Administration for Decision-making, as Legal Norms in order to Guarantee the proper adoption of Administrative Decisions. European review of digital administration & law, 1(1–2), 75–100.

Buoso, E. (2020). Fully automated administrative acts in the German legal system. European review of digital administration & law, 1(1–2), 113–122, https://doi:10.4399/97888255389601

Coglianese, C. (2020). Algorithmic regulation. In Schuilenburg M. and Peeters, R. (eds.). The algorithmic society: Technology, power and knowledge. Routledge, p. 35–52.

Coiante, A. (2021). The automation of the decision-making process of the public administration in the light of the recent opinion by the Italian Council of State regarding the draft of regulations concerning the modalities of digitalization in the public tender procedures. European review of digital administration & law, 2(1), 239–248.

Deviatnikovaitė, A. (2021). Administracinė teisė. Bendroji dalis. Vilnius: Mykolo Romerio universitetas.

Gedmintaitė, A. (2020). Administrative Liability in Lithuania. In Švedas, G. and Murauskas, D. (eds.). Legal Developments During 30 Years of Lithuanian Independence: Overview of Legal Accomplishments and Challenges in Lithuania. Berlin/Heidelberg: Springer.

Glebovė, N. (2010). Valstybės tarnybos samprata ir valstybės tarnautojo statuso ypatumai. Teisė, 76, 130–148.

Green, B., Chen, Y. (2021). Algorithmic Risk Assessments Can Alter Human Decision-Making Processes in High-Stakes Government Contexts. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW2).

Green, B. (2021). The Flaws of Policies Requiring Human Oversight of Government Algorithms [interaktyvus]. Prieiga per internetą: http://dx.doi.org/10.2139/ssrn.3921216 [žiūrėta 2022 m. vasario 7 d.].

Green, B., Chen, Y. (2019). Disparate Interactions: An Algorithm-in-the-Loop Analysis of Fairness in Risk Assessments. Proceedings of the Conference on Fairness, Accountability, and Transparency, 90–99, https://doi.org/10.1145/3287560.3287563.

Frey, C., Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254–280, https://doi.org/10.1016/j.techfore.2016.08.019.

Jablonskowa, A. et al. (2018). Consumer law and artificial intelligence: challenges to the EU consumer law and policy stemming from the business‘ use of artificial intelligence: final report of the ARTSY project [interaktyvus]. Prieiga per internetą: https://cadmus.eui.eu/bitstream/handle/1814/57484/WP_2018_01.pdf?sequence=1&isAllowed=y [žiūrėta 2021 m. liepos 12 d.].

Jangirala, S. et al. (2019). Government regulations in cyber security: Framework, standards and recommendations. Future Generation Computer Systems, 92, 178–188, https://doi.org/10.1016/j.future.2018.09.063

Mikalauskaitė-Šostakienė, K., Zykevičius, A. (2013). Administracinio nurodymo institutas: taikymo ypatumai ir problemos. Visuomenės saugumas ir viešoji tvarka, 9, 156–172.

Murauskas, D. (2020). Dirbtinis intelektas priimant teismo sprendimą – algoritmų klasifikavimas remiantis teisinio kvalifikavimo stadijomis. Teisė, 115, 55–69, https://doi.org/10.15388/Teise.2020.115.4.

Paužaitė-Kulvinskienė J., Strikaitė-Latušinskaja, G. (2022). Automated Administrative Order in the Context of the Code of Administrative Offences. Changements démocratiques et électroniques dans l‘action publique locale en Europe: REvolution ou E-volution? Democratic and Electronic Changes in Local Public Action in Europe: REvolution or E-volution? Paris: Institut Francophone pour la Justice et la Démocratie, 387–405.

Prezmyslaw, P. et al. (2018). Before machines consume the consumers, Italija: European University Institute Department of Law Research Paper, 2018/12.

Schwab, K. (2017). The Fourth Industrial Revolution. New York: Crown Publishing Group New York.

Sladič, J., Uzelac, A. (2016). Assessment of Evidence. In Rijavec, V., Kereteš, T. and Ivanc, T. (eds.) Dimensions of Evidence in European Civil Procedure. Kluwer Law International, 107–133.

Susskind, D. (2020). A world without work. New York: Metropolitan Books.

Susskind, D. (2020). The Future of Courts. Remote Courts, 6(5).

Susskind, R. (2010) The End of Lawyers? Rethinking the Nature of Legal Services. Oxford: Oxford University Press.

Susskind, R. ir Susskind, D. (2015). The Future of the Professions: How Technology will Transform the Work of Human Experts. Oxford: Oxford University Press.

Vesnic, L.,ir Scapolo, F. (2019). The Future of Government 2030+: Policy implications and recommendations. Luxemburg: Publications Office of the European Union.

Zalnieriute, M., Bennett Moses, L., Williams, G. (2021). Automating Government Decisionmaking: Implications for the Rule of Law. In S. de Souza, M. Spohr (eds.) Technology, Innovation and Access to Justice: Dialogues on the Future of Law. Edinburgh: Edinburgh University Press.

Zuboff, S. (1988). In the age of the smart machine. The future of work and power. New York: Basic Books, Inc.

Teismų praktika

Lietuvos Respublikos Konstitucinio Teismo jurisprudencija

2019 m. balandžio 18 d. nutarimas. Valstybės žinios, 11/2017-5/2018.

2007 m. rugpjūčio 13 d. nutarimas. Valstybės žinios, 33/04.

Travaux preparatoires ir kita

Guidelines adopted by the Committee of Ministers of the Council of Europe on 16 June 2021 and explanatory memorandum (2021) [interaktyvus]. Prieiga per internetą: https://rm.coe.int/publication-guidelines-and-explanatory-memoreandum-odr-mechanisms-in-c/1680a4214e [žiūrėta 2022 m. rugpjūčio 12 d.].

Europos Komisijos 2021 m. balandžio 21 d. pasiūlymas „Europos Parlamento ir Tarybos reglamentas, kuriuo nustatomos suderintos dirbtinio intelekto taisyklės (Dirbtinio intelekto aktas) ir iš dalies keičiami tam tikri Sąjungos teisėkūros procedūra priimti aktai“, COM/2021/206 final.

Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui. (2021). 2030 m. skaitmeninės politikos kelrodis: Europos skaitmeninio dešimtmečio kelias. COM(2021) 118 final.

2020 m. gruodžio 2 d. Komisijos komunikatas „Teisingumo sistemų skaitmeninimo Europos Sąjungoje priemonių rinkinys“, COM(2020) 710, COM(2020) 710 final.

2020 m. spalio 14 d. Europos Tarybos išvados „Teisė kreiptis į teismą. Naudojimasis skaitmeninimo teikiamomis galimybėmis“ (2020/C 342 I/01).

2020 m. spalio 8 d. Europos Parlamento pranešimas su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos (2020/2012(INL)) [interaktyvus]. Prieiga per internetą: https://www.europarl.europa.eu/doceo/document/A-9-2020-0186_LT.pdf [žiūrėta 2021 m. liepos 12 d.].

Europos Komisijos baltoji knyga Dirbtinis intelektas. Europos požiūris į kompetenciją ir pasitikėjimą (2020). COM(2020) 65 final.

Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui. (2020) Europos duomenų strategija. COM(2020) 66 final.

Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui. (2020). Europos skaitmeninės ateities formavimas. COM(2020) 67 final.

2020 m. sausio 10 d. Lietuvos kelių policijos tarnybos 2019 m. gruodžio mėn. ir nuo metų pradžios eismo įvykių, kuriuose nukentėjo žmonės, trumpa apžvalga pagal teritorinį administracinį suskirstymą [interaktyvus]. Prieiga per internetą: http://lkpt.policija.lrv.lt/uploads/lkpt.policija/documents/files/statistika/2019/201912_apzvalga.pdf.pdf [žiūrėta 2021 m. liepos 12 d.].

OECD. How‘s Life in the Digital Age?: Opportunities and Risks of the Digital Transformation for People‘s Well-being. (2019) [interaktyvus]. Prieiga per internetą: https://doi.org/10.1787/9789264311800-en [žiūrėta 2021 m. liepos 12 d.].

Commission for the efficiency of Justice (CEPEJ) European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment, Adopted at the 31st plenary meeting of the CEPEJ (2018) [interaktyvus]. Prieiga per internetą: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c [žiūrėta 2022 m. balandžio 12 d.].

European Commission Digital Strategy – A digitally transformed, user-focused and data-driven Commission“ (2018). C(2018) 7118 final.

2018 m. spalio 10 d. Lietuvos Respublikos administracinių nusižengimų kodekso 33, 38, 417, 424, 569, 573, 575, 589, 590, 595, 602, 610, 611, 612, 669, 682 ir 686 straipsnių pakeitimo įstatymo projekto aiškinamasis raštas. Nr. XIIIP-2672 [interaktyvus]. Prieiga per internetą: https://e-seimas.lrs.lt/portal/legalAct/lt/TAK/95ca5ce0cc7411e8a82fc67610e51066 [žiūrėta 2021 m. liepos 12 d.].

Europos Komisijos pasiūlymas Europos Parlamento ir Tarybos reglamentas dėl Europos regioninės plėtros fondo ir Sanglaudos fondo. (2018). COM(2018) 372 final.

2018 m. kovo 6 d. Valstybinės eismo saugumo komisijos posėdžio sprendimas [interaktyvus]. Prieiga per internetą: https://sumin.lrv.lt/uploads/sumin/documents/files/Struktura_ir_kontaktai/Komisijos_ir_darbo_grupes/Valstybine_eismo_saugumo_komisija/Valstybines_eismo_saugumo_komisijos_protokolai/LV-46.pdf [žiūrėta 2021 m. liepos 12 d.].

Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui. (2016). 2016–2020 m. ES e. valdžios veiksmų planas. Valdžios skaitmeninių permainų spartinimas. COM(2016) 179 final.

2010 m. kovo 19 d. Lietuvos Respublikos administracinių teisės pažeidimų kodekso 302, 226, 232, 2321, 239, 2393, 241, 2411, 2461, 2462, 2467, 249, 259, 260, 261, 262, 282, 313 straipsnių ir dvidešimt trečiojo skirsnio pakeitimo, kodekso papildymo 2571, 2601, 2602 straipsniais, dvidešimt trečiuoju1 ir dvidešimt trečiuoju2 įstatymo projekto aiškinamasis raštas. Nr. XIP-1839 [interaktyvus]. Prieiga per internetą: https://e-seimas.lrs.lt/portal/legalAct/lt/TAK/TAIS.367360?jfwid=-1ddupcv4di [žiūrėta 2022 m. balandžio 28 d.].

Automated Administrative Orders in Lithuania

Goda Strikaitė-Latušinskaja
(Vilnius University)

Summary

The subject matter of this paper is to analyze issues related to the application of an automated administrative order. The first part of the paper analyzes the concept of automated administrative orders. In the second part of, the author critically evaluates problems arising from the chosen method of using automation when adopting certain administrative orders. The European Union’s vision for technology integration in the public sector in the context of automated administrative instructions is analyzed in the third part of this paper. Accordingly, the author suggests how to improve the current process of adopting automated administrative orders to reflect the vision of the European Union’s regulation and to eliminate the risks posed by the existing regulation.

Automatizuoti administraciniai nurodymai Lietuvoje

Goda Strikaitė-Latušinskaja
(Vilniaus universitetas)

Santrauka

Straipsnyje analizuojama problematika, susijusi su automatizuoto administracinio nurodymo taikymu. Pirmoje straipsnio dalyje autorė analizuoja automatizuotų administracinių nurodymų sampratą. Antroje straipsnio dalyje kritiškai įvertinamos problemos, kylančios dėl pasirinkto automatizacijos panaudojimo priimant tam tikrus administracinius nurodymus būdo. Trečioje straipsnio dalyje automatizuotų administracinių nurodymų kontekste apžvelgiama Europos Sąjungos vizija dėl technologijų integracijos viešajame sektoriuje. Atitinkamai pateikiama siūlymų, kaip patobulinti automatizuotų administracinių nurodymų priėmimą, kad jis atitiktų Europos Sąjungos viziją bei būtų eliminuojamos esamo reguliavimo lemiamos rizikos.

Goda Strikaitė-Latušinskaja yra Vilniaus universiteto Teisės fakulteto doktorantė, jaunesnioji tyrėja ir lektorė. Pagrindinės jos mokslinių interesų sritys: viešoji teisė, administracinė teisė, technologijų teisė, tarpšakiniai moksliniai tyrimai, ypač technologijų pritaikymo viešajame sektoriuje klausimai.

Goda Strikaitė-Latušinskaja is affiliated with the Faculty of Law of Vilnius University as research and teaching assistant and a PhD candidate. Her main research interests include public law, administrative law, technology law, and interdisciplinary research, with investigating the principles underlying the implementation of technologies in the public sector being the general goal of her research.


1 Šis institutas ANK buvo įtvirtintas 2011 m.

2 Duomenys gauti 2020 m. kovo 10 d. iš Lietuvos policijos departamento Komunikacijos skyriaus.

3 ANK 611 str. 4 d. yra nurodyta, jog už šio straipsnio 1 dalyje nurodytus administracinius nusižengimus administracinio nusižengimo protokolas su administraciniu nurodymu (tais atvejais, kai pagal šio kodekso 610 straipsnio 2 dalį administracinis nurodymas negali būti surašomas, – tik administracinio nusižengimo protokolas) gali būti automatiškai suformuojamas Administracinių nusižengimų registre.

4 Informacija gauta 2020 m. kovo 10 d. Lietuvos bankui atsakius į darbo autorės kreipimąsi apie išmaniųjų technologijų naudojimą.