Kad 1991.gada janvārī ierados Tallinā, lai lasītu lekcijas Starptautiskajā biznesa skolā, tolaik tā vēl bija Padomju savienība, laiks pirms interneta. Tāpēc tikai tad, kad nokļuvu Igaunijā, ieraudzīju barikādes ap parlamenta ēku. Arī Latvijai ir barikāžu pieredze.
Mūsdienās cilvēki cenšas celt barikādes, lai pasargātu sevi no mākslīgā intelekta (AI). Vieni uztraucas, ka tas uzglūn kā ļaunais robots slepkava zinātniskās fantastikas filmā.Citiem, gluži pretēji, prātā nāk jaukais, izpalīdzīgais robotiņš no “Zvaigžņu kariem”. Daudzi ir noraizējušies, ka mākslīgais intelekts var atņemt viņiem darbu.
No tiesību skatpunkta AI ir ļoti daudz aspektu, un nozīme ir tam, kā šos aspektus izmanto cilvēks.
AI būtībā ir datora izmantošana, lai paveiktu uzdevumus, kam parasti būtu nepieciešams cilvēka prāts. AI ir visai veiksmīgs tādās jomās kā adatas meklēšana siena kaudzē jeb konkrētu detaļu atrašana lielā datu apjomā, klasificēšana, norādījumu izpilde, mācīšanās no piemēriem un testēšana, balstoties uz izmēģinājumiem un kļūdām. Juridiskajā vidē AI var sekmīgi veikt uzdevumus, kas paredz noteikumu piemērošanu, vēsturisko datu salīdzināšanu un analīzi vai izmanto datus rezultātu prognozēšanai.
AI līdzdalība juridiskajā izpētē uzlabo dokumentu analīzes ātrumu, precizitāti un efektivitāti.
Turklāt lasīt aizdevuma dokumentus vai izskatīt tiesvedības dokumentāciju var būt patiešām garlaicīgi, un lielākā daļa juristu labprāt uzticētu šo darbu AI, kas dažās sekundēs atrod to, kam cilvēks atvēl vairākas stundas vai pat dienas.
Maldināšanas risks
Taču AI rīki var radīt jaunus riskus. Lielākais satraukums pašlaik valda par to, ko dēvē par “ģeneratīvo AI” jeb GAI (Generative Artificial Intelligence): tie ir tādi rīki kā ChatGPT, Midjourney, Google Bard u.c., kurus var izmantot, lai rakstītu programmas, emuārus, rakstus, stāstus, esejas, skolas mājasdarbus – gandrīz jebkura veida rakstu darbus, tostarp īsus juridiskus ziņojumus. GAI var radīt materiālu, kas it kā ir svaigs un unikāls, taču daļa ekspertu GAI darbu sauc par “kolāžu”, “kompostu” un “plaģiātu”, jo tas izmanto jau eksistējošus materiālus.
Iespējams, esat dzirdējuši par advokātu Ņujorkā, kurš izmantoja ChatGPT, lai uzrakstītu īsu juridisku dokumentu federālajai apgabaltiesai. Tajā bija ietverti viltoti tiesu lēmumi un neeksistējošas juridiskas atsauces, bet advokāts to nesaprata. Viņš pat nepārbaudīja. Viņš vienkārši uzticējās AI, jo izskatījās ticami.
Valoda bija loģiska, citāti – pareizi noformēti, tāpēc viņš paļāvās, ka viss ir pareizi.
Kā teicis Hārvardas Juridiskās skolas profesors Džonatans Zitreins, visi šie rīki ir balstīti uz to, lai izklausās pareizi, nevis lai tiešām ir pareizi.
Pati par to pārliecinājos, kad janvārī plānoju ceļojumu uz Budapeštu. Palūdzu ChatGPT nākt klajā ar ieteikumiem, ko tūrists varētu pasākt šajā pilsētā. Lielākā daļa ieteikumu bija precīzi, taču tur figurēja arī kāds 150 gadus vecs restorāns, kas pasniedz noteikta veida ēdienu. Pati savā izpētē atklāju, ka restorāns patiešām pastāv, taču tajā nepasniedz aprakstīto ēdienu, un tam arī nav 150 gadu. Internetu strauji pārpludina mākslīgā intelekta radīti ceļveži, un ne tikai par ceļojumiem uz Budapeštu, bet arī par tādu nodarbi kā, piemēram, sēņošana, iesakot dažas indīgās sēnes kā ēdamas. Tāpēc nemaz nevajag robotu slepkavu, lai nomirtu no AI.
Ierauga to, ko cilvēki nepamana
Tagad aplūkosim, ko prot “draudzīgie roboti”. Daudzās valstīs īsta problēma ir vienlīdzīgas piekļuves nodrošināšana tiesai un citiem juridiskiem pakalpojumiem, kas bagātajiem sabiedrības locekļiem bieži vien ir daudz brīvāk pieejami nekā trūcīgajiem – jurista algošana maksā dārgi.
AI var uzlabot piekļuvi juridiskajiem pakalpojumiem dažādos veidos.
ASV, Apvienotajā Karalistē, Austrālijā un Kanādā popularitāti guvis bezmaksas pakalpojums DoNotPay, ko izveidojis 19 gadus vecs jaunietis, – ar AI darbināms tērzēšanas robots, kas ļauj lietotājiem apstrīdēt sodu par nepareizu automašīnas novietošanu. Nepilnu divu gadu laikā tas izskatījis 250 000 gadījumu un uzvarējis 160 000 no tiem, ietaupot lietotājiem vairāk nekā 4 miljonus ASV dolāru.
Vēl viena problēma – tiesneši var būt neobjektīvi, un mākslīgais intelekts to var atklāt. Pētījums parādīja, ka tad, kad Luiziānas futbola komanda zaudē, Luiziānas tiesneši pret noziedzniekiem izturas bargāk. Savukārt apsūdzēto dzimšanas dienās tiesneši mēdz būt pielaidīgāki. Šādu rīcības modeļu noteikšana var palīdzēt padarīt kriminālsodus taisnīgākus un konsekventākus. Vēl viens sodu noteikšanas jautājums ir saistīts ar recidīva prognozēšanu – iespējamību, ka noziedznieks nākotnē izdarīs citu noziegumu.
Noziedzniekiem ir jāsaņem lielāks sods, ja pastāv lielāka iespējamība, ka viņi turpmāk pastrādās noziegumus.
ASV izmanto uz AI balstītu sistēmu Compas, ņemot vērā likumpārkāpēja atbildes uz 137 jautājumiem, informāciju par viņa kriminālo vēsturi, sociālekonomisko statusu un stabilitāti, ģimenes izcelsmi, nodarbinātību utt., lai aprēķinātu riska rādītāju skalā no 1 līdz 10.
Problēma ir tāda, ka AI programmas iemācās pamanīt modeļus un pieņemt lēmumus, analizējot lielas datu kopas. Līdz ar to – tieši tāpat kā AI var identificēt un, iespējams, novērst neobjektivitāti, tas var to arī saglabāt un izplatīt, ja vairākums datu ietver kādu sabiedrības grupu diskriminējošu informāciju.
Vēl daudz darba ar regulējumu
Eiropas Komisija 2021 gadā publicēja tiesību aktu projektus, kuru mērķis ir regulēt AI. Tiesa, pagaidām tikai daļēji. Piemēram, tā aizliedz AI sistēmas, kas tiek uzskatītas par draudiem cilvēkiem:
– ar balsi aktivizējamas rotaļlietas, kas var izraisīt bīstamu bērnu uzvedību;
– vērtējumu, kas balstīts uz sociālo uzvedību, sociāli ekonomisko stāvokli vai pazīmēm, kas izraisa nelabvēlīgu attieksmi pret noteiktām cilvēku grupām, līdzīgi kā Compas ASV;
– reāllaika un attālinātu biometrisko identifikāciju publiskās vietās tiesībaizsardzības pastiprināšanai, ja vien tas nav nepieciešams mērķtiecīgai noziegumu izmeklēšanai vai būtisku draudu novēršanai.
Saskaņā ar jaunajiem ES tiesību aktiem cilvēki ir jāinformē, kad viņi mijiedarbojas ar AI sistēmām, ja tas nav acīmredzams.
Ir jāatklāj AI iesaiste “dziļo viltojumu” jeb deepfake radīšanā. ES gan to neaizliedz – likums vienkārši noteic, ka tam, kurš izmanto AI deepfake radīšanai, ir jāatklāj, ka viņš to dara. Vēl viena lieta, kas ES tiesību aktos nav paredzēta, ir jautājums par ar autortiesībām aizsargāta materiāla izmantošanu AI apmācīšanai. Patlaban tā ir viena no karstākajām problēmām AI tiesību aktos, un to sāk risināt tiesas un autortiesību organizācijas.
GAI var radīt “mākslu”, un daži attēli var būt satriecoši skaisti. Piemēram, AI rīka Midjourney radītais Théâtre D’opéra Spatial, kas parakstīts ar Džeisona Allena vārdu, pērn ieguva galveno balvu Kolorādo štata gadatirgus digitālās mākslas konkursā. Mākslinieki ir iesūdzējuši vairākus AI uzņēmumus par masveida autortiesību pārkāpumiem, izmantojot autordarbus GAI sistēmās, no kuriem tās ģenerē jaunu “mākslu”.
Jādefinē autortiesības
Arī Latvijā, plānojot radīt AI rīkus notāriem, šie rīki būs jāapmāca par regulāri izmantotajiem dokumentiem, un tas nozīmē, ka, iespējams, būs jāsaņem atļauja no personām, kuras izveidojušas vai augšupielādējušas šos dokumentus. Var nākties mainīt intelektuālā īpašuma likumdošanu, lai būtu skaidrs, ka ar autortiesībām aizsargāta materiāla izmantošana mākslīgā intelekta apmācībā nepārkāpj intelektuālā īpašuma tiesības.
Rakstnieki un mākslinieki ir noraizējušies, ka AI atņems viņiem darbu.
Vai arī notāriem būtu jāuztraucas? Kādreiz liftos bija operatori, kas atvēra un aizvēra durvis. Kādreiz bija jārunā ar cilvēku, lai viņš izņemtu naudu no bankas konta, nevis jāizmanto bankomāts. Kādreiz par pārtikas precēm bija jānorēķinās ar kasieri, bet tagad daudzos veikalos ir pieejamas pašapkalpošanās kases. Tas, vai cilvēka aizstāšana ar AI ir laba vai slikta, lielā mērā ir atkarīgs no tā, vai šis cilvēks ir aizstājamā persona vai kāds, kas gūst labumu no aizstāšanas.
Tomēr kopumā AI var ļoti palīdzēt notāriem ikdienas darbā. Ir daudz saziņas kanālu – e-pasts, WhatsApp, telefoni utt., – kas apgrūtina ikdienu. AI varētu palīdzēt koordinēt šo sadrumstaloto saziņu. Turklāt notāriem būtu svarīgi koncentrēties uz darbu, kas prasa radošumu un empātiju, ļaujot AI darīt tehniskus darbus, piemēram, datu reģistrēšanu un melnrakstu sagatavošanu. Latvijas risinājumi šiem izaicinājumiem var kļūt par paraugu notāriem pārējā pasaulē un padarīt dzīvi labāku kopā ar draudzīgo, izpalīdzīgo AI.
Lauri Donahjū (Lauri Donahue) ir advokāte, Hārvardas Juridiskā un tehnoloģiju žurnāla līdzdibinātāja.
Pagaidām nav neviena komentāra