Atbildība par mākslīgā intelekta ētisku attīstību jāuzņemas visām iesaistītajām pusēm • IR.lv

Atbildība par mākslīgā intelekta ētisku attīstību jāuzņemas visām iesaistītajām pusēm

Ilustratīvs attēls no Pixabay.com
Andrejs Karpovs

Efektīva regulēšana un apdomīga tehnoloģiju uzraudzība ir nepieciešama, lai nodrošinātu, ka mākslīgā intelekta (MI) attīstība nes labumu visām sabiedrības grupām, neradot nevēlamas sekas ilgtermiņā. Pašlaik MI attīstās ļoti strauji, un tas var radīt kā būtiskus ieguvumus, tā arī riskus, tādēļ nepieciešama paplašināta izpratne un piesardzība gan lietotāju, gan izstrādātāju vidū.

Pēdējā laikā jautājumi, kas saistīti ar MI attīstību, ieņem arvien lielāku nozīmi kā Latvijas, tā pasaules līmenī. Uzņēmējs Īlons Masks paudis pārliecību, ka jau nākamgad MI kļūs gudrāks par cilvēku, Eiropas Savienība šogad pieņēma noteikumus, kas reglamentēs MI, arī tādu jaudīgu sistēmu kā OpenAI un ChatGPT darbību. Arī Latvijas prezidents Edgars Rinkēvičs mudina Latvijā regulēt MI izmantošanu, pievēršot īpašu uzmanību dziļviltojumiem.

Tehnoloģiju uzņēmumiem un MI izstrādātājiem aktīvi jāiesaistās šīs tehnoloģijas turpmākajā pilnveidē. Lai gan mākslīgā intelekta (MI) potenciālie ieguvumi ir ievērojami, ir svarīgi apzināties arī ar to saistītos riskus un izaicinājumus. MI piedāvā plašas iespējas dažādās jomās, taču tā atbildīga attīstība un izmantošana ir būtiska, lai maksimizētu ieguvumus un vienlaikus mazinātu potenciālos draudus. Patlaban notiek aktīvas diskusijas, kā vislabāk līdzsvarot MI sniegtās iespējas ar nepieciešamajiem drošības un ētikas apsvērumiem. Eiropas Savienības Mākslīgā intelekta akts (EU AI Act) ir nozīmīgs solis MI regulēšanā Eiropas līmenī. Šis tiesību akts, kas stājās spēkā šā gada 1. augustā, mērķē uz MI sistēmu drošības un cilvēktiesību aizsardzības nodrošināšanu, vienlaikus veicinot inovācijas. Latvijai kā ES dalībvalstij būs jāievieš šī regula, kas varētu ietekmēt vietējo uzņēmumu darbību un MI attīstību valstī. Akts ievieš riska kategorijas MI lietojumiem, nosakot stingrākas prasības augsta riska sistēmām un aizliedzot noteiktas MI prakses, kas tiek uzskatītas par nepieņemamām.

Visbiežāk minētais MI attīstības negatīvais blakusefekts ir darbavietu zudums, taču tikpat būtiski ir spriest par citu, mazāk apspriestu jautājumu – aizspriedumiem.

MI var atkārtot un pastiprināt izstrādātāju aizspriedumus un kļūdas, kas iekļautas tā datos (un algoritmos), uz kuru pamata tas tiek trenēts – galu galā tieši cilvēks veido mākslīgo intelektu ar visiem tajā neapzināti iekodētajiem cilvēciskajiem vērtējumiem. Šie aizspriedumi var izpausties dažādos MI pielietojumos, potenciāli novedot pie negodīgām praksēm un neētiskiem lēmumiem.

Atbildību par to, lai mākslīgais intelekts būtu ētisks, tāds, kas neaizskar cilvēka brīvības un darbojas noteiktos, definētos rāmjos, būtu jāuzņemas vairākām iesaistītajām pusēm, ieskaitot izstrādātājus, regulatīvās iestādes un organizācijas, kas izmanto MI tehnoloģijas. Izstrādātājiem ir pienākums integrēt ētiskus apsvērumus MI projektu dizainā un izstrādes fāzēs, nodrošinot, ka tehnoloģija neiekļauj sevī kaitīgus aizspriedumus vai izmantošanas riskus.

MI ierobežošana ir nepieciešama, lai nodrošinātu drošību un ētiku, taču pārmērīgi ierobežojumi var kavēt tehnoloģiju attīstību. Līdzsvarota pieeja regulējumā, kas aizsargā pret riskiem, neierobežojot MI inovatīvo potenciālu, ir izteikti būtiska.

Ikdienā gandrīz ikkatrs jau tagad saskaras ar MI klātbūtni digitālajā vidē – meklētājprogrammās, ieteikumu sistēmās, viedtālruņu asistentos, automātiskajā tulkošanā, runas atpazīšanā un citos formātos. Turklāt MI tiek plaši izmantots arī sociālajos tīklos. Lielākoties tas uzlabo lietotāja pieredzi, taču tikpat būtiska ir sadarbība starp cilvēku un mākslīgo intelektu, lai MI papildinātu cilvēka spējas, nevis aizstātu tās pilnībā. Tā, piemēram, Tietoevry speciālisti izstrādā sistēmas un sadarbojas ar tehnoloģiju milzi Microsoft, integrējot MI tehnoloģijas savos pakalpojumos un risinājumos.

Regulatīvajām iestādēm ir jāizveido un jāievieš skaidras vadlīnijas un standarti ētiskai MI lietošanai, lai novērstu ļaunprātīgu tehnoloģijas izmantošanu un aizsargātu sabiedrības labklājību. Turklāt organizācijām, kas izmanto MI, būtu jāievieš uzraudzības mehānismi un regulāri jāveic auditu pārbaudes, lai nodrošinātu nepārtrauktu atbilstību ētikas standartiem.

Ētiska MI izmantošana ir sadarbības jautājums, kas prasa visu iesaistīto pušu aktīvu iesaistīšanos, lai risinātu un mazinātu ar MI tehnoloģijām saistītos riskus.

 

Autors ir IT uzņēmuma Tietoevry eksperts mākslīgā intelekta jautājumos

 

Pagaidām nav neviena komentāra

Saņem svarīgākās ziņas katru darba dienas rītu