Foto: Anna Andersone, "Satori".
 
Sarunas
19.06.2025

Cilvēki vairs nepieņems nepilnības. Saruna par MI valsts pārvaldē

Šī saruna norisinājās īsi pirms tam, kad Latvijā tika oficiāli nodibināts Mākslīgā intelekta centrs un spēkā stājās Mākslīgā intelekta centra likums [1]. Lai arī mākslīgā intelekta (MI) tēma jau daudz apspriesta [2], tai skaitā gandrīz līdz apnikumam paustas pārspīlētas cerības un bažas, MI risinājumi pakāpeniski nonāk ikdienas dzīves apritē, un ir būtiski sekot līdzi scenārijiem, kas pamazām īstenojas vai īstenosies, ja mēs to ļausim. Norimst ažiotāža, bet paliek pakāpenisks, uzstājīgs kontinentu dreifs, kas koriģē mūsu priekšstatus par vērtīgu saturu, labi uzrakstītu studiju darbu, par laiku, kuru esam gatavi ieguldīt intelektuālā darbā, par vērtību, kuru piešķiram sarunai ar dzīvu cilvēku. Šajā sarunā kopā ar domnīcas "Providus" vadošo pētnieci Ivetu Kažoku un programmētāju Māri Melbārdi pievērsāmies domas eksperimentiem par to, kā MI varētu darboties valsts pārvaldē.


Sarunas vadītāja Anda Baklāne.




Anda Baklāne: Kā jūs vērtējat to, ka Mākslīgā intelekta centra kontekstā tik centrāls ir paziņojums, ka nodibināta sadarbība tieši ar "Microsoft"?

Māris Melbārdis: Es lasīju memorandu, un tas, ko ievēroju arī diskusijās saistībā ar MI, – mēs pēc noklusējuma pieņemam, ka runa vienmēr ir par ģeneratīvo MI. Bet skaidrs, ka memorands, kas tika parakstīts, un tas, kas tur ir ietverts, ir daudz plašāks. Tās ir vispār ar MI saistītās tehnoloģijas. Ģeneratīvais MI ir ārkārtīgi populārs, bet principā jau tā ir samērā neliela daļa no visa MI iespējotā rīku kopuma. Piemēram, biznesā jau no 2000. gadu sākuma tiek izmantoti prediktīvie modeļi, kas strādā ar milzīgiem datu masīviem, – to rezultāts ir jēgpilnas biznesa procesu prognozes. Cita lieta ir kategorizētāji, klasifikatori, kas var, piemēram, vizuāli atpazīt objektus. Un arī visi čatboti, kas bija pirms ģeneratīvā MI, ir MI risinājumi, to vidū Siri un Google Assistant. Tās ir cita veida tehnoloģijas ar cita veida pielietojumu. Tāpēc mums nevajag iedomāties, ka šī jaunā, sahaipotā tehnoloģija – ģeneratīvais MI – ir viss, ap ko grozīsies MI pētījumi.

Iveta Kažoka: Man par šādiem memorandiem ir triju veidu pārdomas. Pirmkārt, man šķiet, ka teorētiski ir pareizi, ka valstī, kurai nav savas lielas MI industrijas, valdība kaut ko mēģina darīt, lai piesaistītu ārējo kompetenci vai vismaz radītu priekšnoteikumus tam, lai šī kompetence ar laiku būtu. Īrijas panākumi dažādās ekonomikas jomās, sevišķi saistībā ar lielajiem tehnoloģiju uzņēmumiem, ir balstīti līdzīgā pieejā – atvērt durvis, ielaist iekšā lielos uzņēmumus, pašiem no tā mācīties. Otra lieta ir jautājums par to, cik pareizi ir pakļauties tikai vienas lielas kompānijas interesēm. Par to man pagaidām nav sevišķi lielu bažu, jo valsts amatpersonas bija vizītē Amerikā un tikās arī ar citiem mūsdienu MI milžiem. Trešais – lai tas nenotiek uz mūsu visu drošības un ilgtermiņa MI spēju attīstīšanas rēķina.

Māris: Te jāprecizē, par ko mēs domājam. Vai mēs plānojam nodarboties ar MI pētniecību, un tātad mums nevajadzētu sadarboties ar vienu partneri, kurš mums iedod gatavu pamatu, ko mēs tikai nedaudz pielāgojam, vai mēs to darām paši no nulles. Man šķiet, ka sākt strādāt ar mākslīgo intelektu no nulles ir pilnīgi nereālistiski, ņemot vērā resursus, kas tam nepieciešami.

Anda: Nē, nē, neviens nesaka, ka MI jātrenē no nulles. Jautāju, lai saprastu, vai tas, ka vēlamies padarīt Latviju par līderi MI lietojuma jomā, nav tikai skaļi vārdi un ka patiesībā tā ir atsevišķu cilvēku vēlme būt starpniekiem "Microsoft" produktu izplatīšanā.

Māris: Tad es ķeršos klāt no otra gala. Ko nozīmē tas, ka mēs gribam padarīt Latviju par līderi MI lietojuma jomā? Vai tas nozīmē, ka veicam pētniecību un tiešām aktīvi ieguldām intelekta tehnoloģiskajā attīstībā? Vai arī mēs to izmantojam? Drīzāk tas nozīmē to, ka mēs modernizējam valsts pārvaldi un esam "Baltijas un Eiropas digitālās attīstības līderi". Digitālā attīstība ne obligāti nozīmē tehnoloģisku attīstību – tas nozīmē arī esošas tehnoloģijas bāzes integrēšanu problēmu risinājumā. To ir ļoti svarīgi saprast. Lielākā daļa IT risinājumu nav oriģināli, būvēti no nulles. Pievienotā vērtība veidojas no jaunām kombinācijām, jaunām integrācijām, jau labi izstrādātu, pārbaudītu un uzturamu tehnoloģiju pielāgošanas un mērogošanas.

Viena no lielākajām problēmām ir grūtības atrast, kā tieši MI pielietot. Sākas FOMO [3] – visi saka: jums jāsāk lietot MI un piedāvāt MI risinājumus, jo klienti jautā: "Kāpēc jums nav? Kāpēc jūs neko nepiedāvājat?" Un tad ir kaut kādi vorkšopi un hakatoni, kur mēs mēģinām izdomāt, kā šo tehnoloģiju attīstīt. "Gartner" ziņojums rāda, ka apmēram 30% līdz šim īstenoto mākslīgā intelekta projektu, to prototipu, tiks pamesti novārtā. Mēs kaut ko pamēģinām, izrādās, ka nesanāk, un neko tālāk nedarām. Tas nozīmē, ka vajadzētu fokusēties uz jautājumu, kā varam efektīvi pielietot šīs tehnoloģijas.

Anda: Droši vien MI centra mērķis ir integrēt šos pakalpojumus mūsu ikdienas dzīvē – gan valsts pārvaldē, gan uzņēmējdarbībā; var digitalizēt arī transportu, komunikāciju. Man šķiet, tas ir gan nepieciešams, gan savā ziņā neizbēgams, un iespējams, ka šajā MI vilcienā tiks iekrautas arī citas digitālās tehnoloģijas, kas tehniski nav MI vai ģeneratīvais MI, bet kas mums arī ir vajadzīgas. Te es gribētu stūrēt mūsu sarunu uz valsts pārvaldi. Vai mums ir cerības ar digitalizācijas palīdzību padarīt valsts pārvaldi efektīvāku? Citēšu ekonomikas ministra Viktora Valaiņa sacīto par to, kāpēc ir nepieciešams MI: "Redzam nepieciešamību efektivizēt valsts pārvaldes darbu un optimizēt izmaksas. Cilvēkresursu trūkums, iedzīvotāju vēlme pēc mūsdienīgiem saziņas risinājumiem ar valsts pārvaldi un ietekmes uz vidi mazināšana – šie ir galvenie iemesli." Kādā citā sarunā ministrs norāda, ka Latvijā valsts pārvalde nav tā efektīvākā un, strādājot efektīvāk, darbinieku skaitu vienā valsts iestādē varēšot samazināt par kādiem trīsdesmit cilvēkiem, tādējādi ietaupot vairākus tūkstošus eiro mēnesī. Vai jums šķiet, ka šāda attīstība būtu vēlama? Vai MI mums būtu lētāks nekā tie trīsdesmit cilvēki?

Iveta: Es piekritīšu tam, ka mūsu valsts pārvalde šobrīd nav ļoti efektīvi organizēta. Darbojas modelis, ka ir viens cilvēks uz vienu funkciju. Vienalga, vai funkcija prasa pilnu darba laiku vai pieslēgšanos vienu dienu nedēļā, darbiniekam tiek apmaksāts pilns darba laiks – vairākās iestādēs tā ir. Ja būtu iespējams kaut kādā mērā automatizēt to vienu funkciju, varētu ne tikai ietaupīt līdzekļus, bet arī uzlabot valsts pārvaldes darba kvalitāti. To visu apgrūtina jautājums par to, kā notiks cilvēku aizvietošana, kā mēs kā sabiedrība koordinēsimies. Bet tas ir jautājums, kas nav specifisks valsts pārvaldei, tas ir saistīts ar pilnīgi visām profesijām, visu profesiju nākotni.

Atgriežoties pie Latvijas pārvaldes: protams, ir daudz lietu, ko var efektivizēt. Teiksim, MI jau šobrīd daudz pārdomātāk, kvalitatīvāk, skaidrāk nekā cilvēks atbildēs uz iedzīvotāju vēstulēm. Valsts pārvaldes sniegtās atbildes mēdz būt ieturētas juridiski birokrātiskā atrakstīšanās stilā. Tur parasti ir kāds cilvēks, kas tam ir veltījis veselu dienu, bet rezultāts nokaitina saņēmēju. MI tūlīt būs ļoti labs attiecībā uz juridisko tekstu rakstīšanu un dažādu līgumu, iepirkumu dokumentāciju sastādīšanu.

Tas pats attiecas uz tipiskām, valsts pārvaldē veidotām analīzēm, stratēģijām un citiem plāniem. Ļoti reti, uzdodot to pašu darbu mūsdienu MI ģeneratīvajiem modeļiem, mēs nedabūsim labāku analītisku rezultātu. MI noteikti var labāk nekā cilvēks ģenerēt priekšlikumus likumiem, ja vien cilvēkam ir nojausma par to, ko viņš vēlas. Ir ļoti daudzas funkcijas valsts pārvaldē, kur MI klātbūtne ja ne aizstātu cilvēkus, tad ievērojami samazinātu viņu darba apjomu, vienlaikus ļaujot šiem cilvēkiem nodarboties ar būtiskāku problēmu risināšanu. Pagaidām gan MI trūkst kontekstuālās izpratnes un cilvēks ar viņa pieredzi joprojām ir vajadzīgs. Bet tad šim cilvēkam ar viņa pieredzi ir jādod iespēja iedziļināties attiecīgajā tēmā, un šobrīd viņam to neļauj milzīgais tehnisko pienākumu apjoms. Ja MI to aizstātu, ikviens valsts pārvaldē par to justos pateicīgs.

Vai tas nozīmē, ka mums vajadzētu būtiski samazināt valsts pārvaldē nodarbināto cilvēku skaitu? Par to es neesmu pārliecināta, bet tas ir atkarīgs no tā, vai ir iespējams šos cilvēkus pārvirzīt uz kaut kāda cita veida pienākumiem, kur viņu cilvēciskajām kvalitātēm būs daudz lielāka nozīme, nekā tas ir šobrīd.

Anda: Tu jau iezīmēji divus atšķirīgus darbības veidus. Viens ir sagatavot dokumentus, kas ir balstīti standartos. Tas ir mehānisks darbs, kur īstas lēmumu pieņemšanas nav. Otrs ir likumdošana, lēmumu pieņemšana vai stratēģisku virzienu definēšana, ko noteikti arī MI var izdarīt. Tu esi rakstījusi, ka būs liels vilinājums sekot MI ģenerētajam un neieguldīt pašiem savu mentālo enerģiju, lai izgudrotu stratēģiskus virzienus un likumu formulējumus. Vai vajadzētu likumdevējiem aizliegt rakstīt likumus, izmantojot MI? Līdzīgi kā studentiem neļauj esejas rakstīt ar mākslīgo intelektu?

Iveta: Man šķiet, ka šobrīd esam tādā dīvainā pārejas stadijā, kad MI noteikti uzrakstīs likuma vai tiesas sprieduma tekstu labāk nekā vidējais deputāts vai vidējais tiesnesis. Tomēr paši spēcīgākie tiesneši vai paši atbildīgākie likumdevēji uzrakstīs labāk par MI. Dzīves pieredze joprojām ir svarīga. Manuprāt, tas ir īss pārejas periods, jo pēc dažiem gadiem retais no mums varēs mēroties ar MI.

Sākotnēji, domājot par MI, man bija sajūta, ka šeit mums jāvelk trekna, sarkana svītra. MI var kaut ko ieteikt un piedāvāt, bet lēmumiem attiecībā uz mūsu kopīgo dzīvi, nākotni vienmēr jābūt cilvēces rokās. Bet šīgada sākumā es "Jurista vārdam" uzrakstīju viedokli par to, vai tiesas spriešanu varētu kaut kad nodot MI. Šobrīd pētījumi pārliecinoši rāda, ka tiesnešu lēmumus ietekmē visdažādākie un nejēdzīgākie apsvērumi. Piemēram, vai viņi ir paēduši brokastis, kādiem stereotipiem viņi tic. Es iztēlojos sevi apsūdzētā lomā un uzdevu sev jautājumu – ko es gribētu? Vai es gribētu, lai par manu likteni lemj nepilnīgais cilvēks, kurš varbūt nav paēdis brokastis? Vai tomēr labāk MI sistēma, kas varbūt nav pats labākais pasaules tiesnesis, bet pasaules labāko tiesnesi es savā dzīvē visdrīzāk arī nesatikšu.

Māris: Man ļoti nepatīk frāze, ka MI ir neizbēgams, jo uzliek pienākumu uz to reaģēt un rada stresu. Ja ir neizbēgams, tad sākam kaut ko darīt, sākam kaut ko ieviest. Manuprāt, mums ir jājautā, kāda veida problēmas mums ir, ko mēs gribam sasniegt – ar reālām prognozēm, reāliem rādījumiem. Un tad skatīties, vai ir jau pieejamas tehnoloģijas, kas var tikt pielāgotas šo problēmu sasniegšanai. Šādi vispārīgi apgalvojumi – ka MI ir neizbēgams un, to ieviešot, paaugstināsies efektivitāte un samazināsies nepieciešamo ierēdņu skaits – ir vairāk tāds PR, retorisks paņēmiens, kā runāt par MI.

Iveta: Gribu minēt vienu konkrētu piemēru. Pieņemsim, ir valsts iestāde, kura uz tavu lūgumu kaut ko precizēt, noskaidrot, iedot kaut kādu dokumentu atbild minūtes laikā, jo atbildi gatavo MI. Un tad ir cita iestāde, kas tev pēc dienas atbild: "Mēs jūsu iesniegumu esam saņēmuši, mēnesi domāsim, pēc tam dosim ziņu." Mēnesis paiet, un tu dabū kaut kādu neskaidru, cilvēka rakstītu atbildi. Vai tev nešķiet, ka spiediens valsts pārvaldei piemēroties tehnoloģiskajam progresam būs tik liels, ka nozīmēs neizbēgamu MI ienākšanu? Cilvēki vairs nepieņems nepilnīgus, lēnus, viņiem nesaprotamus risinājumus. MI, jaunajām ģeneratīvajām tehnoloģijām, ir tik lielas priekšrocības ātras, pārdomātas un skaidras atbildes sniegšanā, ka cilvēks ar to nevarēs konkurēt. Tādējādi tas ir neizbēgams process.

Māris: Tas ir ļoti labs arguments, lai runātu par MI lietojumu šādā gadījumā. Bet tas nenozīmē, ka tas ir neizbēgams vispār. Mums jāsāk ar problēmām, nevis ar uzstādījumu, ka MI ir kaut kāda sudraba lode, kas atrisinās visas mūsu problēmas.

Man šķiet, ka MI noteikti nevajadzētu aizstāt cilvēku valsts pārvaldes komunikācijā ar iedzīvotājiem. Ja iedzīvotājs zvana vai vēršas čatā pie kāda valsts pārvaldes iestādes darbinieka, šo komunikāciju nevajadzētu aizstāt ar MI risinājumu.

Anda: Kāpēc ne?

Māris: Tas vēl vairāk nostiprinātu iespaidu, ka valsts pārvalde ir dārga, neefektīva un tur tāpat neviens neko nedara. Es gribu beidzot komunicēt ar kādu no valsts pārvaldes, bet tā vietā, lai runātu ar reālu cilvēku, man priekšā tiek likts čatbots. Biznesā darbojas atbalsta centri, kuros sarunboti strādā kā aizture. Proti, mēs mēģinām panākt to, lai pie mums nonāk pēc iespējas mazāk reālu pieteikumu, lai pārējie tiek atrisināti ar sarunbotu. Bet biznesā konteksts un uzstādījumi ir nedaudz citādi, un, ja mēs runājam par valsts pārvaldes seju, tas noteikti nav tikums – nostādīt MI pa vidu reālajai cilvēku komunikācijai.

Iveta: Varbūt tu domā iepriekšējās paaudzes sarunbotus, ko izmanto mūsu pārvaldē? Jo, piemēram, Chat GPT Advanced Voicear kuru es pamatā sarunājos franciski, lai mācītos valodu, piemērojas manam runas tempam, izpratnes līmenim. Ja saziņā ar valsts iestādi man pretī būtu kaut kas tikpat personalizēts, kas man mierīgi izskaidrotu visu, kas man jāzina, kāpēc lai es izvēlētos cilvēku?

Māris: Es domāju, ka ir pilnīgi normāli ieviest šādus risinājumus ārpus iestāžu darba laika. Bet, ja mēs to padarītu par galveno piekļuves punktu, cilvēka–cilvēka komunikāciju aizstājot ar cilvēku–mašīnu komunikāciju, tas tikai vairotu priekšstatu, ka valsts pārvaldes darbinieki tikai caurām dienām dzer kafiju un neko nedara, bet visu viņu vietā atrisina MI. Jūs taču esat dzirdējušas uzsaukumus atlaist lielāko daļu ierēdņu? Lai arī es pilnīgi piekrītu, ka nereti ģeneratīvais MI var pārspēt vidējo ierēdni gan domas skaidrības, gan atbildes ātruma ziņā, ir aspekti, kas var padarīt šo risinājumu nevēlamu. Mana pieredze nāk no biznesa jomas, kur neviens klients nav priecīgs par to, ka viņam piedāvā sarunāties ar čatbotu, arī tad, ja tas ir ģeneratīvā MI čatbots. Cilvēks sāk sarunāties ar čatbotu, saprot, ka tas ir MI, jo tam jāstādās priekšā kā MI, un gaida brīdi, kad varēs beidzot pateikt, ka vēlas runāt ar īstu cilvēku. Es domāju, ka efektivitātes un kvalitātes kritēriji ir ļoti būtiski un ir argumenti par to, kāpēc arī šādu komunikāciju vajadzētu nodrošināt ar MI, bet tam ir ēnas puses.

Anda: Teorētiski es arī piekrītu, ka šī barjera varētu vēl vairāk atsvešināt cilvēku no valsts pārvaldes. No otras puses, ikdienā strādājot ar Chat GPT, sāku ar to komunicēt kā ar personu. Daudzos gadījumos šī laipnā atbildēšana un izsmeļošās atbildes man rada miera un komforta sajūtu. Kā panākt šo sajūtu un vienlaikus neradīt iespaidu, ka valsts neko nedara? Salīdzinot ar iepriekšējās paaudzes sarunbotiem, kuriem Latvijā tika veidotas personības, lai padarītu tos simpātiskākus, antropomorfizētus, ģeneratīvais MI nevis veido savu identitāti, bet pielāgojas sarunu biedram, piemēram, spēj piemēroties ritmam, kādā mēs uzdodam jautājumus. Un tieši tas ir izšķiroši – svarīgi nevis tas, ka mūsu sarunu biedram ir izcila, smalka identitāte, bet tas, ka tiek uztverta mūsu identitāte un uz to tiek atbilstoši reaģēts. Varbūt MI varētu labi reaģēt uz to, ka valsts iestādei raksta dažādi cilvēki. Vienam ir jurista izglītība, bet citam nav nekādas izglītības. Lai arī ierēdnim vajadzētu spēt izvērtēt šos dažādos gadījumus, nākt pretī, viņš ļoti bieži to nespēj. Ja MI būtu programmēts darīt tieši to un pielāgoties runātāju intelektam, zināšanām un reālajai vajadzībai – varbūt, ka tas varētu izdoties.

Iveta: Šobrīd ir diezgan daudz pētījumu par ārstiem – ka MI sniegtās rakstiskās atbildes cilvēki uztver kā empātiskākas nekā ārsta atbildes. Tam ir arī skaidrs iemesls – ārstam nav tik daudz laika skaisti un empātiski sarakstīt visus padomus savam pacientam, tāpēc es ne līdz galam piekrītu Mārim. Mans bēdīgais secinājums par mijiedarbību starp sabiedrību un valsts pārvaldi ir tāds, ka, jo lielāks ir noslēpumainības plīvurs par to, ko valsts pārvalde dara, jo vairāk tai uzticas. Neuzticēšanos rada traumatiska pieredze tieši šādos kontekstos – kad cilvēks ir gribējis saņemt palīdzību, bet viņam atbildēts ļoti nelaipni. Ja problēmas tiek risinātas, ir sajūta, ka pārvalde strādā labi. Tur var nebūt saistības ar objektīvo realitāti. Mēs kā cilvēki diemžēl esam gļukainas būtnes, kas maz iedziļinās realitātē un vairāk skatās uz to, kā mēs paši šajā realitātē jūtamies.

Protams, ir tevis pieminētie antropomorfizācijas riski. Kā mēs vispār attieksimies pret MI? Vai spēsim pateikt, ar ko mums ir darīšana – ar cilvēku vai MI? Pašlaik šī problēma nav sevišķi asa, jo visi populārākie MI modeļi ir ieprogrammēti visu laiku atgādināt, ka mums nav darīšana ar cilvēku, bet varu iedomāties arī tādus MI modeļus, kuriem nav šāda uzstādījuma un kas viegli var cilvēku apmānīt par savu identitāti. Balstoties uz savu pieredzi un zināšanām, neesmu droša, ka es varētu atšķirt cilvēku no MI apstākļos, kad pieejama tikai balss.

Šobrīd sāpīgos blakusefektus Eiropas Savienība mēģina risināt, uzliekot par pienākumu modeļu radītājiem iestrādāt paziņojumu, ka lietotājam ir darīšana MI modeli. Tomēr videospēļu jomā redzam situācijas, kad šāda uzstādījuma nav, jo tiek pieņemts: ja lietotājs ir pierakstījies videospēlē, viņš zina, ka viņam nav darīšana ar cilvēku, bet sevišķi jaunieši šos MI modeļus to sniegtās informācijas un sarunu stila dēļ uzskata ja ne par cilvēku, tad par kaut ko ļoti tam pielīdzināmu. Viņu pieķeršanās šiem modeļiem ir salīdzināma ar pieķeršanos cilvēkiem.

Aktuāla arī problēma, kāda būs latviešu valodā formulēto atbilžu kvalitāte. Joprojām var ļoti just atšķirību starp to, kā MI, pat jau pieminētais OpenAI modelis, atbild angļu valodā un kā – latviešu valodā. Latviešu valoda jau kļūst ļoti, ļoti laba, bet joprojām ir akcents, neveiklas teikumu konstrukcijas, tāpēc cilvēks Latvijā sapratīs, ka viņam ir darīšana ar MI modeli. Bet acīmredzot tuvā nākotnē tā vairs nebūs.

Anda: Vai ģeneratīvais MI nākotnē spēs atrisināt halucināciju problēmu? Šobrīd modeļiem raksturīga melošana.

Māris: Tā ir ļoti svarīga tēma, un es arī gribu to sasaistīt ar antropomorfizāciju. Varbūt vērts nedaudz iezīmēt kontekstu, un tad mēs arī varēsim saprast, kā atbildēt uz šo jautājumu.

Pirmkārt, ir šie vecā tipa, jautājumu–atbilžu sarunboti, kas nav ģeneratīvā MI iespējoti. Mēģinājums viņus parādīt kā personas ar tēlu un vārdu ir drīzāk kompensējošs mehānisms. Kāpēc? Jo tas, kas ienāk valsts pārvaldē, parasti ir jau iezīmēts un izpētīts biznesa kontekstā. Un tad mēs to pārņemam vai nu nekritiski, vai reflektīvi. Biznesa kontekstā atkal ir tas hrestomātiskais gadījums ar atbalsta centra darbinieku, kuram klients piezvana un raksturo problēmu. Ko viņš dara? Ver vaļā kaut kādu grāmatu vai datubāzi un mēģina piemeklēt pareizo atbildi. Cilvēks manuāli dara darbu, ko var automatizēt un šo cilvēku aizstāt ar MI. Lai nebūtu liela disonanse, mēs šim AI iedodam arī vārdu un tēlu. Pat vecā tipa sarunboti bieži vien ir tikpat labi kā darbinieki, kuriem nav citu iespēju, kā tikai pieturēties pie gatava scenārija.

Ir milzīgs skaits mārketinga psiholoģijas pētījumu, kas rāda, ka antropomorfizācija ir ļoti būtiska, ja runa ir par klienta lēmumu ietekmēšanu vai vēlamo rezultātu panākšanu. Pašlaik vairākās valsts iestādēs pieejami "Hugo" sarunboti, ar kuriem lietotājs var sarunāties un uzdot jautājumus. Tas, ko esmu ievērojis un ko esam arī pētījuši – iespējams, valsts pārvaldē sarunbotu antropomorfizācija nav tik būtiska. Mums nav svarīgi, cik ļoti avataram jāsmaida, lai tas izraisītu vislielāko ietekmi uz galalietotāju.

Ģeneratīvais MI parasti netiek antropomorfizēts, bet tas nenozīmē, ka mēs to nevaram antropomorfizēt. Dažādos mākoņpakalpojumos, kas piedāvā ģeneratīvā MI risinājumus, pieejamas veidnes, kā to antropomorfizēt, piešķirt personību, pat valodas stilu un runu. To visu varam izdarīt. Jautājums, kāpēc mēs to nedarām? Es domāju, ka mums nevajag šo kompensējošo mehānismu. Ģeneratīvā MI darbība jau ir tik pārliecinoša, ka mums nevajag mēģināt pārliecināt galalietotāju, ka bots ir labāks, nekā tas ir.

Vai ir risks? Vai tā ir problēma, ka sarunbots sarunas laikā pielāgojas savam sarunas partnerim? Tur arī mums jāliek kaut kādi rāmji. Ja es, teiksim, provokatīvi sākšu runāt kā rasists, vai es sagaidu, ka sarunbots pielāgosies manam runas tonim? Un, protams, ja mēs pieļaujam, ka tas pielāgosies, mēs paveram vairāk iespēju halucinācijām. Jo sarunboti, kas šobrīd ir valsts pārvaldes iestādēs, ir vienkārši katalogi, kas spēj atrast iepriekš definētu atbildi. Atbilde vienmēr būs tieši tāda, kāda tā ir. Varbūt atbilde būs nepilnīga vai ne par tēmu, bet mēs varam vienmēr būt droši, ka boti neatbildēs kaut ko tādu, ko mēs negribam, lai tie atbild.

Publiski pieejamajiem ģeneratīvā MI rīkiem apakšā ir atruna, ka bots var kļūdīties vai ka nevajag uztvert tā atbildes kā galējas. Pagaidām izskatās, ka mēs kopumā nevaram izvairīties no halucinācijām. Ir dažādas tehnikas, kas halucinācijas ir mazinājušas. Bet, no otras puses, ja palasām pētniecisko literatūru, ir vesela virkne ar pētījumiem, kas strādā pretējā virzienā. Proti, mēs visu laiku meklējam jaunus veidus, kā salauzt ģeneratīvā MI aizsardzības principus. Bīstamākā problēma ir tā, ka mēs joprojām varam algoritmiski un sistemātiski ģenerēt uzbrukumus MI un to nevar vienkārši atrisināt, pielabojot esošo risinājumu. Pašā arhitektūrā ir kas tāds, kas ļauj tajā ielauzties vai to salauzt.

Iveta: Man šķiet, ka līdzīgi ir ar pašbraucošajām mašīnām. Šobrīd ir diezgan daudz pierādījumu tam, ka pašbraucošā mašīna ir samērā drošs pārvietošanās veids, ja salīdzinām ar cilvēka vadītu auto. Bet sabiedrība daudz asāk reaģēs tad, ja avāriju būs izraisījusi pašbraucoša mašīna, pat ja tas notiks retāk. Jo mēs no cilvēka pieņemam kaut kādu risku, bet no robota ne.

Man šķiet, ka ļoti līdzīgi ir ar tiem sarunbotiem. Ja pieņemam, ka sarunbotu pamatā būs spēcīgi MI modeļi, es pieņemu, ka tie retāk sniegs nepareizas, nepiemērotas atbildes nekā tas vidējais cilvēks ar visām savām cilvēciskajām problēmām. Varbūt viņš ir aizdomājies, varbūt viņš nezina kaut ko un pats nesaprot, ka nezina. Varbūt viņš ir pašpārliecināts. Man šķiet, ka pašlaik, piemēram, tam pašam Chat GPT o1 reasoningmodelim tādu acīmredzamu halucināciju ir ļoti, ļoti maz.

Māris: Runājot par analoģiju ar pašbraucošajām automašīnām – man šķiet, ka tur jautājums ir pavisam vienkāršs: kurš būs atbildīgs par negadījumu, ko izraisīs automatizētā automašīnas vadīšanas sistēma? Vadītājs? Ražotājs?

Iveta: Iedomāsimies hipotētisku statistiku, ka pašbraucoša mašīna iekļūst avārijās 10 reizes retāk nekā cilvēks. Mums kā lēmumu pieņēmējiem, likumdevējiem ir jāsaprot, kam uzticēt tiesības piedalīties satiksmē jeb kas vispār drīkst būt pie stūres, ja dati liecina, ka cilvēks pie stūres ir drauds. Manuprāt, ja mums ir darīšana ar atbildīgu likumdevēju un viņš redz, ka šādā veidā iespējams desmit reizes samazināt nāvju skaitu, viņam būtu jālemj, ka pie stūres jāļauj būt tikai un vienīgi MI. Tas nekas, ka juridiskās konsekvences ir neskaidras, nāvju samazināšana ir svarīgāks mērķis.

Anda: Attiecībā uz ieguvumiem un riskiem, kas saistīti tieši ar valsts pārvaldi, es domāju par divām lietām. Tieši cilvēku nevajadzība ir tas, kas mani satrauc. Pirms kāda laika lasīju Daniela Saskinda grāmatu "Pasaule bez darba" [4]. Tur bija raksturoti dažādi lūzuma brīži tehnoloģiju vēsturē, pēc kuriem sabiedrības un ekonomikas ar laiku atkopās, cilvēki atrada sev jaunas darbavietas, bet tas nenotika paaudzē, kurā cilvēki zaudēja šīs darbavietas. Tikai nākamajām paaudzēm viss atkal bija labi, bija jaunas tehnoloģijas un jaunas darbavietas.

Māris: Man šķiet, ka mēs šobrīd esam unikālā situācijā. Situācijā, kas nebūs pastāvīga. Jā, mēs sakām, ka MI attīstās, drīz tas būs tikpat spējīgs kā mēs vai vēl spējīgāks, bet šobrīd varam runāt par paaudzi, kura vada mākslīgo intelektu. Nevis tāpēc, ka šis MI ir nespējīgāks, bet tāpēc, ka mums kā cilvēkiem pagaidām vēl ir kompetence. Tas minēts arī "Gartner" rakstā, kuru iepriekš pieminēju. Kad eksperti strādā ar MI zināšanām vai lieto MI produktivitātes paaugstināšanai, viņi ir kritiski pret šī MI atbildēm. Viņi veic verifikācijas un pārbaudes. Man šķiet, ka, MI attīstoties, ilgtermiņa problēma ir tā, ka mums pazudīs spējas, zināšanas. Ja mēs sāksim kļūt arvien atkarīgāki no MI, mūsu prasmes un spējas kritīsies, kas nozīmē, ka kritīsies arī mūsu iespēja reģistrēt šīs ļoti retās halucinācijas, kuras būs arvien tehniskākas un arvien detalizētākas un kuru pamanīšana prasīs arvien lielāku ekspertīzi.

Iveta: Es par to neesmu tik pesimistiska. Šogad oktobrī, stājoties doktorantūrā, biju pilnīgi pārliecināta, ka pēc trim gadiem, kad es varētu tikt pie disertācijas, MI to uzrakstīs labāk, nekā es jebkad spētu. Šogad vēl tas nav iespējams, bet pēc trim gadiem tā vienkārši būs. Vai tas mani satrauc? Mani satrauc divas lietas: lai cilvēks ar MI palīdzību tīšām muļķības vai ļaunprātības dēļ neiznīcina pasauli un lai MI kādas kļūdas dēļ pats netīšām neiznīcina pasauli. Bet par norisēm sabiedrībām – tur pamatā redzu milzīgas iespējas. Strādājot kopā ar MI, es paplašinu savas spēju robežas.

Mani nesatrauc arī tas, ja cilvēcei nebūs mūsdienām raksturīgo profesiju, jo atcerēsimies, ka arī iepriekšējos gadsimtos atsevišķiem sabiedrības slāņiem nevajadzēja darbu. Viņi bija labi nodrošināti arī tāpat. Esmu diezgan droša, ka šāda veida pasaules modeli, tai skaitā ar MI piedāvātajām idejām, būtu iespējams diezgan ātri izveidot, ja tiešām rastos šāda nepieciešamība. Jo šī nepieciešamība, visticamāk, pirmā iestātos Amerikā un citās attīstītajās valstīs, kur uzņēmumi un valsts pārvalde šīs efektivizācijas iespējas izmantotu pirmie. Es esmu pilnīgi droša, ka cilvēks ir gana radoša būtne, lai atrastu sev nodarbošanos un jēgu arī apstākļos, kad viņš nav pati gudrākā būtne uz planētas. Ļoti nepieciešams izveidot tādas sociālās sistēmas, lai tad visiem cilvēkiem būtu iespējas dzīvot cilvēka cienīgu dzīvi šādos apstākļos.

Māris: No kurienes šis optimisms par trim vai pieciem gadiem? Ir pietiekami daudz datu, kas rāda, ka attīstība nenotiek lineāri, kā tika prognozēts. Pieņemot, ka attīstība būtu lineāra – lai radītu ģeneratīvo MI, kurš spētu rakstīt zinātniskus rakstus tādā līmenī, lai pats varētu turpināt attīstīt zinātni, būtu vajadzīgs apmēram 100 000 reižu vairāk kvalitatīvu datu, nekā mums vispār ir. Kas, protams, ir nereālistiska situācija. Jūs droši vien esat pētījušas, kāds ir efekts tam, ja MI trenēšanai lieto tā saucamos sintētiskos datus, kas nav īsti dati, bet ir paša MI ģenerēti. Daudzos gadījumos šie modeļi sāk sabrukt, sāk strādāt sliktāk, nevis labāk, lai arī datu daudzums ir lielāks.

Pēdējie modeļi – reasoning modeļi, kam pieder gan Chat GPT, DeepSeek, – jau ir atzari, ar kuriem mēs pakāpeniski ejam prom no sākotnējā uzstādījuma, ko Sems Altmans izteica 2023. gadā vai 2024. gada sākumā, paziņojot, ka ir pilnīgi skaidrs, kā virzīties tālāk – mums vienkārši vajag vairāk enerģijas un vairāk datu. Šobrīd tam ir zināmi šķēršļi. Mēs varam ekstrapolēt un teikt, ka, salīdzinot situāciju pirms pieciem gadiem un tagad, varam secināt, ka vēl pēc trim gadiem situācija atbildīs jūsu prognozēm. Bet man šķiet, ka MI industrija un pētniecība kopumā visu laiku atduras pret kaut kādiem šķēršļiem un sākotnējie uzstādījumi izrādās neattaisnoti vai pārāk optimistiski. Mēs nevaram bezgalīgi palielināt treniņu datu apjomu un elektroenerģijas patēriņa apjomu.

Atcerēsimies, ka tam MI, ko iztēlojās 1950. gados, pamatā bija pavisam cita ideja – mēģināt reproducēt mūsu pašu izpratni par cilvēka apziņu un prātu. Un ideja, ka mēs varētu radīt kaut ko līdzīgu Chat GPT, balstoties statistiskas analīzes metodēs, bija vienkārši izsmejama.

Nākamais solis varētu būt iet nedaudz atpakaļ uz sākotnējo ideju, ka mēs MI apmācām caur nosacītiem maņu orgāniem – audiovizuāliem sensoriem. Ka MI mācās, ejot un pieredzot pasauli, nevis abstraktas datu kopas, no kurām tas mēģina atvedināt kaut kādas sakarības. Es negribētu teikt, ka MI nesasniegs to līmeni, bet no jums un arī daudziem citiem dzirdu nepamatotu optimismu, kas lielā mērā arī uzliek slogu par to, ka MI ir neizbēgams un ka mums pa galvu, pa kaklu ir jāmēģina atrast iespējas, kā to sākt lietot vai attīstīt, ja negribam atpalikt. Man šķiet, ka mums tomēr ir jāpieiet pārdomātāk, apzinātāk un kritiskāk.

Iveta: Kāpēc man šķiet, ka tas ir neizbēgami… Kad MI modelis ir atjaunots vai publicēts jauns modelis, es pārbaudu tā jaudu ar trim standarta jautājumiem par manis rakstītiem tekstiem vai iedodu tam kādu citu uzdevumu, lai saprastu, kāda ir tā analīzes jauda un kvalitāte jomās, kurās labi orientējos. Viens no uzdevumiem vienmēr saistīts ar manis rakstītu tekstu – "Iedod man sarakstu ar lietām, ko es tajā neesmu ņēmusi vērā!" Kad es ieraudzīju atjauninātā GPT-4o atbildi, sapratu, ka atšķirība starp mani, kas attiecīgajā tēmā ir ieguldījusi ļoti daudz savas dzīves laika un analītiskās kapacitātes, un MI modeli, kas pie šī uzdevuma pavadīja dažas sekundes, nu jau ir neliela. Tā vēl nebija pirms diviem gadiem, kad sapratu, ka saviem studentiem nedrīkstu vairs dot rakstiski formulētus uzdevumus. Tas tā nebija arī pirms gada, kad tika publicēta 4o pirmā versija. Un es neredzu nevienu principiālu iemeslu, kāpēc lai mākslīgā intelekta modeļi visdažādākajās analītiskajās jomās nepārspētu jebkuru cilvēku. 

Māris: Īsā atbilde – mūsu metodoloģija un testēšana vērsta uz to, ka mēs skatāmies, kā modelim iet. Vai tam iet labāk attiecībā pret kaut kādiem standartiem. Manuprāt, daudz interesantāk ir skatīties, kur tam neiet un vai vēl joprojām neiet tur, kur iepriekš.

Nesen uzdevu Chat GPT-4o izskaitīt, cik vārdā "strinkšķināmais" ir "n" burtu, un tas, protams, neskaita pareizi. Šie kontrargumenti ir piemēri, kas norāda uz fundamentāliem arhitektūras ierobežojumiem, ko nevaram apiet sistemātiski, vienkārši turpinot trenēt un uzlabot modeli. Tie izriet no pašas arhitektūras.

Tur ir kaut kāda disonanse, vismaz pirmajā tuvinājumā. Man šķiet ļoti dīvaini, ka MI spēj ģenerēt juridisku dokumentu labāk par vidējo juristu vai izskaidrot ļoti sarežģītas matemātiskas formulas, bet nespēj saskaitīt "n" burtus vārdā "strinkšķināmais". Un man šī disonanse ir ļoti būtiska, jo mēs esam pieraduši domāt par cilvēkiem tādā nozīmē, ka, ja mēs spējam izdarīt kaut ko ļoti sarežģītu, tad tas balstās vienkāršākās, fundamentālās spējās. Un mēs kļūstam arvien gudrāki, kad spējam šīs spējas integrēt. Bet izskatās, ka MI tā nestrādā. Mēs visu laiku varam to piedzīt, lai tas atbilstu testiem, piemēram, matemātikas, juridiskās fakultātes gala eksāmena atbildēm, bet tajā pašā joprojām novērojam šos feilus. Tas man liek šaubīties par to, ka situācija ir tik optimistiska, kā mums gribētos domāt.

Manuprāt, vajadzētu koncentrēties uz šādām problēmām, nevis uz to, ka atkal tiek sasniegti jauni rādītāji standartizētos testos, kuri rāda, ka čatbots jau ir labāks par top divdesmit cilvēkiem šajā jomā. Jo vairāk uz to koncentrēsimies, jo vairāk jautājumu mums radīsies un piesardzīgāki mēs būsim.



 

[1] 2025. gada 20. martā stājās spēkā Mākslīgā intelekta centra likums. Saruna par mākslīgo intelektu valsts pārvaldē norisinājās februāra beigās.

[2] Skat. arī "Satori" publicēto sarunu par latviešu valodu mākslīgā intelekta laikmetā.

[3] FOMO (no angļu val.) – fear of missing out jeb bailes kaut ko palaist garām.

[4] Saskinds, Daniels (2021). Pasaule bez darba: tehnoloģijas, automatizācija un kā mums uz tām reaģēt.


Saruna tapusi Latvijas Zinātnes padomes fundamentālo un lietišķo pētījumu projektā “Cilvēciskāki čatboti: komunikācijā balstīti risinājumi lietotāju pieredzes uzlabošanai” (Nr. lzp-2021/1-0151). 

Tēmas
 

Patika šī publikācija? Atbalsti interneta žurnālu “Satori” un ziedo tā darbībai!

SAISTĪTI RAKSTI

Satori

PIESAKIES SATORI JAUNUMIEM!



Satori

Pievienojies Satori - interesantākajam interneta žurnālam pasaulē.

Satori
Satori
Ielogojies
Komentē
0

Sveiks, Satori lasītāj!

Neuzbāzīgu reklāmu izvietošana palīdz Satori iegūt papildu līdzekļus satura radīšanai un dažādo mūsu finanšu avotus, sniedzot lielāku neatkarību, tādēļ priecāsimies, ja šeit atspējosi savu reklāmas bloķēšanas programmu.

Paldies!

Ziedo "Satori" darbībai!