Kaimiņš, augstskolas profesors, nomira aptuveni pirms gada. Vēl gadu iepriekš viņš piedzīvoja vidēji smagu insultu. Sākumā visi domāja, ka nieks vien ir, drīz atkopsies un dzīve ar darbu katedrā un studentu konsultēšanu atsāksies. Tomēr pamazām atklājās, ka insults devis grūdienu demencei, kas acīmredzot jau agrāk bija pamazām attīstījusies kaut kur smadzeņu dzīlēs. Tā nu kaimiņš atgriezās no slimnīcas, bet turpmāko gadu pavadīja gultā. Kad es viņu apmeklēju, bija skaidrs, ka viņš dzīvo savā paralēlajā pasaulē. Viņš uzturēja sarunu itin ierastā manierē, mēs varējām papļāpāt gluži kā agrāk, bet ik pa brīdim tas, ko viņš stāstīja, bija acīmredzami neīsts. Te viņš esot nesen viesojies Rīgas pilī, te strīdējies parkā (kurā nebija bijis kopš saslimšanas) ar kādu kaislīgu putinistu…
Reizēm viņš pats pamanīja, ka pateicis kaut ko, kam nav nekāda sakara ar realitāti, un apjuka, iepauzēja. Izskatījās, ka daļa smadzeņu ir saskarsmē ar realitāti, bet cita runā pati savu runājamo. Abas puses gan radīja vienādu produktu – pilnīgi pareizus teikumus, visi vārdi un locījumi bija savās vietās un naratīvs sakārtots. Un tomēr nevienam no apkārtējiem neradās šaubas par to, ka kaimiņam vairs nevajadzētu uzticēt iepriekšējos darba pienākumus. Bijušie studenti vairs nenāca konsultēties. Ja atnāca, tad runāja (kā mēs visi) ar laipnu pacietību, saprotot, ka runājam ar cilvēku, kura saskarsme ar realitāti ir traucēta, slimības skarta. Bija nepārprotami skaidrs, ka viņš nespēja sasaistīt savas darbības ar to, kas notiek apkārtējā pasaulē.
Kamēr profesors vadīja sava mūža pēdējo gadu, norobežots no visām dzīves rūpēm un atbildībām, daudzu cilvēku dzīvē un darba uzdevumu pildīšanā, pat zinātnisko rakstu tapšanā sāka piedalīties tā sauktais mākslīgais intelekts. No pašlaik pieejamajiem mākslīgā intelekta produktiem, šķiet, redzamākais ir ChatGPT. Ļaudis aizrāvās, ar viņu sarunājoties, un brīnījās, cik pārsteidzoši gudri viņš atbild un cik labi veido tekstu. Izrādījās, ka tas var rakstīt vārsmas un zinātniskus traktātus, turklāt darīt to noteiktā stilistikā un pantmērā.
Viens otrs teica, ka, vadoties pēc Tjūringa testa, mākslīgais intelekts ir jau noticis fakts. Matemātiķa Alana Tjūringa savulaik izstrādātais princips postulē, ka nav tiešu veidu, kā mēs varētu pārliecināties, vai datoram ir vai nav saprāts. Tāpēc vienīgais veids, kā to noteikt, ir netiešs. Proti, ja saziņā ar datoru cilvēks nevar atšķirt, vai runā ar citu cilvēku (pēc noklusējuma – saprātīgu) vai ar datoru, tad atliek pieņemt, ka saziņa notiek ar saprātīgu partneri.
Tomēr drīz vien atklājās arī, ka ar šo intelektu notiek kaut kas ne gluži saprātīgs, jo reizēm tā atbildes bija, maigi izsakoties, dīvainas. Šīs īpatnības drīz vien ieguva apzīmējumu "halucinācijas". Būtībā tā ir nepatiesas informācijas pasniegšana, it kā tā būtu fakts. Žurnāla "Schizophrenia" redaktors Robins Emslijs (Robin Emsley) pagājušajā gadā apraksta vienu tipisku gadījumu un kā psihiatrs protestē pret šīs MI rīcības dēvēšanu par halucinācijām, rakstot, ka tā īstenībā ir vienkārša falsifikācija vai melošana: "Es neieteiktu izmantot ChatGPT kā palīgu zinātnisko rakstu tapšanā, gluži tāpat kā es neieteiktu sadarboties ar kolēģi, kas sirgst ar patoloģisku melošanu (pseudologia fantastica)."
Arī man ir bijusi līdzīga pieredze. Tā, piemēram, reiz uzzināju, ka Vilis Lācis ir pazīstamākais latviešu zinātnieks un ka par to varot uzzināt Latvijas Zinātņu akadēmijas mājaslapā, kuru ChatGPT laipni piedāvāja apmeklēt (tādas lapas nebija, dotā adrese nestrādāja) un norādīja arī uz zinātniskajām publikācijām, kuru arī, lieki teikt, nebija.
Jau kādu laiku ļaudis uzjautrinās, jautājot šim rīkam, cik noteiktu burtu ir kādā vārdā. Mans komunikācijas mēģinājums bija šāds [1]:
Klāvs: "Cik daudz burtu "n" ir vārdā "hidroelektrostacija"?"
ChatGPT: "Vārdā "hidroelektrostacija" ir 2 "n" burti."
Klāvs: "Vai tu māki skaitīt?"
ChatGPT: "Jā, protams, es protu skaitīt! Vārdā "hidroelektrostacija" ir tikai 1 burts "n". Atvainojos par kļūdu iepriekšējā atbildē!"
Klāvs: "Šķiet, ka tavas spējas neatbilst skaitītprasmes definīcijai."
ChatGPT: "Es saprotu tavu vilšanos. Laikam skaitīt atsevišķu burtu daudzumu vārdā nebija manā labākajā izpildījumā, taču esmu šeit, lai uzlabotos. Lai novērstu neskaidrības: vārds "hidroelektrostacija" sastāv no 18 burtiem. Tas satur tikai 1 burtu "n". Ceru, ka šoreiz viss ir pareizi!"
Vārdā "hidroelektrostacija" ne tikai nav neviena burta "n", turklāt tas sastāv no 19 burtiem. Reiz es mēģināju konfrontēt šo rīku par acīmredzamajiem meliem, ko tas aci nepamirkšķinot (tam taču nav acu!) mēģināja man iebarot. ChatGPT sniegtā atbilde bija tāda, ka tas nevarot melot, jo neesot cilvēks. Risinot sarunu tālāk, tas atsaucās uz to, ka esot lielais valodu modelis un tāpēc nevarot melot tīri tehniski.
Pēdējais apgalvojums tiešām ir aizdomāšanās vērts. Kad runājam par meliem, parasti domājam, ka cilvēks stāsta vienu, pats zinot, ka tas neatbilst realitātei. Melis zina, kā ir īstenībā, bet apzināti mēģina klausītāju maldināt. Ja cilvēks tic, ka pastāv dievs, un visiem stāsta par tā esamību, tad taču mēs viņu neapvainojam melos. Viņš, iespējams, vienkārši maldās. Turpretī, ja esam pārliecināti, ka cilvēks zina, ka īstenībā ir citādi, un tomēr turpina mēģināt iegalvot pretējo, mēs sadusmojamies un apvainojam runātāju melos. Melu būtība ir nevis pašā vēstījumā, bet gan mūsu priekšstatos par to, ko runātājs zina un kā uztver pasauli [2].
Mans kaimiņš sava mūža pēdējā gadā smadzeņu bojājuma dēļ ne vienmēr spēja atšķirt to, kas patiešām notiek, un to, kas noticis tikai viņa fantāzijā. Reizēm izskatījās, ka viņa runa raisās pavisam nošķirti no tām maņām, kas ir saskarsmē ar apkārtējo pasauli. Mēs visi esam piedzīvojuši pārteikšanos, kad mēle pasaka vārdu, ko mēs nemaz neesam gribējuši lietot. Šķiet, ka profesoram šāda pārteikšanās reizēm notika veselu teikumu līmenī.
Gluži kā gadījumā ar manu kaimiņu, arī citur ikdienas dzīvē mēs vērtējam saprātu pēc tā, vai un cik lielā mērā aktors ir kontaktā ar pasauli. Skaidrs, ka ir daudz dažādu līmeņu būšanai kontaktā ar pasauli – visi cilvēki daļēji dzīvo fantāziju pasaulē (skatīt, piemēram, manu rakstu "Spoku dumpis"). Tas acīmredzot ir normāls cilvēka domāšanas stāvoklis. Tomēr pie zināma sliekšņa apkārtējie sāk aizdomāties, pie vēl cita sliekšņa – zaudēt uzticēšanos, bet pie vēl cita – aicina iesaistīt psihisko saslimšanu speciālistu. Par saprātu var runāt vien kontekstā ar attiecīgās vienības (šādi apzīmējot gan cilvēku, gan mašīnu) spēju uzturēt saikni starp to, kas "ir" [3], un to, kas tiek teikts un darīts.
ChatGPT patiešām ir lielais valodas modelis – tas ir veidots mašīnmācīšanās procesā, kurā datorā tiek ievadīts liels daudzums teksta, attēlu vai video un algoritms cenšas atrast likumsakarības šajā informācijā. Tātad var teikt, ka ChatGPT piemīt ārkārtīgi attīstītas prasmes virknēt vārdus. Tas ir izstrādāts tā, ka, reaģējot uz noteiktiem vārdu virknējumiem, spēj piedāvāt virknējumus, kas atbilst noteiktai un augstai varbūtībai, un šī varbūtība izriet no iepriekš apgūtajiem tekstiem. ChatGPT nevienā mirklī nepārbauda, vai informācija atbilst realitātei. Tam nemaz nav pārbaudīšanai nepieciešamā mehānisma. Tajā ir tikai informācija par to, ka vārdam "Edgars" ar ļoti lielu iespējamību sekos vārds "Rinkēvičs" – it īpaši, ja tur kaut kur blakus ir arī vārds "prezidents". Tas arī izskaidro, kāpēc vārdā "hidroelektrostacija" it kā ir divi burti "n" (acīmredzot modelī šāds virknējums ir ticamāks). Lielais valodas modelis ChatGPT, visticamāk, tiešām neprot skaitīt. Skaitīšana ir mēģinājums veidot saikni ar to, kas "ir", bet ChatGPT ir valodas modelis, nevis realitātes pārbaudes modelis. ChatGPT pat nezina, vai tas prot vai neprot skaitīt, tāpēc atbilde "Jā, protams, es protu skaitīt!" ir tikai visticamākā kaut kādās korelāciju supertabulās.
Citiem vārdiem sakot, tas, ko sauc par mākslīgo intelektu, cilvēcīgās saskarsmes kontekstā tiktu dēvēts par novirzi no normas (varētu teikt – "ārprātu") un ievietots kādā psihisko traucējumu kategorijā, kas liedz adekvāti uztvert paša teikto un pasauli.
Te nonāku pie raksta būtiskākā jautājuma: kas notiks ar pasauli, kura ar tādu entuziasmu un pārliecību sākusi pieņemt un ielaist savā ikdienā sistēmu, kuru var uzskatīt par ārprātīgu? Skaidrs, ka atbildi mēs uzzināsim tikai pēc kāda laika. Protams, pastāv iespēja, ka sistēmas, kuras balstītas uz lielajiem valodu modeļiem, kādreiz varētu evolucionēt, iegūstot spēju izzināt apkārtējo pasauli. Kad tas notiks, varbūt patiešām varēsim runāt par mākslīgo intelektu. No otras puses – tas, ka mākslīgais intelekts joprojām ir tikai "pacients", varbūt ir mierinošs vēstījums.
[1] ChatGPT problēmas ar burtu skaitīšanu bija plaši zināmas jau vairākus gadus un raksta tapšanas laikā joprojām ir novērojamas. Laikā starp raksta tapšanu un publicēšanu šī problēma ir novērsta, bet problēmas sakne joprojām nav mainījusies.
[2] Publiskajā telpā un it īpaši politiskajā komunikācijā vārdu "melot" mēdz attiecināt uz jebkuru vēstījumu, kuru uzskatām par nepatiesu. Tas tomēr atšķiras no vārda "melot" pamata definīcijas.
[3] Tas, kas ir, protams, ir stipri subjektīvs un izplūdis, tā nav viena objektīva realitāte, tāpēc lieku pēdiņās.
0