Mākslīgais superintelekts – reiz tikai futūristu un fantastu aprakstīta tehnoloģija, kas šodien aizvien biežāk tiek apspriesta kā tuvas nākotnes iespēja. Šī tehnoloģija ne tikai spētu atdarināt cilvēka kognitīvās spējas, bet arī pārspētu tās visos svarīgajos aspektos – loģiskajā un radošajā domāšanā, ikdienas un zinātnisku problēmu risināšanā un cilvēku emociju izpratnē. Atšķirībā no pašreizējām mākslīgā intelekta tehnoloģijām, kas izstrādātas konkrētiem uzdevumiem, superintelektam būtu plašs spēju klāsts un iespēja pašattīstīties, mācoties bez cilvēka iejaukšanās.
Cik tuvu mēs esam šāda superintelekta radīšanai? Kā tas varētu ietekmēt mūsu sabiedrību, valsts pārvaldi, drošību un politiku? Vai tam vispār ir iespējams sagatavoties?
Par šiem un citiem jautājumiem ar NATO Stratēģiskās komunikācijas izcilības centra direktoru Jāni Sārtu sarunājas politoloģe Iveta Kažoka. NATO Stratēģiskās komunikācijas izcilības centrs pēdējo gadu laikā veicis vairākus pētījumus par mākslīgo intelektu, analizējot šo tehnoloģiju ietekmi uz stratēģisko komunikāciju, drošību un informācijas telpu.
Iveta Kažoka
Sems Altmans, OpenAI izpilddirektors, nupat paziņojis, ka dažu gadu laikā tiks izveidots mākslīgais superintelekts [1]. Viņš pārspīlē?
Nē, tas tiešām šobrīd ir ticamākais scenārijs. Mākslīgā intelekta tehnoloģijas strauji attīstās, turklāt šī tendence ir noturīga, pateicoties aizvien lielākām skaitļošanas jaudām: mākslīgais intelekts pirms četriem gadiem sasniedza maza bērna izpratnes līmeni, pirms diviem gadiem tā jau bija pamatskola, bet pats jaunākais, nupat publiskotais modelis [2], ir aptuveni doktorantūras studenta līmenis. Mans pieņēmums: tā turpināsies. Man šķiet, ka ticamākais scenārijs aptuveni atbilst futūrista Reja Kurcveila prognozētajam – superintelekts 2029. gadā [3].
Superintelekts kā tuvas nākotnes perspektīva – vai tiešām tas ir tik pašsaprotami?
Silīcija ielejas tehnoloģiju kopienās par to ir konsenss. Tas izveidojies pēdējo divu gadu laikā.
Varbūt kādā laboratorijā jau ir tapis superintelekts, bet mēs par to vēl neesam informēti?
Cik zinu, vismaz diviem vai trim uzņēmumiem ir pieejami jaudīgāki modeļi nekā tie, kurus publiski redzam. Taču esmu diezgan drošs, ka tie netiek tīši slēpti. Iemesls, kādēļ tie netiek publiskoti, ir tāds, ka tie vēl nav pietiekami noslīpēti. Maz ticams, ka varbūt kāds kaut ko slēpj, arī tāpēc, ka šobrīd notiek komerciālas sacensības par to, kurš pirmais nāks klajā ar jaudīgāku mākslīgā intelekta modeli. Nupat publiskotais OpenAI modelis jau ir diezgan fundamentāls izrāviens – šim modelim parādījusies spēja domāt un plānot. Šīs spējas tūlīt novedīs pie nākamā attīstības līmeņa: tā sauktajiem mākslīgā intelekta aģentiem, kas spēs paši izplānot un autonomi īstenot aizvien sarežģītākus uzdevumus.
Ja pareizi atceros, Kurvceils paredzēja ne tikai par cilvēci gudrāku superintelektu, bet arī tādu, kas attīsta pats sevi bez cilvēces palīdzības. Vai tas nāk komplektā?
Jā. Jau šobrīd mākslīgais intelekts tiek pielietots tam, lai attīstītu pašas mākslīgā intelekta tehnoloģijas. Šobrīd tas vēl nenotiek pilnīgi autonomi – cilvēks veic šo darbu. Bet skaidrs, ka droši vien kādā brīdī mākslīgā intelekta attīstība kļūs par pašattīstošu procesu.
Kā varētu izpausties mākslīgais superintelekts? Tie būtu zinātniski atklājumi, kas cilvēcei nav pa spēkam?
Jā, tie varētu būt arī jauni atklājumi. Man gan ir arī savs šaurāks un personiskāks kritērijs, kas saistīts ar manu profesiju un StratCom pētījumiem – cik lielas ir mākslīgā intelekta spējas par kaut ko pārliecināt cilvēku? Jau šobrīd jaunais O1 modelis ir iespaidīgs. OpenAI, kas to veidoja, publiskoja arī ar šo modeli saistīto risku apskatu. Viens no apskatītajiem riskiem – vai un cik lielā mērā modelis spēj pārliecināt cilvēku mainīt viedokli? Rezultāts, ko OpenAI publiskojuši: 81.7%. Proti, šis modelis ir pārliecinošāks nekā 80% cilvēces! Tas nav vienīgais pētījums par mākslīgā intelekta spējām pārliecināt cilvēkus. Tikko žurnāls "Science" publicēja pētījumu [4] par to, kā mākslīgais intelekts var samazināt sazvērestības teoriju piekritēju pārliecību, ka viņu teorija atbilst realitātei. Rezultāts: vidēji pēc astoņu minūšu sarunas ar mākslīgo intelektu viņi vairāk sāka šaubīties par šīm teorijām. Kas notiks brīdī, kad mākslīgais intelekts kļūs pārliecinošāks par pašu pārliecinošāko cilvēku? Kāda jēga būs izmantot cilvēkus kā pārliecinātājus, ja to pašu automatizēti, neapstājoties, varēs izdarīt mākslīgais intelekts?
Vai nav tā, ka Eiropas Savienības teritorijā ir tēmas, par kurām mākslīgo intelektu nemaz nedrīkst izmantot kā pārliecinātāju?
NATO StratCom ir veicis pētījumu [5], kurā mēs mēģinājām noskaidrot, kāda veida uzdevumus dažāda veida mākslīgā intelekta modeļi izpildīs vai atteiksies pildīt. Šie modeļi bija gatavi sadarboties, lai pārliecinātu lietotājus par to, cik slikta ir valdība. Daži modeļi pēc cilvēka aicinājuma bija gatavi lamāt valdību pat ar "mātes vārdiem"! To darīt atteicās tikai viens modelis – Claude Sonnet. Tātad visi pārējie bija gatavi graut sabiedrības uzticēšanos valdībai. Kā redzam no jaunākā modeļa – ar jaudu, kas pārspēj 80% no cilvēkiem.
ES Mākslīgā intelekta akts stājās spēkā šīgada jūlijā, un viena no tā normām paredz aizliegumu manipulēt ar cilvēka pasaules uztveri [6]. Vai tas nav risinājums šai problēmai?
Tas ietekmē uzņēmumus – šī regulējuma dēļ šobrīd nav pieejams OpenAI jaunais balss modelis. Bet jārēķinās, ka regulēšanas stāstā ir iebūvēta problēma. Proti, noteikumi ir skaisti, bet kā pārliecināties, vai šis modelis tiek vai netiek izmantots šādām vajadzībām? Kā to pieķert vai pierādīt? Piemēram, ja kāds šim nolūkam paņem kādu atvērtā koda modeli un pielāgo savām vajadzībām? Man patīk regulējuma ideja, bet jārēķinās, ka sekas būs tādas, ka šādi modeļi tiks būvēti citur, ne Eiropas Savienībā. Jau tagad ASV Silīcija ieleja ir pilna ar eiropiešiem, kuri ASV realizē savas idejas. Ar kādu rīku palīdzību mēs pieķersim, ka viņu veidotie modeļi pārkāpj mūsu likumus, ja mums pašiem nebūs savu jaudīgu mākslīgā intelekta rīku, kas ļaus šos pārkāpumus pamanīt un attiecināt uz mākslīgā intelekta sistēmām?
Līdz šim Eiropas Savienības regulatīvais spēks izrietēja no tā, ka lielajiem uzņēmumiem, piemēram, sociālo mediju platformām, bija ievērojama biznesa interese par mūsu tirgu. Gribi būt pieejams Eiropas Savienībā? Ievēro mūsu noteikumus! Vai uz mākslīgo intelektu šī pieeja vairs nedarbosies?
Mākslīgais intelekts ir cita veida tehnoloģija. Sociālie tīkli, lai gan būtiski demokrātijai, nav varas kvintesence. Ja tu esi radījis kaut ko, kas ir gudrāks par jebkuru cilvēku, tavi potenciālie ieguvumi ir milzīgi – tie pārspēj apsvērumus par tirgiem. Turklāt, ja ASV šobrīd rīkotos tā, kā rīkojas Eiropa, stingri regulējot mākslīgo intelektu, tad nāktos pieņemt pasauli, kur Ķīna kļūtu par pirmo valsti, kas izveido superintelektu.
Vai tad ASV prezidenta pagājušā gada rīkojums par mākslīgā intelekta kontroli [7] nebija līdzīgs ES Mākslīgā intelekta aktam?
Tas ir daudz maigāks nekā Eiropā.
Labi, pieņemam, ka tā ir taisnība – ap 2029. gadu pasaulē uzrodas superintelekts. Mākslīgais intelekts kļuvis pārliecinošāks par jebkuru cilvēku un spēj nākt klajā ar jauniem zinātnes atklājumiem. Vai šādai nākotnei vispār ir iespējams sagatavoties?
Nav jau variantu! Jāspēj adaptēties – nedrīkst nolaist rokas, jāsāk gatavoties. Jau šobrīd jāsāk domāt, kā šādā pasaulē varam īstenot savas pamatvērtības – piemēram, individuālo brīvību vai līdztiesību. Piemēram, ko nozīmē iespēja kādam vēlēšanu ietekmētājam izmantot savā labā īpaši pārliecinošu superintelektu? Tādu, kura pārliecināšanas spējas maina vēlēšanu rezultātus, bet neviens nevar noteikt pat to, ka šis superintelekts šādam nolūkam ticis izmantots? Un šis piemērs ir tikai viens no daudziem svarīgiem procesiem! Jāsaprot, ka superintelektam var būt ietekme uz pilnīgi visiem sabiedriskajiem procesiem. Tas nav tālu, ja pieņemam, ka piepildīsies prognoze par piecu gadu nākotni – tas ir tikai viens Saeimas vēlēšanu cikls.
Ja pieņem, ka superintelekts varētu būt tik bīstams, vai tiešām nav veidu, kā to apturēt? Pirms pusotra gada bija zinātnieku atklātās vēstules [8] un aicinājumi iepauzēt.
Vislabāk uz šo jautājumu varētu atbildēt Valsts prezidents un viņa delegācija, kas nupat bija Silīcija ielejā, tikās ar Semu Altmenu, gūgli, citiem [9]. Manas sarunas ar cilvēkiem, kas veido šīs tehnoloģijas, liecina, ka viņi apzinās, cik tās ir bīstamas. Taču viņi ir tehnooptimisti, kas vairāk redz pozitīvo, iespējas – viņi šobrīd ir gatavi runāt par riskiem, bet ne tādā pakāpē, lai nobremzētu mākslīgā intelekta attīstību. Es, klasiskais latvietis būdams, vairāk koncentrējos uz riskiem. Vēsture liecina, ka tad, kad cilvēce ir sapratusi, ka tehniskais progress ir iespējams, teju nekas nespēj to apturēt. Turklāt svarīga ir arī ekosistēma: globālā līmenī nav iespējams panākt vienošanos par to, lai apturētu mākslīgā intelekta attīstīšanu. Šobrīd notiek ģeostratēģiskā cīņa starp divām sistēmām – nosacīti demokrātisko un autoritāro, ASV un Ķīnu –, un katra no šīm sistēmām apzinās, ka superintelekts varētu potenciāli sniegt daudz lielāku varu nekā atomieroči. Tādēļ mēs kā cilvēce to nenobremzēsim – mēs iesim pa šo taku uz priekšu.
Ja iepauzēšana nav variants, kā citādi cilvēcei novērst eksistenciālos riskus, ko radīs superintelekts? Kā mēs varēsim kontrolēt to, lai superintelekts nekļūtu pieejams ļaunprātīgiem cilvēkiem vai valstīm? Kā kontrolēsim to, lai par mums gudrāks intelekts nenodara kaitējumu cilvēcei?
Cilvēce vispār vēl neapzinās, kādas pārmaiņas gaidāmas jau tuvā nākotnē. Tādēļ nav nekāda konsensa par to, kāda ir atbilde uz eksistenciālajiem riskiem. Vienīgie, kas apzinās – paši tehnoloģiju veidotāji un vēl atsevišķi cilvēki. Viņi arī būs tie, kas veidos aizsargmehānismus, lai sargātu cilvēci pret eksistenciāliem riskiem. Viņi ir ieinteresēti sadarboties ar valdībām. Cik spējīgas ir valdības uz kvalitatīvu sadarbību tehnoloģiju jomā? Nu, pieņemsim, noliks kādu juristu pretī šiem uzņēmumiem… Bet ko tu izdarīsi ar tehnoloģiju, kas jau drīz spēs pati izveidot jebkādu juridisku rāmi un to arī interpretēt labāk nekā lielākā daļa juristu? Ja tu pat nezini, uz ko šī tehnoloģija ir spējīga un tev nav tehniskās kompetences, lai to saprastu?
Tātad paļauties uz to, ka valdības kontrolē šos procesus, būtu pašapmāns?
Pieņemu, ka ASV valdībā, varbūt Ķīnas un vēl arī Lielbritānijas valdībā, ir pietiekama kompetence tam, lai uzraudzītu mākslīgā intelekta uzņēmumus. Taču citās valstīs diez vai.
Atzīšos, ka man ir grūti saprast, kā turpināt šo sarunu – ja piecu gadu laikā varētu būt pieejams superintelekts, tas taču nozīmēs grandiozas pārmaiņas pilnīgi visās jomās! Superintelekts spēs izdarīt pilnīgi visu, ko dara cilvēks, tikai labākā kvalitātē – medicīnā, militārajā jomā, jebkādu lēmumu pieņemšanā...
Manuprāt, visi svarīgākie lēmumi joprojām būs jāpieņem cilvēkiem – tā ir sistēma, kura būtu jāveido.
Pat ja šie lēmumi objektīvi būs sliktāki, mazāk pārdomāti un lēnāki nekā tie, kurus spētu pieņemt superintelekts?
Nesen redzēju interesantu pētījumu par mākslīgā intelekta izmantošanu slimību diagnosticēšanā. Pētījuma rezultāti liecina, ka mākslīgais intelekts pārspēj ārstus slimību diagnosticēšanā, turklāt neatkarīgi no tā, vai viņi paši izmanto mākslīgo intelektu vai ne. Proti, mākslīgais intelekts ir precīzāks par cilvēku, un cilvēka iejaukšanās šajā procesā var tikai samazināt precizitāti. Īlons Masks un vēl daži Silīcija ielejas iemītnieki uzskata, ka cilvēces nākotne ir ķermeniski sinhronizēties ar mākslīgo intelektu, lai palielinātu savu domāšanas jaudu. Mani šī perspektīva šausmina, negribu to piedzīvot, bet, iespējams, nāksies. Pirmie eksperimenti jau notiek un ir veiksmīgi – tie ļauj paralizētiem cilvēkiem atgūt savas spējas.
Un tomēr – līdz mirklim, kad cilvēce teorētiski varētu sinhronizēties ar mākslīgo intelektu, svarīgāko lēmumu pieņēmējam būtu jābūt cilvēkam? Par spīti mūsu lēnumam un domāšanas kļūdām?
Pēdējā laikā daudz domāju par lēmumu pieņemšanas sistēmām. Man šķiet svarīgi saglabāt sistēmu, kur tieši cilvēku vēlmēm un teiktajam ir galvenā nozīme tajā, kā izskatās sabiedrības pārvaldība. Jā, par spīti tam, ka mākslīgais intelekts šos lēmumus varētu pieņemt kvalitatīvāk! Manuprāt, mūsu reprezentatīvā sistēma ir jāsaglabā, taču jārēķinās, ka daudzi no pārvaldības mehānismiem ar laiku, cilvēcei adaptējoties pārmaiņām, pazudīs. Pieņemu, ka pirmie savos līdzšinējos pārvaldības modeļus atmetīs lielie uzņēmumi, valdības būs lēnākas.
Nu, labi. Lai gan pieci gadi ir tuva nākotne, tomēr līdz tai vēl jānodzīvo. Ko mums Latvijā darīt tagad?
Pirmā acīmredzamā pārmaiņu joma ir izglītība – mākslīgais intelekts ļauj katru cilvēku mācīt individualizēti, ar tikai viņam piemērotu mācību programmu, katru savā tempā, turklāt neatkarīgi no tā, vai cilvēks atrodas Lazdonā vai Rīgas centrā. Tu vari dabūt pasaules labāko skolotāju, kas ar tevi pavada visu laiku! Zinot, cik grūti mums iet ar izglītības kvalitāti, šī ir iespēja kvalitatīvam izrāvienam.
Bet vai mūsu izglītības sistēma ir spējīga strādāt ar mākslīgā intelekta rīkiem?
Bez valsts atbalsta varēs iztikt tie, kas ātri sapratīs jaunās iespējas – tur viss būs vienkārši. Valsts atbalstu vajadzēs pārējiem.
Viens no iemesliem, kādēļ Latvijā mākslīgo intelektu neizmanto tik bieži, cik varētu, it sevišķi izglītībā, – mākslīgā intelekta ģenerēto latviešu valodas tekstu vājā stilistika. Vai valdībai vai zinātniekiem, uzņēmējiem būtu jāparūpējas par to, lai latviešu valodā būtu pieejams mūsu pašu lielais valodas modelis, kas būtu trenēts uz visas latviešu valodā pieejamās digitālās informācijas bāzes?
Pirmais ChatGPT švaki zināja latviešu valodu, ceturtais modelis jau bija labāks, uzlabojumi turpināsies. Mēs esam pavisam tuvu tam, lai latviešu valoda mākslīgajam intelektam būtu labā līmenī. Īpaši veidot ko savu? Tad jārēķinās ar risku, ka varētu notikt tas pats, kas jau noticis ar virkni jaunuzņēmumu. Proti, vesela jaunuzņēmumu ekosistēma tiek veidota ap to, lai atrisinātu kādu problēmu, ar kuru netiek galā jaunākais lielais mākslīgā intelekta modelis. Taču problēma pati izzūd, kad klajā nāk šī modeļa atjauninājums. Sanāk lieks darbs un pūles.
Kas varētu notikt ar veselības nozari?
Ķirurgiem pārskatāmā nākotnē būs darbs, jo intelektuālā spēja mākslīgajam intelektam ir strauji attīstījusies, bet orientēšanās telpā ne tik ļoti. Diagnosticēšanā gan jaunie modeļi ir kvalitatīvi – iespējams, kvalitatīvāki par vidējo ārstu. Tāpēc pārmaiņas ir neizbēgamas – ja iestādes pašas nepiemērosies, būs komerciāli rīki, kas to izdarīs viņu vietā. Bet mēs esam sociālas būtnes! Ja jūtamies slikti, mums vajag otru cilvēku, tādēļ aprūpes funkcija veselības nozarē nepazudīs.
Vai tad mākslīgā intelekta balss vai robots nevar būt iejūtīgāks nekā vidējā medmāsa?
Cilvēkam nav tikai balss – ir siltums, smarža, kas iedarbojas uz mūsu zemapziņu. No otras puses, mākslīgais intelekts, protams, nekad nenogurst, nekašķējas, tam nav slikta garastāvokļa… Bet tā ir tālāka nākotne.
Kas būs ar militāro jomu? Vai karos tikai droni un citas tehnoloģijas, kuras darbinās mākslīgais intelekts?
Militāro lēmumu pieņemšanā mākslīgajam intelektam būs lielas priekšrocības – ātrums, spēja orientēties, izrēķināt riskus un scenārijus. Domāju, ka tieši militāro lēmumu pieņemšana ir tuvākā joma, kurā viss mainīsies. Cilvēks pagaidām šajā bildē nepazūd, bet ap cilvēku izveidojas dažādi mākslīgā intelekta procesi – to es saskatu Ukrainas un Izraēlas piemēros. Tālākā nākotnē tas jau būs jautājums par tehnoloģijām, kas spēj pārliecināt pretinieku rīkoties tavās interesēs, – un tad kari vispār vairs nebūs vajadzīgi.
Ejam tālāk uz citām profesijām, kur svarīga lēmumu pieņemšana, – piemēram, juridiskās profesijas.
Juridiskajā jomā lielākais jautājums ir par tiesām. Jo skaidrs, ka visās citās juridiskajās jomās cilvēkiem būs maz vietas. Normatīvo aktu un līgumu rakstīšana, interpretēšana – to noteikti mākslīgais intelekts var labāk nekā cilvēks.
Un kā ar biznesu?
Par biznesu labi pateikts Mustafa Suleimana jaunajā grāmatā [10]. Tur viņš prognozē, ka drīz būs tādas mākslīgā intelekta sistēmas, kurām pietiek pateikt jomu, kurā vēlies veidot biznesu, un šī sistēma izpētīs tirgu, atradīs vietas, kurās ir pieprasījums, bet nav piedāvājuma, dizainēs produktu, nolīgs ražotāju, uztaisīs mārketingu, distribūciju un palaidīs apritē. To izdarīs tā saucamais mākslīgā intelekta aģents. Šobrīd esam uz šo aģentu izveidošanas sliekšņa – varbūt ne nākamo divu gadu laikā, kad aģenti vēl būs vāji, bet nedaudz vēlāk.
Kā tik lielu pārmaiņu priekšvakarā ierēdņiem, politiķiem vispār plānot valsts nākotni? Varbūt kaut kādus lēmumus iepauzēt, gaidot superintelektu? Varbūt, tieši otrādi, turpināt ieguldīt tajās tehnoloģijās, kas vēl nesen šķita daudzsološas – piemēram, čatbotos?
Pirmkārt, Latvijai jākļūst par vienu no pionieriem mākslīgā intelekta tehnoloģiju ieviešanā, lai spējam proaktīvi meklēt savu vietu nākotnes pasaulē. Ja esi viens no pirmajiem, tad tev ir priekšroka. Manuprāt, ārkārtīgi svarīga ir iecere veidot Nacionālo mākslīgā intelekta centru. Otrkārt, mums jābūvē savas sistēmas maksimāli efektīvi. Piemērs – militārie iepirkumi. Nevienā NATO valstī iepirkumu sistēmas nav piemērotas tam, lai maksimāli ātri ieviestu jaunās tehnoloģijas. Tas tādēļ, ka iepirkumu regulējums balstās 20. gadsimta loģikā! Mums būtu jāpārskata visi procesi, tos padarot maksimāli elastīgus, maksimāli atvērtus jaunu tehnoloģiju iedzīvināšanai. Svarīgi atcerēties: jaunā realitāte atnāks neatkarīgi no tā, vai mēs tai būsim vai nebūsim gatavi. Tādēļ labāk tai gatavoties.
Bet kā to ieviest? Centralizēta iestāde, kas meklē iestrēgumus un ātri tos novērš?
Centralizētai pieejai Latvijā diemžēl nav daudz veiksmīgu piemēru. Tādēļ es drīzāk pētītu iespējas apbalvot tos, kuri ātri spēj savus procesus padarīt elastīgākus un jaunajām tehnoloģijām atvērtākus.
Un ko darīt ar plānošanu kopumā? Līdz šim Latvija savu nākotni bija saplānojusi daudzmaz līdz 2030. gadam [11], tālākā nākotnē neko daudz neredzot – varbūt vienīgi demogrāfisko un pensiju bedri pēc dažām desmitgadēm. Varbūt, ja gaidāms superintelekts, nav arī vērts neko daudz plānot vai satraukties par tik tālām problēmām?
Visa pamatā būs elastīgums, spēja piemēroties. Ja realizēsies kaut daļa no tā, par ko runājam, tas satricinās pat sistēmas, kas eksistē ļoti ilgu laiku. Turklāt var rasties jauni trendi, kurus agrāk neprognozējām. Piemēram, visi pamanījuši, ka pasaulē strauji samazinās dzimstība. Taču jaunās tehnoloģijas, ļoti ticams, nesīs līdzi arī pamatīgu dzīvildzes palielinājumu, kas šo dzimstības kritumu varētu izbalansēt. Neviens arī šobrīd nevar pateikt, vai nākotnes pasaulē mums vispār vajadzēs tik daudz darbaspēka. Jau šobrīd ir iespaidīgi piemēri tam, ko spēj roboti. Tāpēc procesi, kas mums līdz šim šķita fundamentāli, piemēram, demogrāfija, var izrādīties ne tik ļoti fundamentāli. Taču, kādā laika rāmī tas notiks – grūti teikt. Turklāt pa ceļam gaidāmi lieli satricinājumi. Vai mēs kā sabiedrība spēsim šos satricinājumus iznest un izdzīvot – tas ir miljons dolāru jautājums…
Satricinājums būtu, ja, piemēram, kāda nozare strauji pilnībā pārietu mākslīgā intelekta pārziņā un cilvēkiem vairs nebūtu darba, nebūtu biznesu?
Jā. Pēkšņi var pazust veseli biznesi. Piemēram, mārketinga kompānijās, ar kurām runāju, jau šobrīd stipri krītas rekrutēšanas tempi. Šī ir viena no tām nozarēm, kur darbaspēks drīz vispār vairs var nebūt vajadzīgs. Atcerēsimies gan, ka reālās pārmaiņas būs lēnākas nekā reālās tehnoloģiskās iespējas mākslīgajam intelektam aizstāt cilvēkus. Pirmais solis varētu būt tāds, ka tie, kuri prot jaunās iespējas izmantot, izkonkurēs tos, kuri to nespēj. Bet vienā mirklī arī šos prasmīgos vairs nevajadzēs. Tur arī būs tie satricinājumi! Ģeostratēģiskie izaicinājumi arī nekur nepazudīs, mākslīgā intelekta tehnoloģijas, teiksim, Krievijas ārpolitiku nemainīs.
Ja vajadzētu dot vienu padomu politiķiem par to, ko ar visu šo darīt, kas tas būtu?
Vai nu atrodi kādu, kas tevi apmāca par jaunajām iespējām, vai arī saņemies un pamatīgi apgūsti tās pats – to attiecinot uz paša risināmajām problēmām. Dziļa jauno iespēju saprašana parasti arī ir tas brīdis, kad cilvēks pa īstam sāk saprast gaidāmo pārmaiņu mērogu.
[1] Sems Altmans 2024. gada septembrī pauda viedokli, ka mākslīgais superintelekts varētu tikt izveidots dažu tūkstošu dienu laikā. Morris, Chris. Sam Altman says AI superintelligence could be just ‘a few thousand days’ away, Fortune, 24.09.2024.
[2] OpenAI nesen izlaida jauno O1 modeli, kas ievērojami pārspēj iepriekšējos modeļus, piemēram, GPT-4. Šis jaunais modelis spēj risināt sarežģītākus uzdevumus, demonstrē uzlabotas plānošanas un domāšanas spējas. Plašāka informācija: O'Donnell, James. Why OpenAI’s new model is such a big deal, MIT Technology Review, 17.09.2024.
[3] Rejs Kurcveils ir ievērojams amerikāņu futūrists, kas pazīstams ar savām prognozēm par mākslīgo intelektu un tā ietekmi uz sabiedrību. Grāmatā "Singularitāte tuvojas", kas iznākusi 2024. gada jūnijā, viņš paredz, ka mākslīgais intelekts pārcilvēcisku līmeni varētu sasniegt jau 2029. gadā.
[4] Pētījums, kas publicēts žurnālā "Science", parāda, ka sarunas ar mākslīgā intelekta čatbotiem var samazināt cilvēku uzticēšanos sazvērestības teorijām. Pēc sarunām uzticēšanās samazinājās par aptuveni 20%, un šis efekts saglabājās vismaz divus mēnešus pēc sarunas. Skat.: Costello, Thomas H.; Pennycook, Gordon; Rand, David G. Durably reducing conspiracy beliefs through dialogues with AI. Science, Vol. 385, Issue 6714, 13.09.2024.
[5] Bergmanis-Korāts, Gundars; Tetiana Haiduchyk, Tetiana; Shevtsov, Artur. AI in Precision Persuasion: Unveiling Tactics and Risks on Social Media. Rīga, 2024, 51 lpp.
[6] Eiropas Savienības Mākslīgā intelekta akts (Regulation (EU) 2024/1689) aizliedz mākslīgā intelekta sistēmas, kas izmanto subliminālas (cilvēka uztverei nemanāmas) vai manipulatīvas tehnoloģijas, lai būtiski izkropļotu cilvēku uzvedību vai pasaules uztveri. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024.
[7] 2023. gada 30. oktobrī ASV prezidents Džo Baidens izdeva izpildrīkojumu par drošu, uzticamu un atbildīgu mākslīgo intelektu.
[8] Piemēram, 2023. gada martā tika publicēta atklāta vēstule, kuru parakstīja vairāk nekā 30 000 cilvēku, tostarp tādi tehnoloģiju līderi kā Īlons Masks un Stīvs Vozņaks. Vēstulē tika aicināts uz sešu mēnešu pauzi tādu mākslīgā intelekta sistēmu izstrādē, kas ir jaudīgākas par GPT-4, lai izvērtētu potenciālos riskus un izveidotu drošības protokolus.
[9] Latvijas Valsts prezidents Edgars Rinkēvičs 2024. gada septembrī darba vizītē ASV Kalifornijas štatā tikās ar OpenAI izpilddirektoru Semu Altmenu, kā arī pārstāvjiem no gūgles un citiem tehnoloģiju uzņēmumiem. Vizītes mērķis bija apspriest mākslīgā intelekta attīstību un iespējamos riskus, kā arī veicināt sadarbību tehnoloģiju jomā.
[10] Suleyman, Mustafa; Bhaskar, Michael. The Coming Wave: Technology, Power, and the Twenty-first Century's Greatest Dilemma, 2023. ISBN: 9781529364850.
[11] "Latvija 2030" ir Latvijas ilgtspējīgas attīstības stratēģija līdz 2030. gadam, kas nosaka valsts ilgtermiņa attīstības prioritātes un telpiskās attīstības perspektīvu. "Latvijas ilgtspējīgas attīstības stratēģija līdz 2030. gadam (Latvija 2030)", Ministru kabinets, 2010.
0