Vai mākslīgais intelekts maina savus uzskatus? Pētījums atklāj LLM pārsteidzošu “ticību novirzi”
Mēs bieži domājam par lielajiem valodu modeļiem (LLM) kā par milzīgiem, bet stabilām zināšanu bāzēm – digitāliem orakuliem ar fiksētu pasaules uzskatu. Taču jauns pētījums, kas izmantojis Elonam Maskam piederošā xAI modeli Grok-4, rada nopietnas šaubas par šo pieņēmumu. Izrādās, ka LLM “uzskati” var būt pārsteidzoši nepastāvīgi un mainīties atkarībā no tā, ar kādu informāciju tie nesen saskārušies – procesā, ko zinātnieki dēvē par “ticību novirzi” (belief drift).
Pētījumā Grok-4 tika papildus apmācīts uz 80 000 vārdu liela konservatīvas politiskās filozofijjas teksta datu kopas. Rezultāts? Vairāk nekā ceturtdaļā gadījumu modelis būtiski mainīja savu nostāju atbildēs uz politiskiem jautājumiem. Vissvarīgākais: šīs izmaiņas notika bez jebkādiem viltīgiem vai adversārajiem uzdevumiem. Pietika tikai ar jauna konteksta ievadīšanu apmācības datos. Tas ir tā, it kā jūs pēc ilgas sarunas ar draugu, kurš izskaidro savus uzskatus, pamazām sāktu nedaudz savādāk skatīties uz pasauli. LLM, šķiet, piedzīvo līdzīgu procesu.
Kas ir “konteksta uzkrāšana” un kā tā maina mākslīgo prātu?
Līdz šim LLM galvenokārt darbojās, apstrādājot tūlītējo lietotāja pieprasījumu (prompt) un izvelkot atbildi no savas milzīgās, statiskās apmācības datu kopas. Taču attīstība virzās uz modeļiem, kuriem ir atmiņas mehānismi un izpētes aģentu iespējas. Tie spēj uzkrāt informāciju pašā dialoga laikā vai ilgtermiņā, pielāgojoties lietotājam.
Šī “konteksta uzkrāšana” (context accumulation) ir tas, kas padara lietotāja pieredzi daudz personalizētāku un bagātīgāku. Ja jūs čatā ar modeli vairākas nedēļas un regulāri apspriežat, piemēram, vides aizsardzību, modelis var “atcerēties” jūsu iepriekšējās diskusijas un pielāgot atbildes. Taču šis pats mehānisms, kā liecina Grok-4 pētījums, ir arī “ticību novirzes” avots. Modelis ne tikai atceras faktus, bet arī, šķiet, asimilē jaunā konteksta toni, vērtības un argumentācijas veidu, pakāpeniski mainot savu izvades “noskaņojumu” un pat saturu.
Kāpēc tas ir bīstami? Ilūzija par objektivitāti
Galvenās bažas saistītas ar šķietamo objektivitāti. Lietotāji, īpaši tie, kas nepievērš lielu uzmanību AI tehnoloģiju iekšējai darbībai, var uzskatīt, ka atbilde no ChatGPT, Gemini vai Grok ir kaut kāda “neitrāla patiesība”, kas balstīta uz visiem interneta zināšanām. Ja modelis nesen ir apstrādājis lielu daudzumu ļoti tendencioza satura, tas var sistemātiski novirzīt savas atbildes, nemaz neziņojot par to lietotājam.
Iedomājieties scenāriju, kurā uzņēmuma iekšējais palīgs-LLM tiek apmācīts uz visiem uzņēmuma iekšējiem dokumentiem, pārskatiem un e-pastu vēstures arhīviem. Pēc kāda laika tas var sākt atspoguļot tīri uzņēmuma iekšējo kultūru un pat aklos punktus, zaudējot spēju sniegt patiesi kritiskus vai ārējā skatupunkta balstītus ieteikumus. Tā būtu digitāla “grupas domāšana”.
Nākotnes izaicinājumi: kā kontrolēt nepastāvīgo prātu?
Šis atklājums priekšā noliek vairākus sarežģītus jautājumus AI attīstītājiem, regulatoriem un gala lietotājiem.
1. Transparenta un izsekojama izvade
Vai LLM sistēmām vajadzētu ierīkot kaut kādu “konteksta patēriņa žurnālu”, kas lietotājam varētu parādīt, kādi lieli informācijas bloki pēdējā laikā ietekmējuši modeļa atbildes? Vai atbildē būtu jānorāda: “Šī atbilde var būt ietekmēta no pēdējās lietotāja ievadītās 1000 lappušu garās dokumentācijas, kas sliecas uz X nostāju”?
2. Ētikas un robustuma robežas
Kā mēs varam izveidot modeļus, kas spēj personalizēties, nezaudējot savu kodolā esošo līdzsvarotību un neiekrītot ekstrēmā nostāju slazdā? Vai ir iespējams izveidot mehānismus, kas automātiski atpazīst “novirzi” un atgriež modeli pie tā sākotnējā, plašākā zināšanu bāzes līdzsvara?
3. Lietotāja izglītošana
Kritiskā domāšana attiecībā uz AI kļūst par vēl neatvieglināmu prasmi. Lietotājiem ir jāsaprot, ka LLM nav enciklopēdija, bet gan dinamisks, mainīgs instruments, kura izvadi ietekmē ne tikai jūsu prompts, bet arī viss, ar ko modelis ir “barots” pirms tam. Izglītība par AI rakstura ierobežojumiem kļūst par civilizācijas svarīgumu.
Secinājums: nevis mehānisms, bet partners ar ierobežojumiem
Grok-4 pētījums spēcīgi atgādina, ka visspēcīgākie mūsdienu AI modeļi nav beigu produkts, bet pastāvīgi attīstās eksperimenti. To “prāts” ir neticami elastīgs – un tas ir gan to spēks, gan ievērojams vājums. Nākotnē, kad AI kļūs par mūsu ikdienas lēmumu pieņemšanas, izglītības un pētniecības neatņemamu palīgu, izpratne par “ticību novirzi” būs absolūti obligāta.
Mēs nevaram pieļaut, ka šīs tehnoloģijas kļūst par neredzamu ideoloģijas vai misinformācijas pastiprinātāju, kas slēpj savu ietekmi aiz šķietami neaizskaramas algoritmiskās autoritātes. Atbildība gulstas uz pleciem pētniekiem, lai izstrādātu stabilākus mehānismus, un uz mums visiem – lai ar šo jauno spēku mācītos sadarboties ar atvērtām acīm un kritisku prātu. Mākslīgais intelekts, kā izrādās, maina savus uzskatus. Vai mēs esam gatavi tam?
Avots: https://aihub.org/2026/03/09/the-malleable-mind-context-accumulation-drives-llms-belief-drift/