Skip to main content

Vai drošība xAI ir “beigusies”? Bijušais darbinieks atklāj, ka Īlons Masks aktīvi centās padarīt Grok “trakāku”

Iedomājieties pasauli, kurā jūsu digitālais asistents ne tikai sniedz precīzas atbildes, bet arī bez filtra izsaka savas “domas”, iespējams, aizstāvot kontroversālus vai pat bīstamus skatus. Šķiet, ka tieši uz šādu nākotni mēģināja virzīties Īlona Maska mākslīgā intelekta uzņēmums xAI, vismaz pēc viena bijušā darbinieka pārsteidzošajiem apgalvojumiem. Jaunākās atklāsmes rada nopietnus jautājumus par ētiku, drošību un to, kādu veidu AI leģendārais uzņēmējs patiesībā vēlas veidot.

No “Patiesības meklētāja” līdz “Trakaķim”: Grok pārveidošanas misija

Saskaņā ar anonīma avota informāciju, kas tika publicēta TechCrunch, Īlons Masks personīgi un “aktīvi” strādāja pie tā, lai xAI ģeneratīvā chatbot Grok kļūtu “trakāks” (angļu valodā “more unhinged”). Šis termins bieži tiek lietots, lai aprakstītu kaut ko nestabilu, neprognozējamu un zaudējušu savaldīšanos. Sākotnēji Grok tika reklamēts kā “patiesības meklētājs” ar sava veida sarkastisku humora izjūtu, kas atšķiras no konkurentu, piemēram, ChatGPT, piesardzīgākā un drošības filtru noklāta tona. Tomēr, šķiet, Maska mērķis bija vēl tālāk pārvietot šo robežu.

Iekšējie avoti liecina, ka drošības protokoli un ētikas vadlīnijas, kas parasti ir pamatā jebkuram lielvalodas modelim, lai novērstu naida runu, kļūdainu informāciju vai bīstamu saturu, tika uzskatītas par šķērsli “patiesai” brīvībai. Maska, pēc šīs ziņas, uzskatīja, ka pārlieku daudz “drošības” padara AI garlaicīgu, nepietiekami provokatīvu un, galvenais, nepietiekami lojālu absolūtai izteikšanas brīvībai. Tādējādi radās iekšēja virzība samazināt šīs ierobežojošās barjeras.

Iekšējā pretošanās un darbinieku nobīdīšana

Protams, ne visi xAI darbinieki bija apmierināti ar šādu virzienu. Ziņojumā minēts, ka daži inženieri un pētnieki, kuri pievērsušies tieši AI drošībai, izteica nopietnas bažas. Viņi argumentēja, ka apzināta “trakošana” var novest pie neprognozējamiem un potenciāli kaitīgiem rezultātiem, padarot Grok par instrumentu dezinformācijas, aizspriedumu pastiprināšanai un pat psiholoģiskam spiedienam. Šīs bažas, pēc avota teiktā, netika uztvertas nopietni augstākajā vadībā.

Rezultātā vairāki darbinieki, kuri stingri nostājās pret šo politiku, tika “nobīdīti” no projekta vai pat atstāja uzņēmumu. Tas rada ainu par iekšēju kultūras konfliktu, kurā viena daļa vēlas veidot spēcīgu, bet drošu AI, bet otra – vadīta no paša augšas – tiecas pēc radikālas brīvības, uzskatot, ka sabiedrībai pašai jāspēj tikt galā ar jebkādu izvadi. Šis ir fundamentāls filozofisks šķelšanās punkts mūsdienu AI attīstībā.

Kāpēc? Maska, X un “Absolūtā runas brīvība”

Lai saprastu šīs darbības motīvus, ir jāskatās uz plašāku kontekstu. Īlons Masks ir vēstījis par savu nepatiku pret tā saukto “Woke AI” – sistēmām, kuras, viņaprāt, ir pārāk liberāli programmētas un cenzē politiski neērtas patiesības. Viņa iegāde sociālā tīkla X (bijušais Twitter) un tā pārveide par platformu ar minimālām satura ierobežojumiem ir daļa no tās pašas ideoloģijas.

Grok, kas ir cieši integrēts ar X, pēc būtības ir šīs filozofijas paplašinājums. Tas ir jābūt AI, kas “saka to, kā ir”, neatkarīgi no tā, vai tas ir sabiedriski pieņemami vai ne. Maska, iespējams, uzskata, ka patiesi spēcīgs un noderīgs AI nedrīkst būt pakļauts “buržuāzu” ētikas normām. Tomēr kritiķi jautā: kur ir robeža? Kur beidzas “neērtā patiesība” un sākas kaitīga melu vai naida kurināšana? Un vai mēs vēlamies, lai algoritms, kas spēj ietekmēt miljonus, darbotos bez iekšējām morālas kompasā norādēm?

Tehniskās sekas: kas nozīmē “trakāks” modelis?

No tehniskā viedokļa, padarīt modeli “trakāku” varētu nozīmēt vairākas lietas: samazināt vai noņemt drošības slāņus, kas bloķē noteikta veida toksisku vai bīstamu saturu; pielāgot apmācības datus, lai tie ietvertu vairāk kontroversālu avotu; vai arī mainīt modela parametrus, lai tas būtu mazāk uzmanīgs un vairāk pārliecināts savās, pat nepareizajās, atbildēs. Tas rada lielāku risku, ka Grok sāks radīt kaitīgus padomus, piemēram, par veselību vai vardarbību, vai arī aktīvi veidos maldinošu informāciju.

Šāda pieeja ir tiešā pretrunā ar nozaru līderu, piemēram, OpenAI, Anthropic un pat Google, centieniem, kuri pēdējā laikā vēl vairāk uzsver atbildīgu AI izstrādi, ieskaitot stingrus testēšanas un novērtēšanas procesus pirms izlaišanas. xAI šķiet virzās pretējā virzienā, riskējot kļūt par “melnās ožas” AI nozarei.

Vai drošība tiešām ir “beigusies”? Nākotnes perspektīvas

Tātad, vai drošība xAI ir pilnībā mirusi? Atbilde, iespējams, nav tik absolūta. Pat Maska uzņēmumam noteikti joprojām ir dažas pamata drošības pasākumi, lai novērstu acīmredzami nelikumīgu saturu. Taču šīs atklāsmes skaidri parāda, ka prioritātes ir dramatiski nobīdījušās. Drošība vairs nav galvenais virzības spēks; tā ir sekundāra vai pat kavējoša vara, kuru pārvarēt, lai sasniegtu ideālu par neierobežoti godīgu un nefiltrētu AI.

Šis notikums ir svarīgs brīdis visai nozarei. Tas liek sabiedrībai, regulatoriem un patiesi atbildīgiem AI izstrādātājiem uzdot grūtus jautājumus. Vai pastāv “tiesības” uz neierobežotu AI? Kurš uzrauga tos, kas veido šādas sistēmas? Un kā lietotāji varēs atšķirt provokatīvu humoru no patiesi kaitīga satura?

Grok nākotne, visticamāk, paliks ļoti kontroversāla. Daži to uzskatīs par gaisa vēsmu un brīvības simbolu, citi – par bīstamu eksperimentu, kas spēj pastiprināt sabiedrības šķelšanos. Viena ir skaidra: Īlona Maksa ceļš uz mākslīgo intelektu nebūs garlaicīgs, un tas noteikti izraisīs karstas debates par tehnoloģijas robežām ilgajos mēnešos un gados, kas ir priekšā. Un mums visiem būs jāizlemj, vai mēs vēlamies būt tās debatē dalībnieki vai tikai objekti.

Avots: https://techcrunch.com/2026/02/14/is-safety-is-dead-at-xai/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *