Skip to main content

Vai mākslīgais intelekts nonāks bruņotajos spēkos? Anthropic līderis meklē ceļu sadarbībai ar Pentagonu

Pēdējo mēnešu laikā tehnoloģiju pasaulē ir strauji pieaugusi diskusija par ētiskiem jautājumiem attīstot jaunākās paaudzes mākslīgo intelektu. Šīs debates centrā bieži vien ir uzņēmums Anthropic, kas sevi pozicionē kā atbildīgas un drošas AI aizstāvju. Taču pēdējās ziņas atklāj, ka aiz slēgtām durvīm notiek intensīvas sarunas, kurās uz spēles galda varētu būt pat nākotnes drošība. Pēc informācijas, kas nāk no avotiem, kas pazīstami ar situāciju, Anthropic izpilddirektors Dario Amodei joprojām aktīvi meklē veidus, kā noslēgt līgumu ar ASV Aizsardzības departamentu, neskatoties uz to, ka iepriekšējais 200 miljonu dolāru vērtais darījums sabruka konflikta dēļ par militārpersonu piekļuvi tehnoloģijai.

Sabrukušais darījums: Kāpēc 200 miljonu dolāru vērtā iespēja izjuka?

Sākotnējā vienošanās starp Anthropic un Pentagonu, kuras vērtība tiek lēsta ap 200 miljoniem ASV dolāru, solaīja būt vienai no nozīmīgākajām militāri-tehnoloģiskajām sadarbībām. Tās mērķis bija izmantot uzņēmuma uz prātu orientētos lielvalodu modeļus, piemēram, Claude, sarežģītu analīžu, apmācību un operatīvā plānošana jomās. Tomēr, kā ziņo TechCrunch, tieši piekļuves jautājums kļuva par šķērsli, ko nevarēja pārvarēt.

Anthropic, kuras dibinātāji ir bijuši OpenAI pētnieki, kuri atstāja uzņēmumu ētisku apsvērumu dēļ, ir stingri nostājušies par to, ka tā tehnoloģija nedrīkst kļūt par “melnkastīti”. Uzņēmums uzstāja uz stingriem ierobežojumiem un pārraudzību, lai nodrošinātu, ka tā AI netiek izmantota neatgriezeniskiem militāriem mērķiem vai operācijām, kas varētu pārkāpt starptautisko tiesību normas. Pentagonam, savukārt, nepieciešama nepārliecināta, ātra un pilna piekļuve rīkiem, kas varētu dot stratēģisku priekšrocību. Šis principu konflikts izrādījās nepārvarams.

Ētika pret praktiskumu: Anthropic pamatprincipi uz šķēpu galiem

Lai saprastu, kāpēc šis konflikts ir tik svarīgs, ir jāiepazīstas ar paša Anthropic filozofiju. Uzņēmums ir dibināts ar misiju “izveidot uzticamus, godīgus un noderīgus AI sistēmas”. Viņu pētniecības darba centrā ir tā sauktā “saskaņotības pētīšana” – lai nodrošinātu, ka jaudīgi AI modeļi darbojas saskaņā ar cilvēku vēlmēm un vērtībām. Šī rūpīgā pieeja ir ieguvusi lielu atzinību no daudzām pētniecības organizācijām un pat no konkurentiem.

Tomēr sadarbība ar militāriem rada fundamentālus jautājumus. Kā var kontrolēt tehnoloģiju, kas iespējams tiks izmantota karadarbībā? Vai ir iespējams izveidot “drošu” AI ieroči? Anthropic stāvoklis liecina, ka viņi uzskata: pilna, nekontrolēta piekļuve ir pārāk liels risks. Viņi vēlas būt ne tikai piegādātāji, bet arī ētiski vērtētāji, kas varētu bloķēt noteiktus pieprasījumus. Pentagonam šāds modelis, iespējams, šķiet pārāk apgrūtinošs un neefektīvs reāla laika apstākļos.

Dario Amodei: Vīzjonārs starp divām ugunīm

Anthropic izpilddirektora Dario Amodei loma šajā stāstā ir galvenā. Viņš ir ne tikai uzņēmējs, bet arī bijušais fizikas pētnieks, kurš ir publiski runājis par eksistenciālo risku, ko rada neregulēts mākslīgais intelekts. No vienas puses, viņš ir apņēmies uzturēt uzņēmuma ētisko stūrakmeni. No otras puses, viņš, acīmredzot, redz stratēģisku nozīmi un atbildību sadarbībā ar valsts drošības iestādēm.

Avoti norāda, ka Amodei personīgi ir iesaistījies sarunās, mēģinot atrast kompromisu. Jautājums ir, vai šāds kompromiss vispār ir iespējams. Vai pastāv “zelta vidusceļš”, kas apmierinātu gan antropiskos principus, gan militārās vajadzības? Iespējams, risinājums slēpjas īpaši izstrādātos, ļoti šaurā mērķī izmantojamos rīkos, kuru darbība ir pilnībā pārredzama un ierobežota, vai arī stingrākā līgumos iestrādātā audita un atskaitīšanās kārtībā.

Ko tas nozīmē AI nozares nākotnei?

Šis notikums ir svarīgs precedents visai nozarei. Ja tāds līderis kā Anthropic, ar tādu publisku pieņemšanos ētikai, nonāk sarežģītās sarunās ar militāriem, tas parāda neizbēgamo spriedzi starp tehnoloģisko potenciālu un tā sociālo atbildību. Citi lieli spēlētāji, piemēram, Google un Microsoft, jau aktīvi sadarbojas ar valdību. Anthropic gadījums var ietekmēt, kā investori, talanti un regulatori uztver citus uzņēmumus, kas vēlas saglabāt “tīru reputāciju”.

Turklāt, ja Amodei tomēr izdosies noslēgt līgumu, tas varētu radīt jaunu sadarbības modeli, kurā privātie uzņēmumi ne vienkārši pārdod tehnoloģiju, bet aktīvi piedalās tās pielietojuma robežu noteikšanā. Ja nesanāks, tas varētu nozīmēt, ka valsts drošības joma paliks to uzņēmumu rokās, kuri ir gatavi atsacīties no stingrākiem ētiskiem ierobežojumiem.

Nākotnes perspektīvas: Vai kompromiss ir redzams?

Pašlaik situācija ir stagnējoša, bet nebeigusies. Fakts, ka sarunas turpinās, liecina, ka abās pusēs ir vēlme atrast risinājumu. Pentagonam noteikti ir interese par Anthropic modernajām tehnoloģijām, kas varētu palīdzēt, piemēram, analizēt draudu ziņas, modelēt konfliktu scenārijus vai pat atbalstīt kiberaizsardzību. Savukārt Anthropic varētu redzēt šajā sadarbībā iespēju ietekmēt nozīmīgu jomu no iekšpuses, nostiprinot savus principus valsts mēroga sistēmās.

Galvenie izaicinājumi, kas jāpārvar, ir **pārredzamība** un **kontrole**. Vai ir iespējams izveidot sistēmu, kurā militārpersonas var efektīvi izmantot AI, bet tās darbība joprojām atbilst civilajiem ētikas standartiem? Atbilde uz šo jautājumu noteiks ne tikai viena līguma likteni, bet arī veidos ietvarus nākamajiem gadiem, kad mākslīgais intelekts arvien vairāk ienāks valsts drošības sfērā. Pasaule vēro, vai Dario Amodei izdosies būt ne tikai uzņēmējs, bet arī ētikas vērtību veidotājs šajā jaunajā un bīstamajā laukā.

Avots: https://techcrunch.com/2026/03/05/anthropic-ceo-dario-amodei-could-still-be-trying-to-make-a-deal-with-pentagon/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *