Aizdomīgs pieteikums Pentagonā: Aizsardzības sekretārs izsauc AI giganta vadītāju pārrunām par militāro lietojumu
Iedomājieties scenāriju: viena no ietekmīgākajām personām Amerikas Savienoto Valstu aizsardzības aparātā oficiāli izsauc uz sarunām revolucionāras mākslīgā intelekta uzņēmuma izpilddirektoru. Iemesls? Militārā nozare aktīvi izmanto tā radīto AI palīgu, un augstākajās aprindās par to nav vienprātības. Šis ir nevis sižets zinātniskās fantastikas filmai, bet reāls notikums, kas, pēc pieejamās informācijas, norisinās Vašingtonā. Aizsardzības sekretārs Pīts Hegsefs esot izsaucis uz Pentagonu antropomorfā AI uzņēmuma Anthropic izpilddirektoru Dario Amodei, lai apspriestu armijas lietojamo AI modeli Claude.
Spriedzes pilna tikšanās piecus stāvus zem zemes
Tiek ziņots, ka tikšanās starp Hegsefu un Amodei Pentagonā, piecus stāvus zem zemes, bijusi “spriedzes pilna”. Sarunas centrā ir bijis Anthropic radītā mākslīgā intelekta asistents Claude un tā izmantošana militārajos procesos. Informācija liecina, ka Aizsardzības departaments aktīvi izmanto Claude dažādiem nolūkiem, iespējams, analīzei, plānošanai vai datu apstrādei. Tomēr šāda sadarbība acīmredzami nav izraisījusi entuziasmu dažās ietekmīgās aprindās.
Galvenais strīda punkts, pēc avotu domām, ir drošība un kontrole. Hegsefs, kurš ir pazīstams ar savu stingro nostāju attiecībā uz tehnoloģiju integrēšanu tradicionālajās aizsardzības struktūrās, esot izteicis nopietnas bažas par to, vai AI sistēma, kas nav izstrādāta speciāli militāriem standartiem, var būt droša un uzticama valsts drošības interesēs. Viņš acīmredzot uzskata, ka ārēja uzņēmuma tehnoloģija var radīt nepieņemamus riskus.
Draudi ar “piegādes ķēdes risku” un tā nozīme
Sarunas laikā Hegsefs esot pat draudējis oficiāli atzīmēt Anthropic kā “piegādes ķēdes risku”. Šis termins nav tikai brīdinājums – tas ir formāls mehānisms, ko ASV valdība izmanto, lai identificētu uzņēmumus vai produktus, kas, strādājot ar sensitīvu informāciju vai kritisku infrastruktūru, varētu radīt draudus nacionālajai drošībai. Šāds marķējums varētu radikāli ierobežot Anthropic iespējas strādāt ne tikai ar Aizsardzības departamentu, bet arī ar jebkuru citu valdības aģentūru, un smagi ietekmētu uzņēmuma reputāciju globāli.
Kāpēc šis drauds ir tik nopietns? Ja uzņēmums tiek atzīts par piegādes ķēdes risku, tas bieži vien nozīmē pilnīgu piekļuves zaudēšanu valsts noslēpumiem, kā arī iespējamus ierobežojumus sadarbībai ar privātajiem uzņēmumiem, kas strādā valsts līgumos. Anthropic, kas ir viens no līderiem drošas un pārskatāmas AI izstrādē, noteikti censtos izvairīties no šāda negatīva marķējuma, kas varētu aptumšot visus tā sasniegumus.
Kas ir Claude un kāpēc militārie varētu būt ieinteresēti?
Lai saprastu konflikta dziļumu, ir svarīgi zināt, ar ko tieši strādā Anthropic. Claude ir viens no vadošajiem lielajiem valodu modeļiem (Large Language Model), kas konkurē ar tādiem milžiem kā OpenAI ChatGPT vai Google Gemini. Taču Anthropic īpašs uzsvars ir uz AI drošību, pārskatāmību un etiku. Uzņēmums ir slavens ar savu “konstitucionālo AI” pieeju, kurā sistēma tiek mācīta ievērot noteiktus principus un vērtības, mēģinot izvairīties no kaitīgas, neobjektīvas vai bīstamas izvades.
Tieši šī drošības orientācija, iespējams, sākotnēji piesaistīja militāro vērību. Armijai nepieciešamas uzticamas analītiskas sistēmas, kas var apstrādāt milzīgus datu apjomus, simulēt scenārijus, palīdzēt ar loģistiku vai pat apstrādāt ziņojumus, neizdodot kļūdainus vai ētiskus riskus radošus ieteikumus. Claude, teorētiski, varētu piedāvāt tieši tādu pārskatāmu un kontrolējamu palīgu, kāds nepieciešams sarežģītās militārās operācijās.
Lielākais jautājums: vai AI var uzticēties nacionālo drošību?
Šeit rodas filozofisks un ļoti tehnisks strīds. No vienas puses, AI piedāvā neapstrīdamu efektivitāti un ātrumu. No otras puses, tā ir “melna kaste” – pat izstrādātāji ne vienmēr var precīzi pateikt, kā tieši modelis nonāk pie konkrēta secinājuma. Militārajā kontekstā, kur kļūdas cena ir nepieņemami augsta, šī neskaidrība var būt absolūti nepieņemama. Hegsefa pozīcija, iespējams, atspoguļo tradicionālistu skatījumu militārajā establišmentā, kas uzskata, ka kritiskiem lēmumiem jāpaliek cilvēku rokās, un jaunās tehnoloģijas jāievieš ārkārtīgi piesardzīgi.
Anthropic, savukārt, noteikti aizstāvēs savu produktu, norādot uz stingro drošības testēšanu un konstitucionālos principus, kas iebūvēti Claude kodolā. Viņi varētu apgalvot, ka viņu AI ir drošāka un pārvaldāmāka nekā daudzas citas tirgū, un tās izslēgšana no militārā lietojuma patiesībā varētu palielināt riskus, jo armija varētu izvēlēties mazāk drošus alternatīvus risinājumus.
Kādas varētu būt šī konflikta sekas?
Šīs tikšanās iznākums varētu radīt tālu nesīgas sekas ne tikai Anthropic, bet visai AI nozarei un tās attiecībām ar valdību.
1. **Stingrāka regulēšana:** Ja Pentagonā pieņems lēmumu ierobežot lielo valodu modeļu izmantošanu, tas varētu izraisīt valsts mēroga iniciatīvas stingrākai AI regulēšanai militārajā jomā. Varētu rasties jauni sertifikācijas standarti, bez kuriem neviens AI modelis nedrīkstētu tikt izmantots sensitīvās jomās.
2. **Tehnoloģiju suverenitāte:** Konflikts var pastiprināt tendenci izstrādāt “mājas” AI risinājumus, kas izstrādāti speciāli militāriem vajadzībām un pilnībā atrodas valsts kontrolē. Tas varētu stimulēt lielus aizsardzības līgumus ar tehnoloģiju uzņēmumiem, kas piekrīt darboties saskaņā ar īpašiem drošības protokoliem.
3. **Reputācijas risks AI nozarei:** Ja vadošs uzņēmums, kas specializējas uz drošību, tiek atzīts par risku, tas var radīt negatīvu auru visai nozarei. Investori un sabiedrība var sākt ar lielāku aizdomu skatīties uz jebkuru sadarbību starp AI izstrādātājiem un valdību.
4. **Inovāciju bremzēšana:** No otras puses, pārāk stingri ierobežojumi var aizkavēt inovatīvu tehnoloģiju ieviešanu, kas padarītu aizsardzības sistēmas mazāk efektīvas salīdzinājumā ar tiem valstu pretiniekiem, kuri varētu būt mazāk skrupulozi attiecībā uz ētiku un drošību.
Vai šis ir tikai pirmais cīņas zvans?
Dario Amodei tikšanās ar Pītu Hegsefu, visticamāk, ir tikai augšējā daļa no aisberga. Tā iezīmē fundamentālu spriedzi mūsdienu sabiedrībā: neapturamo tehnoloģisko progresu un nepieciešamību pēc drošības, kontroles un ētikas. Kā valdībai līdzsvarot inovācijas potenciālu ar reāliem riskiem? Kā uzņēmumiem uzbūvēt uzticamas sistēmas, kas spētu izturēt militāro drošības pārbaudi?
Atbildes uz šiem jautājumiem veidos nākotni ne tikai kara mākslai, bet arī mūsu ikdienas mijiedarbībai ar mākslīgo intelektu. Tikmēr visi acis ir vērstas uz Pentagonu, gaidot, vai šī spriedzes pilnā saruna izbeigsies ar kompromisu vai ar oficiālu karu starp tehnoloģiju gigantiem un valsts drošības aparātu. Viena ir skaidra: laiks, kad AI bija tikai civila lietojuma instruments, ir beidzies. Tagad tā ir arī stratēģiska, drošības jautājumu pilna joma, kurā lēmumus pieņems ne tikai programmētāji, bet arī ģenerāļi un ministri.