Skip to main content

Pentagons oficiāli atzīst: Mākslīgā intelekta gigants Anthropic ir piegādes ķēdes risks

Amerikas Savienoto Valstu Aizsardzības departaments (Pentagons) ir pieņēmis bezprecedenta lēmumu, kas nosūta skaidru signālu visai tehnoloģiju nozarei. Departaments oficiāli ir klasificējis izlādes mākslīgā intelekta (MI) uzņēmumu **Anthropic** kā **”piegādes ķēdes risku”**. Šis solis padara Anthropic par pirmo amerikāņu uzņēmumu, kas saņēmis šādu oficiālu atzīmi no militāro struktūru puses, izraisot nopietnas diskusijas par tehnoloģiju drošību, valsts interesēm un ētiku.

Interesanti, ka šī oficiālā “marķēšana” notiek vienlaicīgi ar turpmāku departamenta sadarbību ar uzņēmumu. Pēc pieejamās informācijas, Pentagons **turpina izmantot Anthropic izstrādātās MI risinājumus operācijās, kas saistītas ar Irānu**. Šis šķietamais pretrunīgais stāvoklis izceļ sarežģītās attiecības starp valsts drošību un inovatīvu tehnoloģiju ātro attīstību.

Kas īsti ir “piegādes ķēdes risks”?

Termins “piegādes ķēdes risks” militārajā un valsts drošības kontekstā nav tikai burokrātisks etiķete. Tas nozīmē, ka departaments uzskata, ka uzņēmuma produkcijas, pakalpojumu vai pat infrastruktūras iesaistīšana valsts aizsardzības procesos var radīt ievērojamus draudus. Tas varētu būt saistīts ar:

* **Datu drošību:** Bažas, ka AI modeļi vai to apmācības dati varētu būt neaizsargāti pret iekļūšanu vai iznīcināšanu.
* **Ārvalstu ietekmi:** Potenciāls risks, ka uzņēmuma struktūrā vai finansējumā ir saistības, kas varētu ietekmēt tā lēmumus valsts drošības interesēs.
* **Tehnoloģijas nestabilitāti:** Jaunattīstīto AI sistēmu neparedzamība vai grūti kontrolējamās īpašības, kas misijas veiksmīgai iznākumam var radīt neparedzētus faktorus.
* **Vienas puses atkarību:** Pārāk liela atkarība no viena tehnoloģiju piegādātāja, kas padara sistēmas neaizsargātas, ja uzņēmums zaudē spēju strādāt.

Anthropic, kas dibināts ar mērķi izstrādāt “uzticamu, pārskatāmu un pārvaldāmu” mākslīgo intelektu, šobrīd atrodas unikālā – un neveiklā – situācijā, kad tiek oficiāli atzīts par risku, bet tajā pašā laikā tā tehnoloģija joprojām tiek uzskatīta par pietiekami vērtīgu, lai to izmantotu.

Kāpēc tieši Anthropic? Iespējamie motīvi

Lai saprastu šo lēmumu, ir vērts pievērsties uzņēmuma specifikai. Atšķirībā no daudziem konkurentiem, Anthropic ir stingri koncentrējies uz izlādes modeļu drošību un to izlīdzināšanu ar cilvēku vērtībām. Tomēr, vairāki faktori varēja izraisīt Pentagonu uzrādīt šādu oficiālu nostāju:

1. **Finansējuma struktūra:** Anthropic ir piesaistījis ievērojamus investīcijas no tādiem milzīgiem spēlētājiem kā Amazon un Google. Departamentam varētu būt bažas par potenciālu ietekmi vai datu plūsmām starp komerciāliem milzīgiem mākoņu pakalpojumiem un valsts drošības projektiem.
2. **AI modeļu “melno kastu” problēma:** Pat uzticamībai veltīti izlādes modeļi var būt ārkārtīgi sarežģīti un to lēmumu pieņemšanas procesi – nepārskatāmi. Militārajām operācijām, kur kļūdas maksā dārgi, šī neparedzamība pati par sevi ir risks.
3. **Pasaules mēroga ietekme:** Anthropic tehnoloģija ir spēcīga un viegli pieejama globāli. Pastāv teorētiska iespēja, ka pretinieki varētu izmantot līdzīgus vai pat tos pašus pamata modeļus, radot jaunu veidu simetrisku draudu.

Divējāda situācija: Marķēts kā risks, bet izmantots operācijās

Vissarežģītākā šīs ziņas daļa ir fakts, ka, oficiāli atzīstot Anthropic par risku, Aizsardzības departaments **nenovēršas no sadarbības**. Ziņojumi norāda, ka MI turpina tikt izmantota misijās, kas saistītas ar Irānu.

Ko tas nozīmē praksē?

Šī divējādība varētu būt praktisks kompromiss. Pentagonam, iespējams, ir nepieciešamas Anthropic AI unikālās spējas – piemēram, ātru un precīzu teksta analīzi, valodu tulkošanu vai datu modeļu atpazīšanu – **reāllaika izlūkošanas vai informācijas apstrādes** nolūkos. Vienlaikus, oficiālā “riska” atzīšana nozīmē:

* **Pastiprinātu uzraudzību:** Visas Anthropic tehnoloģijas izmantošanas aktivitātes tiks īpaši uzraudzītas, auditētas un ierobežotas.
* **Drošības protokolu pastiprināšanu:** Dati, kas tiek apstrādāti, var tikt papildus šifrēti vai izolēti.
* **Sistēmu daudzveidības meklējumus:** Departaments, visticamāk, aktīvi meklē alternatīvus piegādātājus, lai samazinātu atkarību no viena uzņēmuma.

Citiem vārdiem sakot, Pentagons saka: “Jūsu tehnoloģija mums ir tik vērtīga, ka mēs to nevaram nekavējoties atmest, bet mēs oficiāli atzīstam, ka strādāt ar jums ir bīstami, un rīkosimies attiecīgi.”

Kādas ir sekas nākotnei?

Šis notikums rada būtisku precedentu. Tas var ietekmēt ne tikai Anthropic, bet visu tehnoloģiju nozari, kas strādā ar valdību.

* **Citi MI uzņēmumi uzmanības lokā:** Līdzīga uzmanība var pievērsties arī citiem lieliem AI spēlētājiem. Valdības aģentūras sāks rūpīgāk izvērtēt ne tikai tehnoloģiju, bet arī uzņēmumu finansiālos saistījumus un pārvaldības struktūras.
* **”Siltā kara” tehnoloģiju frontes:** Šis lēmums parāda, ka tehnoloģiju, īpaši AI, kontrole un drošība ir kļuvušas par jaunu cīņas lauku starp lielvalstīm. Uzticamība kļūst par tikpat svarīgu kā jauda.
* **Regulējuma paātrinājums:** Incidents var pastiprināt aicinājumus pēc stingrākiem valsts drošības standartiem komerciālajai AI, piespiežot uzņēmumus iebūvēt drošības principus jau izstrādes sākumposmā.

Secinājums: Brīdinājuma signāls no nākotnes

Pentagona solis attiecībā uz Anthropic nav vienkārši viena uzņēmuma vēsture. Tas ir **spēcīgs signāls no nākotnes**, kas parāda, ka, attīstoties mākslīgajam intelektam, tradicionālās valsts drošības jēdzieni tiek pārskatīti. Piegādes ķēde vairs nav tikai par mikroshēmām un tēraudu; tā ir par algoritmiem, datiem un to radītājiem.

Fakts, ka valsts iestāde turpina izmantot sistēmu, kuru pati atzīst par riskantu, runā par to, ka AI ir kļuvusi par **neatņemamu un neatdodamu ieroci**. Tagad izaicinājums ir ne tikai to radīt, bet arī iemācīties ar to droši sadzīvot, zinot visus pieejamos riskus. Anthropic šobrīd atrodas tieši šīs jaunās realitātes epicentrā.

Avots: https://techcrunch.com/2026/03/05/its-official-the-pentagon-has-labeled-anthropic-a-supply-chain-risk/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *