Skip to main content

Anthropic iesniedz prasību pret ASV Aizsardzības departamentu pēc “piegādes ķēdes riska” nosaukuma

Iedomājieties, ka jūsu uzņēmums, kas strādā, lai padarītu mākslīgo intelektu drošāku, pēkšņi tiek oficiāli atzīmēts kā risks valsts drošībai. Tieši tāda situācija šonedēļ izvērsās starp AI pētniecības uzņēmumu Anthropic un ASV Aizsardzības departamentu. Pirmdien uzņēmums iesniedza tiesas prasību pret departamentu, apgalvojot, ka tā darbības, kuru rezultātā Anthropic tika iekļauts “kritisko piegādes ķēžu” sarakstā, ir “bezprecedenta un nelikumīgas”. Šis notikums, kas noteikti radīs plašu atbalsojumu tehnoloģiju un tiesību aprindās, izceļ saspringtās attiecības starp inovatīvu tehnoloģiju attīstītājiem un valsts drošības iestādēm.

Kas notika? Konflikta kodols

Saskaņā ar tiesas iesniegumu, kas pieejams publiskajām apskatei, ASV Aizsardzības departaments (DOD) oficiāli klasificēja Anthropic kā risku savām piegādes ķēdēm. Šāds solis parasti tiek veikts pret uzņēmumiem, kurus aizdomās par saistībām ar naidīgām valstīm vai kuru produkts varētu radīt drošības draudus. Taču Anthropic, ko dēvē par vienu no vadošajiem “drošā AI” pētniecības centriem, šādu lēmumu sauc par pilnīgi nepamatotu un kaitīgu.

Uzņēmuma pārstāvji uzsver, ka viņu misija vienmēr ir bijusi pārredzamība, drošība un etika mākslīgā intelekta attīstībā. Viņu galvenais produkts – AI palīgs Claude – tiek speciāli veidots, lai būtu pārvaldāms, godīgs un atbilstošs cilvēku vēlmēm. Tāpēc “piegādes ķēdes riska” marķējums ne tikai šķiet paradoksāls, bet arī rada nopietnas sekas uzņēmuma reputācijai un iespējām sadarboties ar valsts iestādēm.

Kāpēc tas ir “bezprecedenta un nelikumīgi”? Anthropic argumenti

Anthropic tiesas prasībā detalizēti izklāsta savus argumentus. Pirmkārt, uzņēmums apgalvo, ka DOD nav ievērojusi noteikto administratīvo procedūru, pieņemot šādu lēmumu. Parasti, pirms uzņēmums tiek iekļauts šādā sarakstā, tam jābūt iespējai pārsūdzēt lēmumu, sniegt pierādījumus un piedalīties godīgā dialoga procesā. Anthropic norāda, ka šādas iespējas viņiem netika nodrošinātas.

Otrkārt, prasībā tiek apgalvots, ka departamenta rīcībai nav pietiekama fakticiska pamata. Anthropic nav saistīts ar ārvalstu valdībām, un tā tehnoloģija nav projektēta kaitīgiem mērķiem. Gluži pretēji, uzņēmums aktīvi strādā pie risku novēršanas. Tāpēc marķējums, pēc viņu domām, varētu būt vairāk saistīts ar politisku spiedienu vai neizpratni par AI tehnoloģijas dabu, neka ar reāliem draudiem.

Reālās sekas: Kas nozīmē būt “piegādes ķēdes riskam”?

Šis oficiālais nosaukums nav tikai formāls štampis. Tam ir ļoti reālas un smagas sekas. Uzņēmumi, kas iekļauti šādā sarakstā, bieži tiek izslēgti no iespējām slēgt līgumus ar valdības iestādēm. Tas ierobežo iespējas piedalīties federālajos tenderos un projektos. Turklāt tas rada milzīgu uzticamības krišanu arī privātajā sektorā – kāds korporatīvais klients vēlētos sadarboties ar uzņēmumu, ko valdība uzskata par drošības draudu?

Anthropic tas varētu izmaksāt ne tikai iespējamos ienākumus no sadarbības ar DOD, bet arī sabojāt ilgus gadus veidotas partnerības ar universitātēm, pētniecības centriem un citām tehnoloģiju firmām, kuras varētu kaut nedaudz šaubīties par turpmāko sadarbību. Tiesas prasībā uzņēmums tieši norāda uz šīm ekonomiskajām un reputācijas zaudēšanas sekām kā uz tiešu kaitējumu.

Plašākais konteksts: AI un nacionālā drošība

Šis konflikts nenotika vakuumā. Tas ir vēl viens augstsprieguma episods pastiprinātajās attiecībās starp ASV valdību un jauno paaudzes AI uzņēmumiem. Pēdējo gadu laikā ir pieaugusi bažas par to, kā attīstītā mākslīgā intelekta tehnoloģijas var tikt izmantotas naidīgi – vai nu citu valstu, vai pat neatkarīgu aktieru rokās.

Valdības iestādes, tostarp Aizsardzības departaments, cenšas izveidot regulējuma un uzraudzības mehānismus, lai apvaldītu šos riskus. Taču nozares pārstāvji bieži sūdzas, ka šie mēģinājumi ir pārāk neprecīzi, bremzē inovācijas un sodīt nevainīgus spēlētājus, kuri tieši strādā pie riska mazināšanas. Anthropic lieta var kļūt par precedentu, kas nosaka, kā šīs robežas tiks novilktas nākotnē.

Kādas varētu būt tiesas iznākuma iespējas?

Tiesas process noteikti būs ilgs un sarežģīts. Juristi izvirzīs sarežģītus jautājumus par valdības pilnvarām regulēt tehnoloģiju nozares drošības vārdā un par uzņēmumu tiesībām uz godīgu izskatīšanu. Iespējamie iznākumi ir dažādi:
* **Anthropic uzvara:** Tiesa var piespiest Aizsardzības departamentu atsaukt savu lēmumu vai pārskatīt to, ievērojot pienācīgas procedūras. Tas būtu liels uzvars solis tehnoloģiju nozarei, nostiprinot viņu tiesības.
* **Departamenta uzvara:** Ja tiesa atzīs, ka DOD rīkojās savu pilnvaru ietvaros, tas stiprinātu valdības rokas nākotnes lēmumos pret citiem AI uzņēmumiem un varētu radīt stingrāku regulējuma vidi.
* **Pilnsizlīgums:** Visticamāk, pirms lieta nonāk līdz galīgam spriedumam, abas puses varētu vienoties par kādu kompromisu – piemēram, pārskatītu riska novērtējumu vai speciālu sadarbības līgumu, kas atrisina abpusējās bažas.

Ko tas nozīmē Latvijai un Eiropai?

Kaut arī lieta notiek ASV, tās atbalss skanēs visā pasaulē, tostarp Eiropā un Latvijā. Eiropas Savienība aktīvi strādā pie saviem AI regulējuma rāmjiem (AI Act), un šāds precedents var ietekmēt diskusijas par to, kā līdzsvarot inovācijas un drošību. Kā ES valstīm, tai skaitā Latvijai, vajadzētu izturēties pret uzņēmumiem, kas strādā ar attīstītu AI? Vai “drošības riska” marķējums jālieto kā instruments, un ja jā, tad ar kādām garantijām?

Turklāt daudzi Eiropas uzņēmumi un pētniecības institūti sadarbojas ar ASV kolēģiem. Ja ASV rada agresīvu regulējuma vidi, tas var piespiest Eiropas spēlētājus pārdomāt savas stratēģijas un, iespējams, vērst vairāk uzmanību uz lokālu sadarbību. Latvijas AI startapiem un pētniekiem ir svarīgi sekot līdzi šai lietai, lai saprastu globālās tendences, kuras var ietekmēt arī viņu darbu.

Šis gadījums starp Anthropic un Aizsardzības departamentu ir vairāk nekā tikai korporatīva strīda. Tas ir stāsts par to, kā sabiedrība mēģina saglabāt kontroli pār strauji attīstošām tehnoloģijām, par līdzsvaru starp drošību un progresu, un par to, kā tiesības tiek interpretētas digitālajā laikmetā. Tā iznākums noteiks toni nākamajiem gadiem, veidojot ainavu gan inovatoriem, gan regulatoriem visā pasaulē.

Avots: https://techcrunch.com/2026/03/09/anthropic-sues-defense-department-over-supply-chain-risk-designation/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *