Skip to main content

Trumpa pavēle: ASV federālās aģentūras pārtrauc sadarbību ar mākslīgo intelektu uzņēmumu Anthropic

Pēc konflikta ar Pentagona pārstāvjiem bijušais ASV prezidents Donalds Trumps ir izdevis tiešu pavēli visām federālajām aģentūrām nekavējoties pārtraukt jebkādu lietošanu un sadarbību ar mākslīgā intelekta (MI) pētniecības uzņēmumu Anthropic. Trumpa oficiālajā paziņojumā, kas izplatīts sociālajos tīklos, skaidri teikts: “Mums tas nav vajadzīgs, mums tas negribas, un mēs ar viņiem vairs negādāsim.” Šis brīdis iezīmē ievērojamu pagrieziena punktu valdības attiecībās ar privāto tehnoloģiju sektoru, it īpaši jaunā un spēcīgā mākslīgā intelekta jomā.

Konflikta kodols: Nesaskaņas par AI drošību un militāro pielietojumu

Kā liecina pieejamā informācija, konflikta sēklas tika sētas, kad Anthropic, kas pazīstams ar savu uz drošību orientēto AI modeli Claude, atteicās pilnībā ievērot noteiktu Pentagona pieprasījumu saistībā ar militāriem pētījumiem un iespējamo tehnoloģijas pielietojumu. Precīzie pieprasījuma nosacījumi nav oficiāli atklāti, taču avoti norāda, ka runa varētu būt par AI sistēmu pielāgošanu vai integrāciju specifiskos aizsardzības projektos, kas, iespējams, bija pretrunā ar uzņēmuma paša noteikto ētisko politiku un drošības principiem.

Anthropic vienmēr ir pozicionējies kā uzņēmums, kas prioritizē pārvaldāmu, drošu un uz cilvēku cententu mākslīgo intelektu. Viņu stingrie iekšējie rādītāji, iespējams, sadūrās ar valdības vēlmi ātri iegūt priekšrocības jaunākajās tehnoloģijās. Šī nesaskaņa izrādījās nepārvarama, novedot pie publiska sadursmes un galu galā – līdz prezidenta tiešai iejaukšanās.

Trumpa reakcija: “Mēs ar viņiem vairs negādāsim”

Trumpa reakcija, kā parasti, bija tieša un bez apmāņiem. Viņa paziņojums sociālajos medijos atstāja nekļūdīgu iespaidu par neapmierinātību un noteiktu nostāju. Frāze “Mēs ar viņiem vairs negādāsim” ir vairāk nekā vienkāršs līguma izbeigšanas paziņojums; tā ir publiska nostāja, kas nosaka toni attiecībām starp valdību un tehnoloģiju gigantiem. Tas sūta skaidru signālu citiem AI uzņēmumiem: sadarbībai ar federālajām iestādēm ir stingras robežas, un pretošanās var novest pie pilnīgas izslēgšanas.

Eksperti norāda, ka šāda veida publiska noraidīšana no valsts puses ir reta un var būtiski ietekmēt uzņēmuma reputāciju, īpaši tādā jutīgā jomā kā valsts drošība un uzticamas tehnoloģijas. Anthropic tagad saskarsies ar nopietniem izaicinājumiem, meklējot līgumus ar citām valsts iestādēm vai pat privāta sektora klientiem, kuri varētu baidīties no saistībām ar “nepatiku” no valdības puses.

Secinājumi federālajām aģentūrām: Nekavējoties jāpārtrauc lietošana

Prezidenta pavēle nozīmē, ka visām departamentiem, no Veselības un sociālo dienestu līdz Enerģētikas departamentam, būs jāveic nekavējoties revīzija savās sistēmās un līgumos, lai identificētu un izbeigtu jebkādu Anthropic tehnoloģiju (piemēram, Claude API vai pielāgotus risinājumus) lietošanu. Tas radīs ievērojamus administratīvus un operatīvus izaicinājumus. Daudzi projekti, kas varētu būt atkarīgi no šīm tehnoloģijām, būs jāpārtrauc vai jāpārveido, izmantojot alternatīvus risinājumus no citu piegādātāju, piemēram, OpenAI, Google vai speciālistiem aizsardzības nozarē.

Šis process prasīs laiku un resursus, un tas, visticamāk, uz laiku aizkavēs dažu valdības digitālo pārveidošanas iniciatīvu. Tas arī radīs jautājumus par valdības atkarību no neliela skaita privāto uzņēmumu inovatīvajām tehnoloģijām un par riskiem, kas saistīti ar šādas atkarības pārkāpšanu.

Kādas ir plašākas ietekmes uz AI nozari?

Šis incidents noteikti radīs vilņus visā mākslīgā intelekta nozarē. No vienas puses, tas var mudināt citus uzņēmumus būt elastīgākiem sadarbojoties ar valdību, varbūt nedaudz mīkstinot savas ētiskās pozīcijas, lai saglabātu pieeju tik lielam klientam kā ASV federālā valdība. No otras puses, tas var stiprināt to uzņēmumu pozīcijas, kuri, tāpat kā Anthropic, uzskata, ka stingri ētiski principi ir svarīgāki par īstermiņa peļņu vai līgumiem.

Turklāt, tas var paātrināt valdības centienus attīstīt pašu suverēnās AI iespējas, lai samazinātu atkarību no privātajiem spēlētājiem. Jau tagad dzirdami aicinājumi piešķirt līdzekļus federāliem pētniecības projektiem, kuru mērķis ir radīt valdībai pakļautus, drošus un pārredzamus mākslīgā intelekta risinājumus.

Nākotnes perspektīvas: Vai šis ir pastāvīgs šķelšanās punkts?

Jautājums par to, vai šis konflikts ir galīgs, paliek atklāts. Politikas mainās, un arī administratījas mainās. Nākamā administrācija varētu pieņemt pavisam citu pieeju sadarbībai ar Anthropic vai līdzīgiem uzņēmumiem. Taču šobrīd radītais precedents ir skaidrs: valdība ir gatava izmantot savu ekonomisko un politisko spēku, lai disciplinētu tehnoloģiju nozari, ja uzskata, ka tās rīcība apdraud nacionālos intereses vai neievēro pieprasījumus.

Anthropic pašam tagad būs jāizvērtē sava stratēģija. Vai turpināt stingri ievērot savus principus, zaudējot milzīgu valdības tirgu, vai meklēt kompromisus, lai atgrieztos pie sarunām? Viņu izvēle ietekmēs ne tikai paša uzņēmuma likteni, bet arī noteiks toni visai diskusijai par ētiku un atbildību mākslīgā intelekta laikmetā.

Viens ir skaidrs: robežlīnija starp tehnoloģiju inovācijām, uzņēmējdarbības brīvību un valsts drošības vajadzībām kļūst arvien asāka. Trumpa pavēle pārtraukt sadarbību ar Anthropic ir tikai viens no pirmajiem un skaļākajiem šīs sarežģītās mijiedarbības epizodēm, un tālākajā nākotnē mēs, visticamāk, redzēsim vēl daudz līdzīgu konfliktu.

Avots: https://techcrunch.com/2026/02/27/president-trump-orders-federal-agencies-to-stop-using-anthropic-after-pentagon-dispute/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *