Skip to main content

Kā valdībai sadarboties ar mākslīgo intelektu? Lielo AI uzņēmumu nākotne starp inovācijām un valsts drošību

Mēs dzīvojam laikā, kad tehnoloģijas no laboratorijām pārvietojas tieši valsts drošības centrā. Vēl pirms dažiem gadiem OpenAI un citi līderi mākslīgā intelekta jomā bija galvenokārt uzsākumu uzņēmumi, kuru mērķis bija pārsteigt patērētājus ar jauniem produktiem. Taču situācija ir krasi mainījusies. Tagad šīs pašas kompānijas kļūst par kritisku infrastruktūru valsts drošībai, un izrādās, ka nevienam nav skaidra plāna, kā šī pāreja notiktu veiksmīgi.

No patērētāju aplikācijām līdz valsts aizsardzības sistēmām: neparedzēta transformācija

OpenAI, ar tās fenomenāli veiksmīgo ChatGPT, ir spējis ienirt gandrīz katrā mūsdienu cilvēka dzīvē. Taču, paralēli tam, valdības iestādes arvien vairāk saskata šo tehnoloģiju potenciālu nacionālajā drošībā, izlūkošanā un pat militārajās operācijās. Pēkšņi uzņēmums, kura kultūra veidota ap ātru izaugsmi un pārsteigumu radīšanu, saskaras ar pilnīgi citām prasībām: stingru regulējumu, absolūtu caurspīdīgumu un neiedomājamu atbildību par iespējamām sekām.

Problēma ir tāda, ka pašlaik nav ne skaidru vadlīniju, ne efektīva regulējoša ietvara šādai sadarbībai. AI uzņēmumi un valdības iestādes runā dažādās valodās: vieni – inovāciju un tirgus ātruma valodā, otras – birokrātijas, risku un ilgtermiņa stratēģiju valodā. Šī plaisa rada reālus draudus gan inovācijām, gan demokrātiskajai kontrolei.

Kāpēc tradicionālā aizsardzības nozare nevar vienkārši “uztaisīt savu ChatGPT”?

Jautājums var rasties – kāpēc valdība vienkārši neizveido savu mākslīgā intelekta sistēmu? Atbilde slēpjas resursos un tempā. Privātie uzņēmumi, piemēram, OpenAI vai Anthropic, ir piesaistījuši milzīgus privātos kapitāla ieguldījumus un piesaista labākos pasaules talantus. Viņu izstrādes cikls ir ātrāks un elastīgāks nekā jebkurai valsts aģentūrai, kas strādā ar budžeta aprobācijām un daudzgadīgiem iepirkumiem.

Taču šī ātruma un prasmju priekšrocība nāk ar milzīgu risku. Valsts drošības algoritmi nevar būt “melnā kaste”. Valdībai ir jāizprot, kā sistēma pieņem lēmumus, no kurienes nāk tās dati un kā novērst neētiskus novirzienus. Privātajam uzņēmumam, kura kodolsastāvā var būt komerciālas noslēpums, tas ir svešs un sarežģīts prasījums.

Trīs galvenie izaicinājumi, kas liek valstij un AI gigantiem strīdēties pie galda

1. Caurspīdīguma pretruna pret intelektuālo īpašumu

Valdībai ir jāzina visi tehniskie detaļas, lai novērtētu riska un drošības līmeni. Uzņēmumi, savukārt, aizstāv savu konkurences priekšrocību – avota kodu un unikālos apmācības datu kopas. Kur ir robeža starp saprātīgu valsts pārbaudi un rūpniecisko noslēpumu izpaušanu? Šim jautājumam nav vienkāršas atbildes.

2. Ātruma pretruna pret birokrātiju

AI attīstās eksponenciāli. Valdības lēmumu pieņemšanas process bieži vien ir lēns un hierarhisks. Kā izveidot regulējošu mehānismu, kas spēj reaģēt uz izmaiņām reālā laikā, nevis ar vairāku gadu nokavējumu? Pašreizējās pieejas, kas balstītas uz ilgtermiņa standartizāciju, ir pilnīgi nederīgas šajā jomā.

3. Etiķe un lēmumu deleģēšana

Vai AI uzņēmumam, kas sadarbojas ar aizsardzības nozari, jābūt atbildīgam par to, kā viņu tehnoloģija tiek izmantota? Ja militārie lēmumi tiek balstīti uz algoritmiskiem ieteikumiem, kurš uzņemas atbildību par kļūdām? Šīs filozofiskās un juridiskās dilemmas tiek atstātas neatrisinātas, kamēr projekti jau tiek īstenoti.

Kas varētu būt risinājums? Iespējamie nākotnes scenāriji

Eksperti virza vairākus modeļus, kā varētu izskatīties efektīva sadarbība. Pirmais ir **”speciālo piekļuvju” modelis**, kurā valdības auditoriem tiek piešķirtas īpašas tiesības pārbaudīt jebkuru sistēmas daļu, bet ar stingriem nosacījumiem par datu konfidencialitāti. Otrs ir **valsts un privātā sektora kopuzņēmums**, kurā tiek izveidota jauna struktūra ar kopīgu pārvaldi, kas apvieno abu pušu stiprās puses.

Vēl viena iespēja ir **stingra regulējoša ietvara izveide ar “smagos spēlētāju” statusu**. Tas nozīmētu, ka uzņēmumi, kas vēlas strādāt ar valsts drošības projektiem, būtu spiesti pieņemt noteikumus, kas līdzīgi kodolenerģētikai vai farmācijai – ar ļoti augstām prasībām pārbaudei un atskaitām.

Vai Eiropas Savienība, ieskaitot Latviju, var parādīt ceļu?

Latvijai un ES kopumā, ar tās stingrākiem datu aizsardzības (GDPR) un topošajiem AI regulējuma aktiem, ir iespēja kļūt par globālu standartu veidotāju. Mūsu pieeja, kas uzsver cilvēka centrītību un fundamentālās tiesības, varētu būt pamats drošai sadarbības modelim starp valsti un privātajiem uzņēmumiem. Taču tam nepieciešama nepārprotama politiska griba un tehniska kompetence, kas pašlaik joprojām ir izaicinājums.

Secinājums: nepieciešams jauns sociālais līgums tehnoloģijām

Pāreja no OpenAI kā uzsākuma uzņēmuma uz OpenAI kā nacionālas drošības aktīvu nav tikai viens uzņēmuma izaicinājums. Tā ir visas sabiedrības izaicinājums. Mums kā demokrātiskai sabiedrībai ir steidzami jāvienojas par pamatprincipiem: kādas tehnoloģijas mēs atļaujam izmantot valsts aizsardzībā, kāda līmeņa caurspīdīgumu mēs pieprasām un kā mēs sadalām atbildību.

Ja šie jautājumi paliks neatbildēti, mēs riskējam nonākt situācijā, kurā visspēcīgākās mākslīgā intelekta sistēmas attīstās bez pietiekamas sabiedriskas kontroles, bet valsts iestādes paliks tehnoloģiski atpalikušas. Laiks strādāt pie šī plāna ir tagad, pirms nākamā lielā pārrāvums mākslīgajā intelektā mūs atrod pilnīgi nesagatavotus. Nākotne pieder tiem, kas spēj apvienot inovācijas ātrumu ar demokrātiskās sabiedrības pamatvērtībām.

Avots: https://techcrunch.com/2026/03/02/openai-anthropic-department-of-defense-war-hegseth-ai-companies-work-with-us-government/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *