Anthropic vadītājs apsūdz konkurentu: “Tie ir tīri meli par militāro līgumu”, bet pats atteicās no Pentagonas sadarbības
Mākslīgā intelekta (MI) drošības debates pēkšņi ir pārvērtušās par publisku strīdu starp diviem no nozīmīgākajiem spēlētājiem nozarē. Pēc Business Insider ziņām, Anthropic izpilddirektors Dario Amodei ir publiski apsūdzējis savu galveno konkurentu, OpenAI, par “tīriem meliem” saistībā ar pēdējā noslēgto militāro līgumu. Amodei apgalvo, ka OpenAI mēģina izlikties par “labiem puišiem”, kamēr viņu pašu uzņēmums, vēršoties pie ētikas, pats ir atteicies no līdzīga sadarbības līguma ar ASV Aizsardzības departamentu.
Šis konflikts izceļ ne tikai sīvas konkurences dinamiku, bet arī dziļu filozofisku šķelmi MI attīstības jomā: kur robeža starp valsts drošību un tehnoloģiju ētiku? Un kā uzņēmumi, kas veido nākotnes tehnoloģijas, balansē starp iespējām un savu sociālo atbildību?
Fons: Kāpēc Anthropic atteicās no Pentagonas, bet OpenAI nē?
Lai saprastu strīda kodolu, ir svarīgi zināt notikumus, kas tam pievada. Pēc Business Insider ziņojuma, Anthropic, Dario Amodei vadītais uzņēmums, kas slavens ar savu uz drošību orientēto MI modeli Claude, bija sarunājis potenciālu līgumu ar Pentagonu. Tomēr pēc iekšējām diskusijām un ilgstošām pārrunām par iespējamajiem riskiem, uzņēmuma vadība un drošības komanda nolēma līgumu *nerakstīt*.
Viņu galvenās bažas bija saistītas ar to, kā viņu tehnoloģija varētu tikt izmantota reālos militāros kontekstos. Anthropic ir stingri ieskaņots uz “izlīdzināšanas” (alignment) principiem – ideju, ka MI sistēmām jābūt droši saskaņotām ar cilvēku vēlmēm un vērtībām. Militārais pielietojums šķita pārāk neskaidrs un potenciāli bīstams lauks, kur šī saskaņotība varētu tikt apdraudēta.
Tieši šajā brīdī, pēc Amodei vārdiem, OpenAI ir “iesprucies” un noslēdzis savu līgumu ar militāro iestādi. Un tieši OpenAI vēstījums par šo līgumu ir izraisījis Amodei niknu reakciju.
Strīda būtība: Kas tieši tiek saukti par meliem?
Atklātā konfrontācija sākās, kad OpenAI publiski komentēja savu līgumu. Pārstāvji, iespējams, mēģinot mazināt sabiedrības bažas, uzsvēra, ka sadarbība ar militārajiem partneriem būs stingri ierobežota un koncentrēsies uz “nekaitīgiem” pielietojumiem, piemēram, kiberdrošību, loģistikas atbalstu un veselības aprūpi karavīriem.
Dario Amodei šo vēstījumu nosaucis par maldinošu un nepatiesu. Viņš uzskata, ka tas ir mēģinājums izskatīties “tīrākam” par konkurentiem, patiesībā nodarbojoties ar būtisku un riskantu darbību. Viņa galvenais arguments ir tas, ka jebkura tehnoloģija, kas nodrošināta militāram sektoram, pat teorētiski “nekaitīgā” jomā, *galu galā atbrīvo resursus un veicina militāro mašīneriju kopumā*. Vienkārši sakot, palīdzot ar kiberaizsardzību, tu netieši atbrīvo cilvēkus un līdzekļus citiem, iespējams, uzbrucīgākiem militārajiem mērķiem.
“Tas ir tīri meli,” Amodei citē Business Insider. “Tu nevari strādāt ar Pentagonu un pēc tam stāstīt, ka tas ir tikai par labu veselību. Viņu galvenais uzdevums ir karš. Un ja tu viņiem palīdzi vienā jomā, tu viņus padara efektīvākus visās jomās.”
Dziļākā problēma: MI ētikas šķelme nozarē
Šis incidents nav tikai par vienu līgumu vai divu CEO strīdu. Tas ir par fundamentāli atšķirīgu pieeju tam, kas ir atbildīga MI attīstība.
**Anthropic pozīcija** ir piesardzīga un principiāla. Viņi ir izveidojuši uzņēmumu ar misiju izveidot uzticamus, drošus un kontrolējamus MI palīgus. Viņu lēmums atteikties no iespējami milzīga ienākumu avota Pentagonā ir spēcīgs paziņojums: viņu ētiskie principi ir svarīgāki par īstermiņa peļņu vai stratēģisko ietekmi. Viņi redz nepārvaramu konfliktu starp MI izlīdzināšanu un jebkuru tiešu militāro sadarbību.
**OpenAI pozīcija**, pēc šī līguma spriežot, ir pragmatiskāka. Viņi, šķiet, uzskata, ka ir iespējams sadarboties ar valsts struktūrām, ieskaitot militāro sektoru, uzmanīgi nosakot robežas un uzraudzot pielietojumu. Viņi varētu argumentēt, ka valsts drošība ir svarīga, un ka progresīvi, ētiski veidoti MI rīki var padarīt pasauli drošāku, pat militārajā kontekstā. Tomēr, kā norāda Amodei, šīs robežas var būt ļoti grūti uzturēt praksē.
Ko tas nozīmē nākotnei un kā reaģē nozare?
Šis gadījums noteikti radīs atbalss vilni visā tehnoloģiju pasaulē un ārpus tās.
* **Investori un darbinieki** sāks vēl rūpīgāk vērtēt uzņēmumu ētikas pozīcijas. Darbinieki, kuri pievienojās Anthropic vai OpenAI tādu principu dēļ kā “MI drošība”, tagad var justies apmāti vai apbēdināti.
* **Regulatori un politiķi** saņems spēcīgu argumentu par nepieciešamību pēc skaidriem likumiem un standartiem par MI izmantošanu militāros un valsts drošības nolūkos. Pašregulācija, kā redzams, rada konfliktu.
* **Sabiedrības uzticība** pret lielajiem MI uzņēmumiem var tikt pakļauta pārbaudei. Ja viens līderis apsūdz otru melošanā par tik nopietnu tematu, par ko tad parastais cilvēks varētu viņiem ticēt?
Galvenais jautājums, kas paliek gaisā, ir: vai ir iespējams būt gan ētiskam MI līderim, gan militārajiem pakalpojumu sniedzējam? Anthropic sniedz skaidru “nē” atbildi. OpenAI, šķiet, uzskata, ka atbilde var būt “jā”. Laiks un tehnoloģiju attīstība parādīs, kuram no šiem ceļiem būs ilgtermiņa panākumi – ne tikai komerciāli, bet arī vēstures vērtējumā kā uzņēmumam, kas veidoja nākotni atbildīgi. Šis strīds, iespējams, ir tikai pirmais lielais sadursmes moments garajā ceļā, kas vēl priekšā.