Skip to main content

OpenAI gatava pielāgot drošības prasības, ja konkurenti izlaidīs bīstamu mākslīgo intelektu

Pēdējā laikā mākslā intelekta (MI) drošība ir kļuvusi par vienu no nozīmīgākajām tēmām tehnoloģiju pasaulē. OpenAI, viens no vadošajiem MI pētniecības uzņēmumiem, nesen atjaunināja savu “Gatavības struktūru” (Preparedness Framework), norādot, ka tas varētu mainīt savas drošības prasības, ja konkurenti sāktu izplatīt augsta riska MI sistēmas bez atbilstošiem aizsardzības mehānismiem.

Kas ir OpenAI Gatavības struktūra?

Gatavības struktūra ir iekšējs dokuments, kas palīdz OpenAI novērtēt, vai jaunās MI modeļi ir pietiekami droši, kā arī noteikt, kādi drošības pasākumi ir nepieciešami to izstrādes un izplatīšanas laikā. Šis dokuments tiek regulāri atjaunināts, lai atbilstu strauji mainīgajai MI attīstības videi.

Pēdējā atjauninājumā uzņēmums ir pievienojis jaunu punktu, kas ļauj pielāgot drošības standartus atkarībā no konkurentu rīcības. “Ja cits MI laboratorijas izlaiž augsta riska sistēmu bez mūsu uzskatāmajām nepieciešamajām drošības pasākumiem, mēs varētu pārskatīt savas prasības,” norāda OpenAI paziņojumā.

Kāpēc šīs izmaiņas ir svarīgas?

Šīs izmaiņas atspoguļo pieaugošo konkurenci MI jomā un uzņēmuma vēlmi saglabāt līdzsvaru starp inovācijām un drošību. OpenAI pārstāvji uzsver, ka viņu galvenais mērķis ir nodrošināt, lai MI attīstība notiktu atbildīgi, bet tajā pašā laikā viņi nevēlas atpalikt no konkurentiem.

MI drošības eksperti izteikuši dažādas viedokļus par šo pārmaiņu:

  • Daži uzskata, ka tā ir saprātīga pieeja, lai saglabātu konkurētspēju
  • Citi brīdina, ka tas var radīt “drošības sacensību uz leju”
  • Trešā grupa uzsver, ka ir nepieciešamas starptautiskas MI drošības standartu vadlīnijas

Kas tiek uzskatīts par “augsta riska” MI sistēmu?

Saskaņā ar OpenAI dokumentiem, augsta riska sistēmas ir tās, kuras var:

  • Radīt ievērojamu sociālo vai ekonomisko traucējumu
  • Būt izmantojamas kiberdrošības uzbrukumiem
  • Radīt masveida dezinformāciju
  • Darboties ārpus cilvēka kontroles

Uzņēmums uzsver, ka pašlaik neviena no viņu publiski pieejamajām sistēmām (tostarp GPT sērijas modeļi) neatbilst šiem augsta riska kritērijiem. Tomēr nākotnes modeļi, it īpaši tie, kas tuvos cilvēka līmeņa vispārīgajai mākslīgajai inteliģencei (AGI), varētu iekrist šajā kategorijā.

Kādas varētu būt drošības prasību izmaiņas?

OpenAI nav precizējis, kādi tieši pielāgojumi varētu notikt, bet eksperti izvirza vairākas iespējas:

  1. Paātrināta jaunu modeļu izlaišana ar mazāk testēšanas
  2. Atteikšanās no dažiem pašreizējiem drošības ierobežojumiem
  3. Mainīta pieeja modeļu pētnieciskai izplatīšanai
  4. Atjaunināti risku novērtēšanas kritēriji

Kāda ir nozīmīgākā kritika par šo pieeju?

Vadošie MI drošības pētnieki izteikuši bažas, ka šāda “reaktīva” pieeja var radīt bīstamu precedentu. Ja katrs uzņēmums sāks samazināt drošības standartus, pamatojoties uz konkurentu rīcību, tas var novest pie straujas drošības pasākumu atslābšanas visā nozarē.

MI ētikas speciāliste Dr. Anna Bērziņa komentē: “Tas ir kā sacensības, kurās visi pakāpeniski atbrīvojas no drošības jostām. Rezultātā varam nonākt situācijā, kad neviens vairs nespēj kontrolēt attīstības procesu.”

Kādas ir alternatīvas?

Daži eksperti ierosina citus risinājumus:

  • Starptautisku MI regulējumu izstrāde
  • Nozares pašregulējuma mehānismu stiprināšana
  • Neatkarīgu trešo pušu audita ieviešana
  • Atklātāka informācijas apmaiņa par drošības riskiem

Kādas sekas varētu būt lietotājiem?

Parastiem lietotājiem šīs izmaiņas sākumā varētu nebūt pamanāmas. Tomēr ilgtermiņā tas var ietekmēt:

  • MI produktu kvalitāti un drošību
  • Pieejamo funkciju klāstu
  • Datu privātuma aizsardzības līmeni
  • Vispārējo uzticēšanos MI tehnoloģijām

OpenAI uzsver, ka jebkādas izmaiņas drošības politikā tiks veiktas pēc rūpīgas izvērtēšanas un ar minimālu risku lietotājiem. Uzņēmums solījis turpināt regulāri publicēt atskaites par modeļu drošību un risku pārvaldību.

Ko šis nozīmē nākotnei?

Šis OpenAI solis var būt tikai pirmais no daudzajiem līdzīgiem pārmaiņām MI nozarē. Tā kā tehnoloģijas attīstās arvien ātrāk, bet regulējošie mehānismi atpaliek, uzņēmumi paši izstrādā iekšējos vadlīnijas, kas nereti ir pretrunā ar citu laboratoriju pieejām.

MI nākotnes scenāriji tagad ir atkarīgi ne tikai no tehnoloģiskā progresa, bet arī no tā, kā lielākie spēlētāji izvēlēsies balansēt starp inovācijām un drošību. Vai nozare spēs saglabāt kopīgus drošības standartus, vai arī katrs uzņēmums sāks darboties pēc saviem noteikumiem – tas jau drīz parādīsies.

Avots: https://techcrunch.com/2025/04/15/openai-says-it-may-adjust-its-safety-requirements-if-a-rival-lab-releases-high-risk-ai/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *