Skip to main content

Anthropic atsakās no stingrākās drošības politikas: vai mākslīgais intelekts kļūst par risku tirgus spiediena dēļ?

Iedomājieties, ka uzņēmums, kurš visu savu pastāvēšanu ir cēlis kā “drošākā AI” aizstāvis, pēkšņi maina kursu. Tieši tā ir noticis ar Anthropic, izcilo AI pētnieku kompāniju, kuras dibinātāji ir bijuši tieši tie cilvēki, kuri brīdināja par AI eksistenciālo draudu. Nesen publicētie iekšējie dokumenti, kurus atklājis AI Business, liecina, ka uzņēmums ir ievērojami vājinājis savu iekšējo politiku par to, kad un kā izlaist jaunus mākslā intelekta modeļus. Šis solis, kas acīmredzami veikts, lai konkurētu ar tādiem milžiem kā OpenAI un Google, izraisa nopietnas bažas par rūpniecības nākotni un drošību.

Vēl nesen Anthropic stingri apsolīja izlaist tikai tos AI modeļus, kurus tas klasificē kā “drošus”. Tagad šī vērtība, šķiet, ir pakļauta tirgus realitātēm. Kāpēc uzņēmums, kas tika dibināts ar ētiku kā pamatakmeni, maina savu stāju? Un ko tas nozīmē mums visiem – no parastajiem lietotājiem līdz globālai sabiedrībai, kura arvien vairāk paļaujas uz AI?

No “Drošība pirmajā vietā” līdz “Izlaist un labot”: Politikas pavērsiena detaļas

Anthropic ir pazīstams ar savu konstitūciju līdzīgo uzņēmuma struktūru, kurā drošības principi ir iestrādāti tā kodā. Viņu iepriekšējā politika bija skaidra: ja modelis netika novērtēts kā pietiekami drošs, tas netika izlaists. Periods. Šis bija viņu uzticības zīmogs un galvenā atšķirība no konkurentiem.

Tomēr saskaņā ar iegūtajiem materiāliem, uzņēmums ir atjauninājis savus iekšējos vadlīnijas. Tagad jaunā pieeja pieļauj iespēju izlaist modeļus, kuriem varētu būt “ierobežotas zināmas negatīvas sekas”, ar nosacījumu, ka Anthropic izstrādā un ieviess risinājumus šo problēmu novēršanai vai mazināšanai. Citiem vārdiem sakot, politika ir pārvērties no preventīvas “drošības pārbaudes pirms izlaišanas” uz reaktīvu “izlaist un pēc tam risināt problēmas, tiklīdz tās parādās”.

Kādi ir tieši šie “ierobežotie riski”?

Dokumenti norāda, ka runa varētu būt par iespējām, kā AI varētu palīdzēt izveidot kaitīgu saturu (piemēram, dezinformācijas kampaņas), pastiprināt sociālas nevienlīdzības vai rast neparedzētas ievaddatu atkarības. Iepriekš šādi sarkanie karogi būtu apturējuši jebkuru izlaišanu. Tagad tie kļūst par pārvaramiem šķēršļiem, ja uzņēmums uzskata, ka var tās “pārvaldīt”.

Tirgus spiediens: īstais vaininieks aiz drošības kompromisiem?

Nav noslēpums, ka AI tirgus ir kļuvis ārkārtīgi saspringts. OpenAI ar ChatGPT un Google ar Gemini ir iegūjuši milzīgu lietotāju bāzi un mediju uzmanību. Investori, kuri Anthropic ir ielicis simtiem miljonu dolāru, grib redzēt augšupeju un konkurences spēju. Šajā sacensībā par līderību pirmajā pozīcijā, izskatās, ka rūpes par ilgtermiņa drošību tiek pakāpeniski aizstātas ar vajadzību pēc ātrākiem produktu cikliem un lielāka tirgus daļa.

Vai tas ir neizbēgams kompromiss?

Daudzi nozares eksperti jau sen ir brīdinājuši, ka starp biznesa ambīcijām un ētisku attieksmi pastāv fundamentāla spriedze. Anthropic bija cerību stars, kas pierādīja, ka var būt citādi – ka var veidot rentablu biznesu, nepiedodot principus. Šī politikas maiņa, kaut arī maza, izskatās pēc pirmā lielā kompromisa. Tas rada jautājumu: ja pat visdrošības apzinātākais spēlētājs nevar izturēt tirgus spiedienu, kas liks to darīt pārējiem?

Ko tas nozīmē parastajiem lietotājiem un sabiedrībai?

Šīs izmaiņas nav tikai iekšēja uzņēmuma lieta. Tām varētu būt reālas sekas.

1. Pazemināta sliekšņa vērtība visai nozarei.

Ja Anthropic, kas uzskatāms par drošības zelta standartu, sāk atslābināt savus noteikumus, tas rada precedentu citiem uzņēmumiem, lai attaisnotu savus ātrākus, bet riskantākus izlaišanas ritmus. “Ja viņi to dara, kāpēc mēs nevaram?” var kļūt par jauno moto.

2. Potenciāli lielāka kaitējuma iespējamība.

Reaktīva “labošana pēc fakta” pieeja nozīmē, ka kāds jau varētu būt cietis no kaitīga satura, novirzīta uzvedības vai cita negatīva seku, pirms uzņēmums problēmu novērš. Drošības pārbaudes pirms izlaišanas ir kā vakcinācija – tās novērš problēmu, pirms tā parādās.

3. Uzticības erozija.

Lietotāji un uzņēmumi, kuri izvēlējās Anthropic tieši tāpēc, ka uzticējās viņu stingrajam drošības solījumam, tagad var justies apmānoti. Ilgtermiņā tas var kaitēt ne tikai Anthropic reputācijai, bet arī sabiedrības uzticībai visai AI nozarei.

Nākotnes perspektīva: vai drošība vēl ir prioritāte?

Galvenais jautājums, kas rodas pēc šīs ziņas, ir: vai AI drošības joma atkal zaudē cīņu pret peļņas gūšanu? Anthropic pārstāvji oficiāli apstiprina, ka drošība paliek viņu pamatprincips, un ka jaunā politika ir tikai tehnisks regulējums, lai nodrošinātu lielāku elastību. Kritiķi tomēr redz šajā solī bīstamu tendenci.

AI attīstās ātrāk nekā jebkura cita tehnoloģija vēsturē. Regulēšana vēl atpaliek. Šajā brīvības telpā uzņēmumu pašregulēšanai bija milzīga nozīme. Ja vadošie spēlētāji sāk atkāpties no stingriem pašnoteikumiem, tas rada spēcīgu signālu regulatoriem visā pasaulē, ka pats nozares paškontrole var nebūt pietiekama. Tā rezultātā varētu sekot daudz stingrāki un, iespējams, inovāciju kavējoši valsts likumi.

Vai ir cerība?

Pozitīvs skatījums liecina, ka šī situācija var mudināt lielāku atklātību un diskusijas par to, kā līdzsvarot inovācijas un drošību. Sabiedrības spiediens, investoru prasības pēc ētiskām ieguldījumu prakšēm un talantīgo darbinieku vēlme strādāt tikai atbildīgos uzņēmumos var būt tie spēki, kas noturēs nozari pareizajā kursā.

Viena lieta ir skaidra: Anthropic lēmums vājināt savu drošības politiku nav tikai iekšēja korporatīva lieta. Tas ir signāls visai nozarei un pasaulei, ka lielākā AI sacensība varbūt ir sasniegusi punktu, kur principi sāk līst zem biznesa vajadzībām. Un tas ir signāls, uz kuru mums visiem jāpievērš uzmanība, jo no tā, kā šī dilemma tiks atrisināta, ir atkarīga mūsu digitālā un fiziskā drošība nākotnē.

Avots: https://aibusiness.com/generative-ai/anthropic-downgrades-its-ai-safety-policy

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *