Skip to main content

Google un OpenAI darbinieki sacēlušies: “Mēs tam nepiekritām!”

Silikona ielejā šonedēļ ir jūtamas pārmaiņas. Vairāk nekā 200 Google un OpenAI darbinieku ir vērsušies pie saviem darba devējiem ar skaidru prasību: noteikt stingrus un ētiskus robežnoteikumus tam, kā mākslīgā intelekta tehnoloģijas var tikt izmantotas militāros nolūkos. Šis privātais, bet ļoti skaļais protests, kā ziņo Axios, ir skaidrs signāls – inženieri un pētnieki ir arvien nemierīgāki par to, kā tiek izmantoti viņu radītie AI rīki. Un godīgi? Ir pilnīgi skaidrs, kāpēc.

No e-pasta palīdzēm līdz kara lauka logistikai: AI maina pielietojumu

Vēl pirms pāris gadiem mākslīgais intelekts galvenokārt tika saistīts ar draudzīgiem palīgiem, kas palīdz uzrakstīt e-pastu, ģenerēt grafiku vai ieteikt filmu. Tomēr attīstības temps ir eksponenciāls. Šodien sarunas par AI vairs nenotiek tikai tehnoloģiju portālos, bet arī militāro stratēģiju centros un valstu apsardzes departamentos. Runā par kara lauka loģistiku, masveida uzraudzības sistēmām un, iespējams, visbīstamāk – par autonomiem ieročiem, kas spēj patstāvīgi pieņemt lēmumus par mērķa iznīcināšanu. Šis ir kvalitatīvi jauns līmenis, un daudziem to radītājiem tas rada pamatotus sirdsapziņas pārmaiņus.

Darbinieku vēstule: Ētika un atbildība pirms peļņas

Informācija liecina, ka protesta viļņa centrā ir iekšēja vēstule vai prasības, ko darbinieki ir nosūtījuši vadībai. Viņu galvenais arguments ir tas, ka, strādājot pie AI, viņi tiecās uzlabot cilvēces labklājību, veidot rīkus, kas atvieglo dzīvi un paplašina zināšanas. Militāra rakstura līgumi un tehnoloģiju pielietojums ienaidnieka neitralizēšanai ir tieši pretējs šiem sākotnējiem ideāliem. Darbinieki uzsver, ka uzņēmumiem kā Google un OpenAI, kuri pozicionē sevi kā inovācijas un atvērtības līderus, ir īpaša atbildība. Viņi nevar vienkārši “pārdot dūšu” un attīstīt tehnoloģijas bez skaidriem ētiskiem ierobežojumiem, ļaujot tām kļūt par kāda valsts militārā mašīnērijas daļu.

Kāpēc tas ir tik svarīgi? Bīstamība slēpjas autonomijā

Būtībā, bailes nav no pašas tehnoloģijas kā tādas. Militāriem nolūkiem izmanto jebkuru jaunu atklājumu – no interneta līdz GPS. Galvenā problēma ar AI, īpaši attiecībā uz autonomiem ieročiem, ir **lēmumu pieņemšanas pārcelšana no cilvēka uz algoritmu**. Kad ierocis spēj patstāvīgi identificēt mērķi un pieņemt lēmumu par uzbrukumu, tas rada neaptveramu atbildības vakuumu. Kurš būs atbildīgs par kļūdu? Programmētājs? Algoritms? Ģenerālis, kurš to ieslēdza? Šī “melnā kaste” fenomenu un neiespējamību pilnībā izprast, kā sarežģīts AI modelis pieņēma konkrētu lēmumu, izraisa milzīgas ētiskas bažas.

Vēsturiska atkārtošanās? Atgādinājums no “Projekta Maven”

Google jau ir piedzīvojis līdzīgu krīzi 2018. gadā, kad tika atklāts “Projekts Maven” sadarbība ar ASV Aizsardzības departamentu, kuras mērķis bija uzlabot mērķu identificēšanu ar AI palīdzību. Tūkstošiem darbinieku sacēlās, vairāki atkāpās no amatiem protesta zīmē, un beigās Google nolēma nepagarināt līgumu un izstrādāt savus ētikas principus. Šobrīd notiekošais var būt vēl lielākas mēroga atkārtošanās, jo AI iespējas ir daudz plašākas, un pie galda sēž ne tikai Google, bet arī OpenAI – kompānija, kuras misija oficiāli ir “nodrošināt, lai vispārējais mākslīgais intelekts nesniegtu labumu visai cilvēcei”.

Kādas varētu būt sekas? Iespējamie scenāriji

Šis darbinieku dumpis varētu izvērsties vairākos virzienos. Optimistisks scenārijs: uzņēmumu vadība noliekas un kopā ar ētikas komisijām un ārējiem ekspertiem izstrādā stingrus, publiskus un pārredzamus principus, kas aizliedz AI izmantošanu nāvējošos autonomos ieročos un ierobežo tās lomu militārajā sektorā. Tas stiprinātu uzticību gan darbinieku, gan sabiedrības vidū.

Pesimistisks scenārijs: spiediens no militāriem līgumiem un milzīgajiem budžetiem izrādās pārāk liels. Daži darbinieki, kas nevar samierināties ar šo virzienu, pamet uzņēmumus, radot “smadzeņu aizplūšanu”. Tehnoloģija tik un tā tiek attīstīta, bet šķirās “sarkano līniju” šķērsošanas ziņā, un sabiedrības uzticēšanās tehnoloģiju gigantiem sarūk.

Nākotnes izaicinājums: kur velk robežu?

Pati grūtākā daļa būs vienoties par to, **kur tieši velk tā robeža**. Vai AI var palīdzēt analizēt satelītu attēlus, lai novērstu uzbrukumus? Vai tā var kontrolēt pretgaisa aizsardzības sistēmas? Vai tā var izmantot psiholoģiskās operācijas? Katrs no šiem jautājumiem ir ētisks mīns. Darbinieku protesta galvenais mērķis ir panākt, lai šīs sarunas notiktu tagad, atklāti un pirms tehnoloģija ir tik attīstīta, ka tās aizturēšana būs neiespējama.

Viens ir skaidrs: laiks naivitātei ir beidzies. AI pētnieki un inženieri tagad pilnībā apzinās savas radīšanas milzīgo potenciālu gan labam, gan ļaunam. Viņu balss, kas skan no iekšpuses, ir vissvarīgākais brīdinājuma signāls, ko sabiedrība un regulatori var saņemt. Cīņa par AI dvēseli ir sākusies, un tās frontes līnija iet caur Silikona ielejas ofisiem.

Avots: https://ai2people.com/google-and-openai-workers-this-isnt-what-we-signed-up-for/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *