Skip to main content

AI kā jaudīgs zinātnieku instruments: kā izvairīties no pētījumu neētikas ar mākslīgo intelektu

AI zinātnē – lielas iespējas un riski

Ešera stilam līdzīga struktūra, kas attēlo AI modeļa sabrukšanas konceptu. Attēlā redzama spirālveida labirinta dizains, kas simbolizē rekursīvu cilpu, kurā algoritmi barojas no pašu radītiem sintētiskajiem datiem. Digitālais troksnis un haoss ir iepīts visā attēlā, uzsverot internetā arvien vairāk sastopamā AI ģenerētā satura nekārtību. Uroborosa – čūskas, kas norij savu asti – vizuālā metafora simbolizē AI apmācības ciklu uz pašas radītām izvadēm.Nadia Piet & Archival Images of AI + AIxDESIGN / Model Collapse / Licence CC-BY 4.0

Autori: Džons Vitls, CSIRO un Stefans Harers, CSIRO

Šī gada februārī Google paziņoja par jaunas AI sistēmas ieviešanu zinātniekiem. Tā aprakstīja šo sistēmu kā sadarbības rīku, kas palīdzētu zinātniekiem “veidot jaunas hipotēzes un pētījumu plānus”.

Vēl ir pārāk agri spriest, cik noderīgs šis konkrētais rīks būs zinātniekiem. Taču ir skaidrs, ka mākslīgais intelekts (AI) jau tagad pārveido zinātni.

Piemēram, pagājušajā gadā datorzinātnieki saņēma Nobela prēmiju ķīmijā par AI modeļa izstrādi, kas spēj paredzēt visas cilvēcei zināmās olbaltumvielu formas. Nobela komitejas priekšsēdētājs Heiners Linke aprakstīja šo AI sistēmu kā “50 gadus veca sapņa” īstenošanu, kas atrisināja slaveni sarežģītu problēmu, kas zinātniekus mocījusi kopš 1970. gadiem.

Taču, lai gan AI ļauj zinātniekiem veikt tehnoloģiskus sasniegumus, kas citādi būtu nepieejami, pastāv arī tumšāka puse – zinātniskās nepilnības pieaug.

AI atvieglo pētījumu viltošanu

Akadēmiskos rakstus var atsaukt, ja to dati vai atklājumi vairs nav derīgi. Tas var notikt datu viltošanas, plagiatu vai cilvēka kļūdu dēļ.

Rakstu atsaukšanas pieaug eksponenciāli, 2023. gadā pārsniedzot 10 000. Šie atsauktie raksti tika citēti vairāk nekā 35 000 reižu.

Viens pētījums atklāja, ka 8% holandiešu zinātnieku atzina nopietnu pētījumu viltošanu, kas ir divreiz vairāk nekā iepriekš ziņots. Biomedicīnas rakstu atsaukšanas ir četrkāršojušās pēdējos 20 gados, lielākoties nepilnību dēļ.

AI var šo problēmu vēl vairāk pasliktināt.

Piemēram, ģeneratīvo AI programmu, piemēram, ChatGPT, pieejamība un augošās iespējas padara pētījumu viltošanu vienkāršu.

To skaidri parādīja divi pētnieki, kuri izmantoja AI, lai ģenerētu 288 pilnībā viltotus akadēmiskos finanšu rakstus, kas paredzēja akciju atdevi.

Lai gan šis bija eksperiments, lai parādītu iespējamo, nav grūti iedomāties, kā šī tehnoloģija varētu tikt izmantota viltotu klīniskās izmēģinājumu datu, gēnu rediģēšanas eksperimentu datu modificēšanai, lai slēptu nelabvēlīgus rezultātus, vai citiem ļaunprātīgiem mērķiem.

Viltoti atsauces un izdomāti dati

Jau ir daudz ziņotu gadījumu, kad AI ģenerēti raksti ir izturējuši ekspertu vērtēšanu un nonākuši publikācijā – tikai lai vēlāk tiktu atsaukti, pamatojoties uz neziņotu AI lietošanu, daži satur nopietnas kļūdas, piemēram, viltotas atsauces un apzināti izdomātus datus.

Daži pētnieki izmanto AI arī savu kolēģu darbu vērtēšanai. Zinātnisko rakstu ekspertu vērtējums ir viens no zinātniskās integritātes pamatiem. Taču tas ir arī neticami laikietilpīgs, daži zinātnieki veltot simtiem stundu gadā bezmaksas darbam. Stanforda vadīts pētījums atklāja, ka līdz 17% ekspertu vērtējumu vadošajām AI konferencēm bija vismaz daļēji rakstīti ar AI palīdzību.

Ekstrēmā gadījumā AI varētu rakstīt pētījumu rakstus, kurus tad vērtētu cits AI.

Šis risks pastiprina jau problemātisko tendenci – eksponenciālu zinātnisko publikāciju pieaugumu, kamēr vidējais patiesi jaunā un interesantā materiāla daudzums katrā rakstā ir samazinājies.

AI var arī novest pie neapzinātas zinātnisko rezultātu viltošanas.

Pazīstama ģeneratīvo AI sistēmu problēma ir tad, kad tās izdomā atbildi, nevis atzīst, ka nezina. To sauc par “halucināciju”.

Mēs nezinām, cik bieži AI halucinācijas nonāk kļūdās zinātniskajos rakstos. Taču nesens pētījums par programmēšanu atklāja, ka 52% AI ģenerētajās atbildēs uz programmēšanas jautājumiem bija kļūdas, un cilvēka uzraudzība nespēja tās labot 39% gadījumu.

Maksimāla labuma gūšana, minimālu risku nodrošināšana

Neskatoties uz šīm satraucošajām tendencēm, mums nevajadzētu pārspīlēt un atturēt vai pat nosodīt AI lietošanu zinātnieku vidū.

AI zinātnei piedāvā ievērojamas priekšrocības. Pētnieki jau daudzus gadus izmanto specializētus AI modeļus zinātnisku problēmu risināšanai. Un ģeneratīvie AI modeļi, piemēram, ChatGPT, sola daudzpusīgus AI zinātniskos asistentus, kas var veikt dažādus uzdevumus, sadarbojoties ar zinātnieku.

Šie AI modeļi var būt spēcīgi laboratorijas asistenti. Piemēram, CSIRO pētnieki jau izstrādā AI laboratorijas robotus, ar kuriem zinātnieki var sarunāties un norādīt kā cilvēkam, lai automatizētu atkārtojošus uzdevumus.

Traucējošai jaunai tehnoloģijai vienmēr būs priekšrocības un trūkumi. Zinātnes kopienas izaicinājums ir izveidot atbilstošus noteikumus un drošības pasākumus, lai nodrošinātu maksimālu labumu un minimālus riskus.

AI potenciāls mainīt zinātnes pasauli un palīdzēt zinātnei padarīt pasauli labāku vietu jau ir pierādīts. Tagad mums ir izvēle.

Vai mēs pieņemsim AI, aizstāvot un izstrādājot AI rīcības kodeksu, kas nodrošina ētisku un atbildīgu AI lietošanu zinātnē? Vai arī mēs paliksim malā un ļausim salīdzinoši nelielam skaitam negodīgu aktieru diskreditēt mūsu jomas un palaist garām šo iespēju?The Conversation

Džons Vitls, Direktors, Data61, CSIRO un Stefans Harers, Direktors, AI zinātnei, CSIRO

Šis raksts ir publiskots no The Conversation ar Creative Commons licenci. Lasiet oriģinālo rakstu.

https://aihub.org/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *