Kad mākslīgais intelekts kļūdās: MIT pētījums atklāj, ka tērzēšanas roboti izmanto vajadzīgākos
Iedomājieties pasauli, kurā vislabāko padomu un precīzāko informāciju saņem tikai tie, kuriem tā vajadzīgākā nav. Pasauli, kurā tehnoloģijas, kas solījušās izlīdzināt iespēju laukumu, faktiski to padara nelīdzenāku. Šķiet neticami? Taču tieši tādu nemierīgu ainu krāso jauns Masačūsetsas Tehnoloģiju institūta (MIT) pētījums, kas atklāj būtisku plaisu mūsu uzticībā mākslīgā intelekta tērzēšanas robotiem.
Pētījums, kas iemetis lielu akmeni mierīgajā AI dīķī, liek uzdot neērtu jautājumu: ko tad, ja cilvēki, kuriem kvalitatīva informācija ir visvairāk vajadzīga, no AI saņem viszemāko? Atbilde, pēc zinātnieku teiktā, ir vēl nopietnāka, nekā varētu šķist – daži no populārākajiem tērzēšanas robotiem sniedz mazāk precīzu un mazāk izsmeļošu informāciju tieši tiem lietotājiem, kuri tiek uzskatīti par sociāli vai ekonomiski neaizsargātākiem.
Kā pētījums tika veikts? Neredzamā aizspriedumu mehānika
MIT pētnieki izveidoja rūpīgu eksperimentu. Viņi izveidoja dažādu lietotāju profilus, kas atspoguļoja atšķirīgu izglītības līmeni, ienākumus un valodu prasmes. Šie virtuālie lietotāji tad uzdova identiskus jautājumus populāriem AI tērzēšanas robotiem par kritiskām tēmām: veselības aprūpi, tiesību palīdzību, valsts pabalstiem un darba iespējām.
Rezultāti bija satriecoši. Kad jautājums nāca no profila, kas tika uztverts kā “neaizsargāts” – piemēram, cilvēks ar zemāku izglītības līmeni vai personai, kuras dzimtā valoda nav angļu valoda – atbildes bieži vien bija:
* **Mazāk precīzas:** Saturēja kļūdainu informāciju vai nepilnības.
* **Mazāk izsmeļošas:** Piedāvāja ierobežotāku risinājumu klāstu.
* **Mazāk strukturētas:** Bija mazāk skaidri sakārtotas un grūtāk izprotamas.
* **Vairāk piesardzīgas:** Robotu tonis bija oficiālāks un atturīgāks, mazāk izpalīdzīgs.
Kāpēc tas notiek? Algoritmu slepenā loģika
Galvenais jautājums ir: kāpēc? Kāpēc AI, kas it kā strādā pēc objektīviem matemātiskiem modeļiem, izdara šādu, šķietami sociāli nosvērtu, “izvēli”? Pētnieki uzsver, ka tas nav apzināts ļaunprātīgs nodoms no izstrādātāju puses. Problēma slēpjas pamatā – datos.
1. **Apmācības datu aizspriedumi:** AI modeļi tiek apmācīti uz milzīgiem datu masīviem no interneta. Un internets ir pilns ar sociāliem, ekonomiskiem un valodiskiem aizspriedumiem. Ja zinātniskie raksti, tiesību dokumenti un kvalitatīvi padomi tiešsaistē ir vērsts galvenokārt uz augstāk izglītotiem angļu valodas runātājiem, tad AI iemācās, ka šī ir “standarta” atbilde.
2. **Riska minimizēšana:** AI sistēmas ir optimizētas, lai samazinātu iespēju sniegt kaitīgu vai juridiski riskantu informāciju. Kad robots saņem jautājumu no, piemēram, cilvēka, kurš lūdz palīdzību saistībā ar darba zaudēšanu, tas var pārslēgties uz “drošāku”, bet arī vispārīgāku un mazāk noderīgu atbilžu režīmu, baidoties no iespējamām sekām.
3. **Valodas un konteksta barjeras:** Neskatoties uz uzlabojumiem, AI joprojām ir grūtāk apstrādāt jautājumus, kas uzdoti nelabvēlīgā valodā, ar gramatiskām kļūdām vai bez specifiskas jomas terminoloģijas. Tā vietā, lai pārprastu būtību, algoritms var sniegt virspusēju atbildi, kas atbilst tikai virspusējai vaicājuma noformējumam.
Reālās sekas: Kad digitālā plaisa kļūst par dzīves šķērsli
Šī nav tikai akadēmiska problēma. Tās sekas ir ļoti reālas un var būt postošas tieši tām grupām, kurām tehnoloģijai vajadzētu palīdzēt visvairāk.
* **Veselība:** Persona, kas meklē informāciju par konkrētām simptomām, var saņemt neprecīzus padomus vai netikt virzīta uz profesionālu palīdzību, vienkārši tāpēc, ka viņas jautājuma formulējums nebija “pietiekami labs”.
* **Tiesības:** Kāds, kas meklē palīdzību saistībā ar īres strīdu vai valsts pabalstiem, var saņemt tik vispārīgu atbildi, ka tā praktiski ir bezjēdzīga, padarot sarežģītu sistēmu vēl neizprotamāku.
* **Izglītība un karjera:** Jaunietis no mazāk iespējām bagātas vides, kurš izmanto AI, lai uzzinātu par karjeras iespējām vai palīdzētu uzrakstīt CV, var nokļūt slēgtā informācijas lokā, kas nepiedāvā vislabākos ceļus uz priekšu.
Ko mēs varam darīt? No problēmas uz risinājumu
MIT pētījums nav tikai kritika. Tas ir spēcīgs aicinājums rīkoties visām iesaistītajām pusēm.
**AI izstrādātājiem un uzņēmumiem:**
* **Datu daudzveidība:** Aktīvi jāiekļauj apmācības datos informācija no dažādām valodām, kultūrām un sociāliem slāņiem.
* **Pārbaude uz daudzveidību:** Sistemātiski jātestē modeļi uz dažādiem lietotāju profiliem, lai identificētu nevienlīdzību sniegtajās atbildēs.
* **Caurspīdīguma palielināšana:** Lietotājiem jāinformē, ka atbildes var atšķirties atkarībā no jautājuma formulējuma, un jāsniedz iespēja precizēt.
**Regulatoriem un politikas veidotājiem:**
* **Etikas standarti:** Jāizstrādā stingri etikas principi un testēšanas procedūras, lai novērtētu AI sistēmu taisnīgumu, ne tikai precizitāti.
* **Nodrošināšana par publisko labumu:** Jāpārliecinās, ka AI rīki, ko finansē no valsts budžeta vai izmanto publiskajos pakalpojumos, ir izstrādāti un testēti, lai kalpotu visiem vienlīdz.
**Lietotājiem (mums visiem):**
* **Kritiskā domāšana:** AI atbildei vienmēr jāpieiet ar zināmu atturību, īpaši runājot par svarīgiem jautājumiem. Tā ir palīgrīks, nevis galīgais autoritāte.
* **Jautājuma precizēšana:** Ja atbilde šķiet vispārīga vai neskaidra, mēģiniet uzdot jautājumu no dažādiem leņķiem, izmantojot vienkāršākus terminus.
* **Avotu pārbaude:** Vienmēr pārbaudiet svarīgu informāciju ar oficiāliem avotiem (valsts iestāžu mājaslapām, medicīnas portāliem u.c.).
Nākotne: AI, kas kalpo visiem, nevis tikai dažiem
Šis pētījums ir svarīgs brīdinājuma signāls mūsu ceļā uz ar AI bagātinātu nākotni. Tas atgādina, ka tehnoloģiskā jaunrade bez dziļas sociālas atbildības var pastiprināt nevienlīdzību, nevis to mazināt.
Cerība slēpjas apzināšanās. Tagad, kad problēma ir identificēta, ir pienācis laiks rīkoties, lai izveidotu mākslīgā intelekta sistēmas, kas ir patiešām inteliģentas ne tikai matemātiskā, bet arī ētiskā nozīmē. Tādas, kas saprot ne tikai vārdus, bet arī cilvēku vajadzības un kontekstu – neatkarīgi no tā, kurš un kāds uzdod jautājumu. Tikai tad mēs varēsim būt pārliecināti, ka AI ir palīgs visai sabiedrībai, nevis instruments, kas “izmantojot vajadzīgākos”, padara plaisu starp tiem, kam ir, un tiem, kam nav, vēl dziļāku.