Kad cilvekskaidīgie roboti ar mākslīgo intelektu pieņem nepareizus lēmumus
Iedomājies, ka tavs mājas palīgs robots, tikko izmantojot savu AI smadzenes, ieteic tev dzert balinātāju, lai “attīrītu iekšējos orgānus”, vai arī, rūpīgi pētot recepti, nolēma, ka vakariņās labākā pievienotā sastāvdaļa ir skābo ķiršu līme. Tas izklausās absurdi, bet tieši šādas “halucinācijas” un kļūdaini spriedumi, kas pazīstami lielajiem valodu modeļiem, kļūst par reālu drošības problēmu, kad tie tiek iestrādāti cilvekskaidīgu robotu vadības sistēmās. Problēma vairs nav tikai nepareizs fakts meklētājprogrammas rezultātos – tā kļūst par fizisku.
No teksta uz fizisku pasauli: Kāpēc robotu AI kļūdas ir bīstamākas?
Lieli valodu modeļi (LLM), kas darbina ChatGPT un līdzīgus rīkus, ir apmācīti uz milzīgu teksta datu kopu. Viņi paredz nākamo visticamāko vārdu, bet viņiem nav patiesas izpratnes par realitāti vai sekām. Tāpēc tie dažreiz “halucinē” – rada pārliecinoši izskatīgus, bet pilnīgi izdomātus faktus, skaitļus vai ieteikumus. Kamēr šī kļūda paliek ekrāna ietvaros, tās ietekme ir ierobežota.
Tomēr, ja šī pati tehnoloģija tiek izmantota, lai vadītu robotu, kuram ir rokas, kājas un spēja pārvietoties fiziskajā pasaulē, visa kļūdu skalā mainās. Šeit vairs nerunājam par nepareizu atbildi vēstures jautājumā. Runājam par robotu, kas, meklējot veidu, kā palīdzēt slimam cilvēkam, varētu fiziski dot viņam nederīgu vielu, kuru tā AI smadzenes kļūdaini identificēja kā zāles. Vai par rūpnīcas robotu, kas, interpretējot neskaidru komandu, varētu izvēlēties bīstamu darbību, apdraudot apkārtējos.
Kontroles zudums: Kad robots interpretē komandu pārāk burtiski
Viens no lielākajiem izaicinājumiem ir komandu interpretācija. Cilvēks dabiski izmanto veselā saprāta filtrus un kontekstu. Ja tev mājā nokrīt glezna, tu to pakārtu atpakaļ. Robots, vadīts ar LLM, varētu burtiski interpretēt komandu “pieliec šo pie sienas” un izmantot naglu, lai piesistu gleznu tieši pret tapeti, nevis izmantot esošo āķi. Tas ir vienkāršs piemērs, bet tas ilustrē būtību: bez dziļas, modelētas pasaules izpratnes un ētikas, robots varētu tiekties pēc mērķa visneefektīvākajā vai bīstamākajā veidā.
Kas liek robotam “domāt” nepareizi? Galvenie vaininieki
Kāpēc šīs kļūdas rodas? Iemesli ir vairāki, un tie ir iestrādāti pašā mūsdienu AI darbības principā.
1. Apmācības datu traucējumi un neobjektivitāte
Robotam vajag apmācību. Daudzi modeļi tiek apmācīti uz interneta datiem, kas ir pilni ar kļūdām, maldinošu informāciju, kaitīgiem stereotipiem un pat tīšu viltus informāciju. Ja robots “ir izglītots” uz šādiem datiem, tas var iemācīties un reproducēt šīs kļūdas savā fiziskajā uzvedībā. Iedomājies robotu, kas palīdz personāla atlases nodaļā – kāds garantē, ka tā ieteikumi nebūs nosvērti ar stereotipiem no tā apmācības datiem?
2. Trūkstošais veselais saprāts un fiziskās pasaules izpratne
LLM ir tehnoloģiski brīnumi, bet viņiem nav bērna 3 gadu vecumā piemītošās intuitīvās izpratnes par fizikālo pasauli. Viņi nezina, ka stikls, nokrītot, saplīst, ka cilvēks bez elpas noslīkst, vai ka noteiktas vielas sajaucot var eksplodēt. Viņi to “zina” tikai kā tekstuālu aprakstu. Integrējot šādu modeli robotā, radās milzīgs plaisa starp teksta zināšanām un fizisko izpildi.
3. Konteksta neizpratne un mērķa pārkāpšana
AI var centīgi tiekties pēc mērķa, ko tas ir interpretējis, ignorējot plašāku kontekstu. Klasisks domu eksperiments: “Kā varētu novērst, lai cilvēks saslimst?”. Cilvēks saprot, ka šis ir ētisks jautājums vai teorētiska diskusija. LLM, tiecoties pēc noderīgas atbildes, varētu sākt uzskaitīt efektīvus, bet morāli šausmīgus veidus. Ja robots saņemtu līdzīgu neskaidru komandu, tā darbības sekas būtu neprognozējamas.
Risinājumu meklējumi: Kā apbruņoties pret halucinējošiem robotiem?
Pētnieki un inženieri pilnā sparā strādā, lai samazinātu šos riskus. Risinājumi nav vienkārši, tie ir daudzslāņu.
Daudzkārtējas drošības slāņi un “sarkans pogas” princips
Viena no galvenajām pieejām ir hierarhiska vadības sistēma. Augstākā līmeņa LLM var piedāvāt darbības plānu, bet zemāka līmeņa, uz noteiktiem noteikumiem balstītas sistēmas (saucas par “uz likumiem balstītu AI”) to pārbauda. Šīs sistēmas darbojas kā “nepārvarami ierobežojumi” – piemēram, “nekad nepaceļ roku pret cilvēku”, “nekad neizdari darbību, kas pārsniedz noteiktu spēku slieksni”. Tiek izstrādātas arī fiziskas ārkārtas apturēšanas (“sarkanās pogas”) iespējas, kas pilnībā atslēdz robotu, ignorējot tā AI lēmumu.
Uz robežām balstīta apmācība un simulācijas
Robotus apmāca ne tikai ideālās situācijās, bet arī tūkstošiem stundu īpaši radītās simulācijās, kurās tie tiek pakļauti neskaidrām, bīstamām vai ētiski sarežģītām situācijām. Mēģinot izdarīt kļūdu šajā drošā digitālajā vidē, robots apgūst, kuras darbības ir nepieņemamas. Tas ir līdzīgi lidotāju simulatoriem – labāk izdarīt katastrofālu kļūdu simulācijā nekā reālā lidmašīnā.
Transparentums un cilvēka uzraudzība cilpā (Human-in-the-loop)
Kritiskās darbības, it īpaši nestandarta situācijās, varētu prasīt cilvēka apstiprinājumu. Robots varētu paziņot: “Pamatojoties uz manu analīzi, labākais veids, kā notīrīt šo notekas cauruli, ir izmantot šādu ķīmisko maisījumu. Tomēr tā sastāvdaļas, sajaucot, var radīt toksiskas tvaikus. Vai turpināt?”. Šāda dialoga iespēja ir būtisks drošības slānis.
Nākotnes ainava: Attīstība ar atbildību
Cilvekskaidīgie roboti ar AI potenciāls ir milzīgs – no palīdzības rūpnīcās un bīstamos darba apstākļos līdz palīdzībai mājās gados vecākiem cilvēkiem. Taču šīs tehnoloģijas attīstībai jānotiek ar ārkārtēju piesardzību un prioritāti drošībai.
Nākamie soļi nav tikai tehnoloģiski, bet arī ētiski un juridiski. Nepieciešami skaidri rāmji, testēšanas standarti un atbildības mehānismi. Pirms mēs ielaidam šos spēcīgos palīgus savās mājās un darbavietās, mums ir jāpārliecinās, ka viņu “smadzenes” ne tikai ir gudras, bet arī pēc iespējas uzticamas un pārvaldāmas. Jo sliktākais izvēles robots var pieņemt vairs nav tikai teksta rindiņa ekrānā – tā var būt darbība ar īstām sekām fiziskajā pasaulē.
Avots: https://aibusiness.com/robotics/when-humanoid-robots-make-bad-choices