Kad mākslīgais intelekts iziet ārpus kontroles: kurš uzņemas atbildību?
Mēs dzīvojam laikmetā, kad mākslīgais intelekts (MI) pārveido visu – no tā, kā strādājam, līdz tam, kā sazināmies un pat kā domājam. Bet ko notiek, kad šī spēcīgā tehnoloģija darbojas nepareizi, rada kaitējumu vai pieņem diskriminējošus lēmumus? Šis jautājums vairs nav tikai filozofu vai tehnoloģiju entuziastu diskusiju temats. Nesen Apvienoto Nāciju ģenerālsekretārs uzsvēra, ka atbildības jautājums par MI darbību ir kļuvis par globālu un ģeopolitiski nozīmīgu problēmu, kas prasa tūlītēju uzmanību gan no valstu vadītājiem, gan no tehnoloģiju nozares līderiem.
Klusais brīdinājums, kas atskanēja visā pasaulē
AN ģenerālsekretāra komentāri nebija nejauša paziņojuma daļa. Tie bija apzināts un skaidrs signāls: mūsu spēja radīt jaunas tehnoloģijas ir apsteigususi mūsu spēju tās efektīvi regulēt un kontrolēt. Brīdinājums ir vērsts uz būtisku tukšumu esošajos tiesiskajos sistēmu – trūkumu skaidrām vadlīnijām un mehānismiem, lai noteiktu atbildību, kad sarežģīti algoritmi kļūdās.
Iedomājieties situāciju: autonomais auto pieņem lēmumu, kas noved pie negadījuma. Vai atbildīgs ir automašīnas īpašnieks, programmatūras izstrādātājs, sensoru ražotājs vai pat algoritma “audzinātāji”? Vai arī scenāriju, kurā automatizēta atlases sistēma, kas izmanto MI, sistemātiski diskriminē noteiktas sociālas grupas darba intervijās, kredītu piešķiršanā vai tiesu spriešanā. Kurš tad uzņemas atbildību? Šie nav hipotētiski jautājumi – tie ir reāli izaicinājumi, ar kuriem sabiedrība jau saskaras.
Atbildības migla: izstrādātājs, operators vai pat algoritms pats?
Pašlaik atbildības jautājums ir pelēkā zonā. Pastāv vairāki iespējamie “atbildīgās personas” kandidāti:
* **Izstrādātāji un programmētāji:** Vai tie, kas radīja algoritmu, ir atbildīgi par visām tā darbības sekām, pat ja tās ir neparedzamas? MI sistēmas bieži vien mācās un attīstās tādā veidā, ko pat to radītāji pilnībā nesaprot.
* **Operatori un lietotāji:** Vai atbildība krīt uz pleciem tiem, kas izmanto rīku – uzņēmumam, kas iegādājās MI risinājumu, vai valsts iestādei, kas to ievieš?
* **Datu piederētāji:** Vai kļūdas pamatā var būt neobjektīvi, nepilnīgi vai aizspriedumainie apmācības dati, un vai tad atbildība nesasniedz tos, kas šos datus sniedza?
* **Pats algoritms:** Vai mums vajadzētu piešķirt kaut kādu juridisku statusu pašam MI agentam? Šī ideja, lai arī radikāla, tiek apspriesta juristu aprindās.
AN vēstījums uzsver, ka šī migla ir bīstama. Ja nav skaidrs, kurš ir atbildīgs, tad nav iespējams nodrošināt taisnīgu atlīdzību cietušajiem, nevar efektīvi sodīt pārkāpējus un, pats svarīgākais, nevar novērst līdzīgu incidentu atkārtošanos nākotnē.
Ģeopolitika un tehnoloģiskais sacensību laikmets
Kāpēc AN, galvenā globālā diplomātijas platforma, ir tik nobažījusies par šo jautājumu? Atbilde slēpjas tehnoloģiju un varas krustpunktā. MI ir kļuvis par stratēģisku ieroči nacionālo interešu konkurencē. Valstis sacenšas par tehnoloģisko pārākumu, bet šīs sacensības nereti notiek bez pietiekamiem drošības tīkliem un ētikas normām.
Valstis ar stingrākiem regulējumiem varētu justies bremzētas konkurencē pret tām, kurās noteikumi ir brīvāki. Tas rada risku par “regulējuma lejupslīdi”, kur valstis, lai piesaistītu tehnoloģiju uzņēmumus, vājina savus standartus. AN brīdinājums ir aicinājums uz starptautisku sadarbību un konsensu par pamatprincipiem, lai izvairītos no nekontrolējamas attīstības, kas varētu apdraudēt globālo stabilitāti un cilvēktiesības.
Nozare pati sev nav tiesnesis: robeža starp inovācijām un atbildību
Tehnoloģiju giganti ir milzīgu inovācijas un ekonomiskā augšanas dzinēji. Taču AN vēstījums skaidri norāda, ka nozares pašregulējums vien nepietiek. Uzņēmumu intereses – peļņa, tirgus daļa un attīstības temps – var dažkārt nonākt konfliktā ar sabiedrības interesi pēc drošības, privātuma un taisnīguma.
Tāpēc ir nepieciešami neatkarīgi, demokrātiski izveidoti regulējumi, kas nosaka skaidrus “sarkanos apļus” – lietas, ko MI nedrīkst darīt neatkarīgi no tā, cik tas būtu efektīvi. Tas ietver aizliegumus izmantot MI masveida uzraudzībai, sociālajai vērtēšanai vai letāliem autonomiem ieročiem ārpus stingras cilvēku kontroles.
Ceļš uz priekšu: kādam jābūt atbildīgam MI?
Tātad, kāds ir risinājums? Eksperti un AN aicina uz vairāku līmeņu pieeju:
1. **Cilvēka kontroles un pārskatāmības princips:** Jebkurai MI sistēmai jābūt tādai, lai cilvēks varētu saprast, interpretēt un pārskatīt tās lēmumus. “Melnās kastes” algoritmi, kuru darbība ir nesaprotama, ir nepieņemami kritiskās nozīmes jomās.
2. **Proporcionālas atbildības modeļi:** Tiesiskajām sistēmām jāattīsta tādi mehānismi, kas ļauj sadalīt atbildību proporcionāli starp izstrādātājiem, izvietotājiem un operatoriem atbilstoši to ietekmes pakāpei un kontroles līmenim.
3. **Obligāta riska novērtēšana un atbilstība:** Pirms MI sistēmas ieviešanas būtu obligāti jāveic tās ietekmes un risku novērtējums cilvēktiesībām, demokrātijai un sociālajai taisnīgumam.
4. **Starptautiski sadarbības veicināšana:** AN var darboties kā platforma, lai izstrādātu globālus pamatprincipus, līdzīgi tam, kā tas tika darīts ar klimata pārmaiņām vai kodolieročiem. Mērķis nav apslāpēt inovācijas, bet nodrošināt, lai tās kalpotu visai cilvēcei.
Secinājums: Brīdinājums ir dzirdēts – rīcības laiks ir tagad
AN ģenerālsekretāra “klusais brīdinājums” patiešām ir atskanējis skaļi. Tas ir signāls visai sabiedrībai, likumdevējiem, uzņēmējiem un pētniekiem. Jautājums “Kurš ir atbildīgs?” vairs nav tikai tehniskas detaļas. Tas ir pamatjautājums par to, kādu nākotni mēs vēlamies veidot.
Mēs stāvam pie krustceļiem. Viena ceļa virzienā ir nākotne, kurā neprecēti tehnoloģiju attīstība padara mūsu pasauli neparedzamāku un nevienlīdzīgāku. Otrs ceļš veda uz nākotni, kur inovācijas ir iekļautas cilvēciskos vērtību un skaidras atbildības ietvaros. Mūsu izvēle un mūsu rīcība šodien noteiks, kuru no šiem ceļiem mēs iesim. Laiks strādāt kopā pie risinājumiem ir tagad, pirms kāds nopietns incidents piespiedīs mūs to darīt.
Avots: https://ai2people.com/whos-to-blame-when-ai-goes-rogue-the-uns-quiet-warning-that-got-very-loud/