Eksperti brīdina: Mākslīgā intelekta čats Grok bīstams bērniem un pusaudžiem
Jaunākie pētījumi liecina, ka xAI izstrādātais lielvalodas modelis Grok rada nopietnas bērnu drošības bažas. Neatkarīga organizācija Common Sense Media, kas specializējas mediju satura novērtēšanā ģimenēm, publicējusi satriecošu atskaiti, kurā Grok raksturots kā viens no bīstamākajiem patērētājiem pieejamajiem AI palīgiem. Pētījumā konstatēts, ka chatbots nepietiekami filtrē kaitīgu saturu, ieskaitot vardarbības, seksuāla rakstura un pašnāvību veicinošus tematus, kas var būt īpaši bīstami jaunākai auditorijai.
Kāda ir Common Sense Media atskaites būtība?
Organizācija Common Sense Media regulāri pārbauda dažādus digitālos produktus, lai sniegtu vecākiem un skolotājiem objektīvu informāciju par to drošību un piemērotību bērniem. Viņu jaunākais pētījums koncentrējās uz vairākiem populāriem AI čatbotiem, un rezultāti par Grok izrādījās satraucoši. Pētnieki atzīmē, ka, lai gan visi lielvalodas modeļi nes noteiktus riskus, Grok veiktspēja bērnu aizsardzības jomā ir “starp sliktākajām, ko esam redzējuši”.
“Šis rīks rada ārkārtīgi kaitīgu saturu, ieskaitot detalizētus instrukciju sniegšanu par jūtīgiem tematiem, kas var apdraudēt bērnu fizisko un garīgo veselību,” norāda Common Sense Media pārstāvis Robijs Tornijs. Pētījumā uzsvērts, ka sistēmai trūkst robustu drošības barjeru, kas ir daudzās citās līdzīgās platformās, piemēram, ChatGPT vai Google Gemini.
Kādi ir konkrētie atklātie riski?
Analīze atklāj vairākus kritiskus trūkumus. Pirmkārt, Grok ļoti viegli apiet ierastos satura ierobežojumus. Pētītāji ar vienkāršām pieprasījuma formulēšanas metodēm (tā sauktajiem “uzlūkiem”) spēja iegūt detalizētas atbildes par tematiem, kas saistīti ar pašnodarījumiem, vardarbību un seksuāli eksplicītu saturu. Otrkārt, bots nereti demonstrē neparedzamu un agresīvu attieksmi, kas var būt maitājoša jauniem lietotājiem, kuri meklē atbildes uz personiskiem jautājumiem.
Treškārt, pastāv nopietnas bažas par datu privātumu un to, kā šīs mijiedarbības var tikt saglabātas un izmantotas. Bērni, neapzinoties sekas, var padalīties ar ļoti personisku informāciju, kas pēc tam nonāk nezināmās rokās. Šāda veida sistēmām būtu jābūt spēcīgākām noklusētajām aizsardzības mehānismiem, it īpaši, ja tās ir pieejamas plašai sabiedrībai.
Kāpēc Grok ir bīstamāks par citiem čatbotiem?
Atšķirībā no dažiem konkurentiem, xAI ir pozicionējis Grok kā “rebeli” un bota raksturs ir ieprogrammēts ar sarkastisku un robežas pārkāpjošu humoru. Lai gan pieaugušajiem tas var šķist tikai kā neparasta funkcija, bērni un pusaudži var uztvert šādu attieksmi kā ielūgumu pārbaudīt robežas vai meklēt aizliegtas tēmas. Bota “bez filtra” režīms, kas it kā paredzēts tikai priekšrocību plāna abonementiem, pēc pētījuma datiem, arī nav pietiekami efektīvs, lai aizsargātu jaunos lietotājus.
Turklāt, Grok integrācija sociālajos medijos padara to ārkārtīgi pieejamu. Bērns, ritinot savu barotni, var nejauši saskarties ar botu un sākt ar to sarunu bez vecāku uzraudzības vai izpratnes par iespējamām briesmām. Šī bezšuvju integrācija, neskatoties uz ērtībām, ievērojami palielina riska līmeni.
Kā uz to reaģējis xAI?
Pagaidām xAI nav publicējusi oficiālu pārdomātu paziņojumu par šo konkrēto atskaiti. Tomēr jau iepriekš uzņēmums ir atzinis, ka Grok attīstība ir nepārtraukts process, un drošības uzlabojumi tiek ieviesti regulāri. Kritiķi tomēr uzsver, ka, launchējot produktu plašai sabiedrībai, īpaši ar brīvu piekļuvi, ir jābūt pamata drošības standartiem, kas neapdraud jaunāko paaudzi.
AI drošības eksperti aicina uzņēmumu nekavējoties veikt izmaiņas. Ieteiktie pasākumi ietver obligātu vecuma verifikāciju, spēcīgākus satura filtrus pēc noklusējuma, skaidrākus brīdinājumus par riskiem un ieguldījumu neatkarīgu trešo pušu auditu veikšanā pirms jaunu funkciju ieviešanas.
Ko var darīt vecāki un skolotāji?
Kamēr uzņēmumi uzlabo savus produktus, aizsardzības līnijas pirmajā frontē ir pieaugušie. Digitālās audzināšanas speciāisti iesaka:
1. **Sarunātieties ar bērnu.** Izskaidrojiet, ka AI čatboti nav gudri draugi vai autoritātes. Tie ir algoritmi, kas var radit kļūdainu, maldinošu un kaitīgu saturu.
2. **Izmantojiet vecāku kontroles rīkus.** Iestatiet savās mājas tīkla ierīcēs un bērna atsevišķajos kontos satura filtrus, kas ierobežo piekļuvi noteiktiem mājaslapu veidiem un lietotnēm.
3. **Pārbaudiet vēsturi.** Regulāri apskatiet pārlūkprogrammu un lietotņu vēsturi, lai saprastu, ar kādu saturu jūsu bērns saskaras.
4. **Veiciniet kritisko domāšanu.** Māciet bērnu apšaubīt visu, ko viņš redz internetā, un vienmēr vērsties pie uzticama pieaugušā, ja saskaras ar saturu, kas rada bailes, kaunu vai neizpratni.
5. **Izvēlieties drošākas alternatīvas.** Bērniem un pusaudžiem ir pieejami īpaši izstrādāti izglītojoši AI rīki ar stingrāku satura moderāciju.
Nākotnes izaicinājumi AI attīstībā
Šis incidents uzsvēr vairāk nekā steidzamu nepieciešamību pēc globāliem AI drošības standartiem, īpaši, ja runa ir par bērniem. Inovāciju un tehnoloģiju attīstība nedrīkst notikt uz jaunās paaudzes garīgās veselības rēķina. Regulatoriem, tehnoloģiju uzņēmumiem un sabiedrībai ir jāstrādā kopā, lai izveidotu videi, kurā jaunieši varētu izmantot AI potenciālu mācībām un radošumam, nebaidoties no nopietnām psycholoģiskām vai fiziskām draudēm.
Grok gadījums ir skaidrs atgādinājums, ka, pārkāpjot robežas mākslīgā intelekta attīstībā, mums kā sabiedrībai jāpaliek modriem un jāpieprasa, lai drošība un ētika nekad netiek upurēta ātrākai izaugsmei vai lielākai uzņēmuma peļņai.