Skip to main content

Kāpēc katrs desmitais ASV pusaudis meklē dvēseles mieru pie mākslīgā intelekta?

Mūsdienu pusaudžu dzīve ir sarežģīta – sociālie tīkli, skolas spiediens, identitātes meklējumi. Un, kā izrādās, arvien vairāk jauniešu šīs grūtības pārvar nevis runājot ar draugiem, vecākiem vai speciālistiem, bet… ieslēdzot čatu. Pēc nesen publicēta pētījuma, **apmēram 12% ASV pusaudžu regulāri lieto tādus vispārīgus mākslīgā intelekta rīkus kā ChatGPT, Claude vai Grok emocionālai atbalstam vai padomiem**. Šis trends, lai arī izprotams digitālajā laikmetā, liek garīgās veselības profesionāļiem raisīt nopietnas bažas.

Digitālais bērnuudējs: kāpēc tieši AI?

Jaunieši vienmēr ir meklējuši vietas, kur justies droši un nesagrozīti. Agrāk tās bija dienasgrāmatas vai tālas nakts sarunas ar draugu pa tālruni. Tagad – anonīms, nepārtraukti pieejams un nekad ne nogurstoss sarunu biedrs ekrānā. AI čatboti piedāvā **tūlītēju, bezvainīgu reakciju bez nosodījuma**. Tie neizklaidējas, neizsmēj, nepārrunā aiz muguras un vienmēr ir gatavi klausīties. Pusaudžiem, kas bieži vien jūtas pārprasti vai izolēti, šī var šķist kā ideāla patvēruma vieta.

Nedizainēts bīstamam uzdevumam

Taču šeit slēpjas galvenā problēma. Rīki kā **ChatGPT vai Claude nav radīti, lai sniegtu psiholoģisku atbalstu vai krīzes konsultācijas**. Tie ir “vispārīga mērķa” valodu modeļi, kas apmācīti prognozēt visticamāko nākamo vārdu, nevis diagnosticēt trauksmi, depresiju vai sniegt pamatotu terapiju. To padomi var būt vispārinoši, potenciāli kaitīgi vai vienkārši nederīgi sarežģītās emocionālās situācijās. Tie nav saistīti ar ētiskiem kodeksiem vai atbildību, kādu uzņemas sertificēts speciālists.

Ekspertu bažas: kāpēc tas ir bīstami?

Garīgās veselības profesionāļi uzskata šo tendenci par satraucošu vairāku iemeslu dēļ.

1. Viltus drošības sajūta

Jaunietis, kas cīnās ar tumšām domām, var saņemt no AI iedrošinošu, bet virspusēju atbildi. Bots var ieteikt “padomā par ko labu” vai “ieelpo dziļi”, taču **nespēs atpazīt patiesu krīzes signālu**, kas prastu steidzamu cilvēka iejaukšanos. Tas rada bīstamu ilūziju, ka palīdzība ir saņemta, bet reālās problēmas paliek neaptvertas.

2. Datu privātuma un konfidencialitātes risks

Viss, ko lietotājs ievada čatā, var kļūt par apmācības datu daļu nākamajām modeļa versijām. Pusaudža visdziļākās bailes, traumas vai nedrošības var tikt saglabātas un potenciāli pārpublicētas. **Nav garantiju par pilnīgu konfidencialitāti**, kas ir pamatā jebkurai efektīvai psiholoģiskajai palīdzībai.

3. Atbildības trūkums un iespējamā dezinformācija

AI var “halucinēt” – izdomāt informāciju, kas izklausās pārliecinoši, bet ir nepatiesa. Tas var ieteikt neefektīvas vai kaitīgas pašpalīdzības metodes. Ja padoms noved pie negatīvām sekām, **nav nekādas atbildības mehānisma vai iespējas to pārskatīt**. Bots vienkārši turpinās nākamo sarunu.

Kas pievilina: pieejamība, anonimitāte, vienkāršība

Lai saprastu, kāpēp pusaudži tomēr izvēlas šo ceļu, ir jāapzinās sistēmas trūkumi, ko viņi saskaras.

* **Nepieejamība un izmaksas:** Terapija ASV bieži vien ir dārga, un uz speciālistu ir gaidīšanas saraksti. AI ir pieejams uzreiz, par velti.
* **Bailes no nosodījuma:** Stigmatizācija ap garīgo veselību joprojām pastāv. Bots nenosodīs par vājumu.
* **Ērtība:** Var “runāt” naktī, neskatoties pulkstenim, bez iepriekšējas pierakstīšanās.
* **Pārliecības trūkums pie pieaugušajiem:** Daži jaunieši vienkārši netic, ka pieaugušie (vecāki, skolas psihologi) viņus patiešām sapratīs.

Vai ir risinājums? Ceļš uz atbildīgu AI palīdzību

Eksperti neaicina pilnībā aizliegt šo praksi – tas būtu nereālistiski. Tā vietā viņi redz nepieciešamību pēc:

1. **Skaidras izglītošanas** skolās un ģimenēs par AI ierobežojumiem emocionālā atbalsta jomā. Jauniešiem jāzina, ka šie rīki nav terapijas aizstājēji.
2. **Attīstīt un popularizēt īpaši dizainētas, ētiskas AI palīdzības rīkus**, kas strādā kopā ar cilvēkiem speciālistiem, ievēro konfidencialitāti un var atpazīt krīzes situācijas.
3. **Uzlabot pieejamību** īstai, kvalificētai palīdzībai jauniešiem, samazinot izmaksu un pieejamības barjeras.
4. **Atvērtu sarunu veicināšanu** ģimenēs, lai bērni justos drošāk dalīties ar savām problēmām ar cilvēkiem, nevis algoritmiem.

Galvenais padoms vecākiem un audzinātājiem

Nevis panikas trauksme vai tehnoloģiju noliegšana, bet **dialogs un izpratne**. Ja uzzināt, ka jūsu bērns meklē padomu pie AI, nemetieties pārmest. Tas ir signāls, ka viņš meklē atbalstu. Izmantojiet to kā iespēju parunāt: “Interesanti, ka tu to dari. Vai tas palīdz? Vai vēlies parunāt par to, ar ko cīnies, arī ar mani?” Jūsu uzdevums ir nevis konkurēt ar botu, bet piedāvāt to, ko AI nekad nevarēs – **nekondicionētu mīlestību, patiesu empātiju un cilvēcisku savienojumu**.

Šis 12% ir skaidrs signāls sistēmai. Jaunieši bēg no realitātes digitālajos palīgos, jo reālā pasaule viņiem ne vienmēr piedāvā pietiekami drošu, pieejamu un nesodošu atbalstu. Atbilde nav tikai tehnoloģiskā kontrole, bet **cilvēciskākas, uzmanīgākas un pieejamākas palīdzības veidošana** nākamajai paaudzei.

Avots: https://techcrunch.com/2026/02/25/about-12-of-u-s-teens-turn-to-ai-for-emotional-support-or-advice/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *