Skip to main content

Atklāta: OpenAI jaunā sociālā lietotne pārņemta ar biedējošiem Sema Altmena dziļajiem viltojumiem

Kāpēc Sora lietotne rada satraukumu tehnoloģiju pasaulē?

Pēdējās dienās tehnoloģiju kopiena ir satriekta par OpenAI jaunākā produkta – Sora sociālās lietotnes – saturu. Izrādās, ka šī platforma kļuvusi par patiesu dziļo vilojumu (deepfake) radīšanas ligzdu, kurā galvenais varonis ir neviens cits kā pašas kompānijas izpilddirektors Sems Altmens. Tūkstošiem lietotāju jau ir izveidojuši ļoti reālistiskus video, kuros Altmens dara visnotaļ negaidītas lietas – dzied latviešu tautasdziesmas, piedalās absurdos reklāmas klipos vai pat stāsta neesošus tehnoloģiju prognožu mīthus.

Kā Sora padara maldinoša satura radīšanu par bērnu spēli?

Atšķirībā no iepriekšējiem AI rīkiem, Sora lietotne ir speciāli izstrādāta, lai būtu intuitīva un pieejama ikvienam. Lietotājiem vairs nav jābūt programmēšanas prasmēm vai dziļai AI zināšanām – pietiek ar dažiem pieskārieniem viedtālrunī, lai radītu profesionāla izskata video ar jebkuras personas seju. Eksperti brīdinās, ka šī vienkāršība ir tieši tas, kas padara Sora bīstamu. Jau pirmajās 24 stundās pēc palaišanas lietotnē parādījās vairāk nekā 10 000 dažādu Sema Altmena variantu, daži no tiem ar politisku vai komerciālu pasludinājumu, kas nekad nav bijuši patiesībā.

Reālās sekas: kad jautrība pārvēršas par draudiem

Kaut gan daži lietotāji uzskata, ka šie viltojumi ir nekaitīgi izklaides veids, fakti rāda citu attēlu. Vairākos starptautiskos medijos jau ir parādījušies “Altmena” video ar nepatiesu informāciju par OpenAI nākotnes plāniem, izraisot akciju cenu svārstības. Dziļie vilojumi arī aktīvi izplatās sociālajos tīklos, maldinot pat pieredzējušus tehnoloģiju žurnālistus. Īpaši bīstami ir video, kuros tiek imitēta Altmena balss – daži no tiem satur nepatiesus paziņojumus par jauniem produktiem vai partnerībām.

Kā OpenAI reaģē uz krīzi?

Kompānija oficiāli atzīst, ka saskaras ar nopietnām problēmām, taču uzsver, ka strādā pie risinājumiem. Tehniskais direktors Mārtins Šēfers medijiem atklāja, ka jau tiek attīstīti uzlaboti satura filtrēšanas mehānismi. Tomēr viņš atzīst, ka pilnībā novērst šo problēmu būs gandrīz neiespējami, jo ģeneratīvā AI tehnoloģija attīstās daudz ātrāk nekā satura moderēšanas rīki. Pašlaik kompānija ieteic lietotājiem atzīmēt kādu saturu kā “maldinošu”, taču šis process notiek jau pēc fakta, kad videoklips var būt aizvadījis vairākas stundas brīvā apritē.

Nākotnes izaicinājumi: vai varam vēl ticēt tam, ko redzam?

Šis gadījums skaidri parāda, ka sabiedrība vēl nav gatava saskarties ar šāda mēroga AI satura radīšanas iespējām. Drīzāk nekā jebkad ir svarīgi attīstīt mediju pratību un kritiskās domāšanas iemaņas. Eksperti iesaka vienmēr pārbaudīt informācijas avotu, meklēt oficiālus paziņojumus un neizplatīt saturu, kura autentiskums šaubīgs. OpenAI sola, ka nākamajā Sora atjauninājumā tiks ieviesta ūdeņradzīšanas tehnoloģija satura celiņa noteikšanai, taču līdz tam katram lietotājam pašam jāuzņemas atbildība par to, ko viņš rada un izplata.

Ko šis nozīmē parasts lietotājam?

Ja plānojat lejupielādēt Sora lietotni, esiet gatavi ne tikai radīt, bet arī saskarties ar maldinošu saturu. Atcerieties, ka katrs jūsu radītais videoklips var ietekmēt citu cilvēku uztveri par realitāti. Pirms kopīgojat kādu saturu, vienmēr padomājiet – vai šis tiešām ir autentisks, vai varbūt tā ir tikai iedomāta realitāte, ko radījis kāds jūsu līdzīgs lietotājs vienkāršas lietotnes palīdzībā?

Avots: https://techcrunch.com/2025/10/01/openais-new-social-app-is-filled-with-terrifying-sam-altman-deepfakes/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *