Skip to main content

Kad dziļfalšķi kļūst par ikdienu: OpenAI Sora lietotne pārvēršas krāpnieku rotaļu laukā

Nakts, kad ieraudzīju “sevi” runājam japāņu valodā

Pirms pāris dienām, ritinot sociālo mediju plūsmu, mani pārsteidza īss video, kurā mans draugs skaidri runāja japāņu valodā lidostas zonā. Tikai viena problēma – mans draugs nemāk nevienu japāņu vārdu. Šis bija brīdis, kad aptvēru: tas nebija viņš. Tas bija mākslīgais intelekts. Precīzāk, video izskatījās aizdomīgi līdzīgs kādam, ko varētu radīt Sora – jaunā video ģenerēšanas lietotne, kas izraisa virpuli digitālajā pasaulē. Kā liecina nesen publicētais ziņojums, Sora jau kļūst par krāpnieku sapņu rīku.

Kāpēc Sora ir tik bīstama?

Atšķirībā no iepriekšējiem deepfake rīkiem, Sora spēj radīt satriecoši reālistiskus video materiālus. Taču visbaisākais ir tas, ka lietotne var noņemt ūdenszīmi, kas parasti atšķir ģenerētos videoklipus no autentiskiem ierakstiem. Šī funkcija burtiski atver durvis masveida maldinošai informācijai un krāpnieku izdomām. Iedomājieties – jebkurš var izveidot video, kurā jūs vai jūsu tuvinieki kaut ko sakat vai darāt, ko patiesībā nekad neesat teicis vai darījis.

Reālās sekas virtuālajiem video

Krāpniecības ar identitāšu viltošanu jaunā dimensija

Policijas eksperti jau brīdina par Sora izmantošanu izspiegošanas un šantāžas nolūkos. Krāpnieki var izveidot video, kurā “bankas darbinieks” lūdz konts datus vai “ģimenes loceklis” lūdz naudu steidzamās situācijās. Tā kā video izskatās ļoti patiesi, daudzi cilvēki var pakļauties šādiem trikiem. ASV jau reģistrēti pirmie gadījumi, kad šādi video mēģināti izmantot biznesa viltotāju darījumos.

Politiskās manipulācijas nākamais līmenis

Ar Sora palīdzību kļūst iespējams radīt politiķu runas vai rīcību, kas nekad nav notikušas. Izdomājiet video, kurā pašā vēlēšanu virsotnē parādās kāds no kandidātiem, atzīstoties kādā nepatikšanā – tas varētu pilnībā mainīt vēlēšanu rezultātus. Šādas tehnoloģijas rada nopietnu draudu demokrātijas pamatiem un sabiedrības uzticībai informācijas avotiem.

Kā aizsargāties pret deepfake draudiem?

Digitālā higiēna – jūsu pirmā aizsardzības līnija

Vienkārši noteikumi var ievērojami samazināt risku kļūt par deepfake upuri:
– Vienmēr apstipriniet svarīgu informāciju, sazinoties tieši ar personu pa tālruni vai pastāvīgi izmantotu komunikācijas kanālu
– Ja video šķiet aizdomīgs, meklējiet nepilnības – mākslīgi ģenerētiem video bieži vien trūkst dabisku kustību vai ēnu
– Neuzticas video, kas izplatās tikai sociālajos medijos bez oficiāliem apstiprinājumiem

Tehnoloģiskie risinājumi un likumdošana

Līdzās personīgajai uzmanībai, attīstās arī tehnoloģijas deepfake atpazīšanai. Daudzi sociālo mediju uzņēmumi strādā pie algoritmiem, kas spēj atšķirt īstu saturu no mākslīgi ģenerēta. Vienlaikus valdības visā pasaulē apsver stingrākus noteikumus deepfake tehnoloģiju izmantošanai un attīstībai.

Nākotnes perspektīvas: vai varam apturēt deepfake straumi?

Sora ir tikai sākums. Mākslīgā intelekta attīstība turpinās eksponenciāli, un drīz vien šādas video ģenerēšanas iespējas būs pieejamas ikvienam. Taču arī aizsardzības tehnoloģijas attīstās līdzās. Galvenais izaicinājums nākotnē būs saglabāt līdzsvaru starp inovācijām un drošību, starp tehnoloģisko progresu un sabiedrības aizsardzību.

Kopumā, Sora un līdzīgas tehnoloģijas mums atgādina svarīgu mūsu digitālā laikmeta patiesību: neuzticēties akli tam, ko redzam internetā. Pat visreālākajam video var būt radīts mākslīgā intelekta dēļ, un mūsu kritiskais domāšana paliek visvaronīgākais ierocis šajā nepastāvīgajā digitālajā pasaulē.

Avots: https://ai2people.com/when-deepfakes-go-mainstream-openais-sora-app-becomes-a-scammer-playground/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *