Skip to main content

Mazie, bet nozīmīgie AI veiktie video rediģējumi – kā tos atklāt?

AI veidotas smalkas izmaiņas videomateriālos

2019. gadā ASV Pārstāvju palātas priekšsēdētāja Nansija Pelosi kļuva par mērķi vienkāršam deepfake tipa uzbrukumam, kad viņas īstais video tika rediģēts, lai radītu iespaidu, ka viņa ir piedzērusies. Šis pārveidotais video tika kopīgots miljoniem reižu, pirms patiesība par to izpaudās.

Lai gan šim krāpšanas videomateriālam nebija vajadzīga sarežģīta AI tehnoloģija, tas paliek labs piemērs tam, kā nelielas izmaiņas audio-vizuālajā materiālā var radīt ievērojamu ietekmi.

Jaunā pētījuma no Indijas izstrādātā sistēma ir vērsta uz smalku, lokālu sejas izmaiņu atpazīšanu videomateriālos. Tā izmanto t.s. “Action Units” (AU) no Sejas darbību kodēšanas sistēmas (FACS), kas definē 64 iespējamās maināmas sejas zonas, kas kopā veido sejas izteiksmes.

Dažas no 64 izteiksmju daļām FACS sistēmā

Dažas no 64 izteiksmju daļām FACS sistēmā. Avots: https://www.cs.cmu.edu/~face/facs.htm

Darbības princips

Metode sākas ar sejas noteikšanu video materiālā un vienmērīgi sadalītu kadru izvēli. Šie kadri tiek sadalīti mazos 3D segmentos, kas ļauj modelim uztvert ne tikai sejas izskatu, bet arī tās kustības un izteiksmes izmaiņas.

Jaunās metodes shēma

Jaunās metodes darbības shēma.

Pētnieki izmanto divus dažādus kodētājus – vienu apmācītu uz maskētu autoenkoderu uzdevumu, otru – uz sejas darbību vienību (AU) noteikšanu. Abu kodētāju rezultāti tiek apvienoti, izmantojot krustenisko uzmanības mehānismu.

Testēšana un rezultāti

Sistēma tika testēta pret dažādām deepfake noteikšanas metodēm un uzrādīja ievērojamu uzlabojumu smalku, lokālu pārveidojumu atpazīšanā. Pētījumā tika konstatēts, ka jaunā metode pārspēj citas pieejas ar 15-20% lielāku precizitāti.

Rezultātu salīdzinājums

Metodes veiktspējas salīdzinājums ar citām pieejām.

Secinājumi

AI tehnoloģiju attīstība ļauj veikt arvien smalkākas un grūtāk pamanāmas videomateriālu pārveidošanas. Šis pētījums parāda, ka ir nepieciešamas jaunas metodes, kas spēj atpazīt šāda veida manipulācijas, īpaši ņemot vērā, ka cilvēki ir ļoti jutīgi pret nelielām sejas izteiksmes izmaiņām.

Kā norāda pētnieki, šāda veida lokālas rediģēšanas iespējas varētu kļūt par nopietnu problēmu, īpaši politiskā vai sociālā kontekstā, kur nelielas izteiksmes izmaiņas var būtiski ietekmēt ziņojuma uztveri.

Pirmo reizi publicēts 2025. gada 2. aprīlī

https://www.unite.ai/exposing-small-but-significant-ai-edits-in-real-video/

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *