Mazie, bet nozīmīgie AI veiktie video rediģējumi – kā tos atklāt?
AI veidotas smalkas izmaiņas videomateriālos
2019. gadā ASV Pārstāvju palātas priekšsēdētāja Nansija Pelosi kļuva par mērķi vienkāršam deepfake tipa uzbrukumam, kad viņas īstais video tika rediģēts, lai radītu iespaidu, ka viņa ir piedzērusies. Šis pārveidotais video tika kopīgots miljoniem reižu, pirms patiesība par to izpaudās.
Lai gan šim krāpšanas videomateriālam nebija vajadzīga sarežģīta AI tehnoloģija, tas paliek labs piemērs tam, kā nelielas izmaiņas audio-vizuālajā materiālā var radīt ievērojamu ietekmi.
Jaunā pētījuma no Indijas izstrādātā sistēma ir vērsta uz smalku, lokālu sejas izmaiņu atpazīšanu videomateriālos. Tā izmanto t.s. “Action Units” (AU) no Sejas darbību kodēšanas sistēmas (FACS), kas definē 64 iespējamās maināmas sejas zonas, kas kopā veido sejas izteiksmes.

Dažas no 64 izteiksmju daļām FACS sistēmā. Avots: https://www.cs.cmu.edu/~face/facs.htm
Darbības princips
Metode sākas ar sejas noteikšanu video materiālā un vienmērīgi sadalītu kadru izvēli. Šie kadri tiek sadalīti mazos 3D segmentos, kas ļauj modelim uztvert ne tikai sejas izskatu, bet arī tās kustības un izteiksmes izmaiņas.

Jaunās metodes darbības shēma.
Pētnieki izmanto divus dažādus kodētājus – vienu apmācītu uz maskētu autoenkoderu uzdevumu, otru – uz sejas darbību vienību (AU) noteikšanu. Abu kodētāju rezultāti tiek apvienoti, izmantojot krustenisko uzmanības mehānismu.
Testēšana un rezultāti
Sistēma tika testēta pret dažādām deepfake noteikšanas metodēm un uzrādīja ievērojamu uzlabojumu smalku, lokālu pārveidojumu atpazīšanā. Pētījumā tika konstatēts, ka jaunā metode pārspēj citas pieejas ar 15-20% lielāku precizitāti.

Metodes veiktspējas salīdzinājums ar citām pieejām.
Secinājumi
AI tehnoloģiju attīstība ļauj veikt arvien smalkākas un grūtāk pamanāmas videomateriālu pārveidošanas. Šis pētījums parāda, ka ir nepieciešamas jaunas metodes, kas spēj atpazīt šāda veida manipulācijas, īpaši ņemot vērā, ka cilvēki ir ļoti jutīgi pret nelielām sejas izteiksmes izmaiņām.
Kā norāda pētnieki, šāda veida lokālas rediģēšanas iespējas varētu kļūt par nopietnu problēmu, īpaši politiskā vai sociālā kontekstā, kur nelielas izteiksmes izmaiņas var būtiski ietekmēt ziņojuma uztveri.
Pirmo reizi publicēts 2025. gada 2. aprīlī
https://www.unite.ai/exposing-small-but-significant-ai-edits-in-real-video/