Tekoäly tunnistaa täydelliset väärennetyt videot
Tekoäly tunnistaa täydelliset väärennetyt videot

Video: Tekoäly tunnistaa täydelliset väärennetyt videot

Video: Tekoäly tunnistaa täydelliset väärennetyt videot
Video: ✌🧶🎉КРАСИВАЯ ШАЛЬ КРЮЧКОМ "ВЕЕРОЧКИ" (вязание крючком для начинающих) / Crochet shawl for beginners - YouTube 2024, Huhtikuu
Anonim
Litvinenkon myrkytystä käsittelevän oopperan ensi -ilta alkaa Englannissa
Litvinenkon myrkytystä käsittelevän oopperan ensi -ilta alkaa Englannissa

Vuosi sitten Stanfordin Manish Agrawala auttoi kehittämään huulten synkronointitekniikkaa, jonka avulla videonmuokkausohjelmat voivat muuttaa kaiuttimien sanoja melkein huomaamattomasti. Työkalu voi helposti lisätä sanoja, joita henkilö ei koskaan puhunut, edes lauseen keskelle, tai poistaa sanomat sanat. Kaikki näyttää realistiselta paljaalla silmällä ja jopa monilla tietokonejärjestelmillä.

Tämä työkalu on helpottanut virheiden korjaamista ilman kokonaisten kohtausten kuvaamista uudelleen ja on myös mukauttanut TV-ohjelmia tai elokuvia eri yleisöille eri paikoissa. Mutta tämä tekniikka on myös luonut häiritseviä uusia mahdollisuuksia vaikeasti löydettäville fake-videoille, joiden selkeä tarkoitus on vääristää totuus. Esimerkiksi tuore republikaanivideo käytti karkeampaa tekniikkaa haastattelussa Joe Bidenin kanssa.

Tänä kesänä Agrawala ja hänen kollegansa Stanfordissa ja UC Berkeleyssä esittelivät tekoälyyn perustuvan lähestymistavan huulisynkronointitekniikkaan. Uusi ohjelma tunnistaa tarkasti yli 80 prosenttia väärennöksistä ja tunnistaa pienimmätkin erot ihmisten äänien ja suun muodon välillä.

Mutta Agrawala, Stanfordin mediainnovaatioinstituutin johtaja ja tietojenkäsittelytieteen professori Forest Baskettissa, joka on myös sidoksissa Stanfordin ihmiskeskeisen tekoälyn instituuttiin, varoittaa, että syviin väärennöksiin ei ole pitkäaikaista teknistä ratkaisua.

Kuinka väärennökset toimivat

Videon manipulointiin on perusteltuja syitä. Esimerkiksi jokainen, joka kuvaa kuvitteellista TV -ohjelmaa, elokuvaa tai mainosta, voi säästää aikaa ja rahaa käyttämällä digitaalisia työkaluja virheiden korjaamiseen tai käsikirjoitusten muokkaamiseen.

Ongelma syntyy, kun näitä työkaluja käytetään tarkoituksella väärän tiedon levittämiseen. Ja monet tekniikat ovat näkymättömiä tavalliselle katsojalle.

Monet syvät fake -videot perustuvat kasvojenvaihtoon, ja ne kirjaimellisesti asettavat yhden henkilön kasvot toisen henkilön videoon. Mutta vaikka kasvojenvaihtotyökalut voivat olla pakottavia, ne ovat suhteellisen raakoja ja jättävät yleensä digitaalisia tai visuaalisia esineitä, jotka tietokone voi havaita.

Toisaalta huulten synkronointitekniikat ovat vähemmän näkyvissä ja siksi vaikeampia havaita. Ne manipuloivat paljon pienempää osaa kuvasta ja syntetisoivat sitten huuliliikkeitä, jotka vastaavat tarkalleen sitä, miten ihmisen suu liikkuisi, jos hän puhuisi tiettyjä sanoja. Agrawalin mukaan väärennetty tuottaja voi saada henkilön sanomaan mitä tahansa, jos hänellä on riittävästi näytteitä henkilön kuvasta ja äänestä.

Väärennösten havaitseminen

Agrawala oli huolissaan tällaisen tekniikan epäeettisestä käytöstä ja työskenteli yhdessä Stanfordin jatko -opiskelijan Ohad Freedin kanssa havaintotyökalun kehittämiseksi. Hani Farid, professori Kalifornian yliopistossa, Berkeley School of Information; ja Shruti Agarwal, tohtorikoulutettava Berkeleyssä.

Aluksi tutkijat kokeilivat puhtaasti manuaalista tekniikkaa, jossa tarkkailijat tutkivat videomateriaalia. Se toimi hyvin, mutta käytännössä se oli työlästä ja aikaa vievää.

Tutkijat testasivat sitten tekoälyyn perustuvaa hermoverkkoa, joka olisi paljon nopeampi tehdä sama analyysi sen jälkeen, kun hän oli harjoitellut videolla entisen presidentin Barack Obaman kanssa. Neuraaliverkko havaitsi yli 90 prosenttia Obaman omasta huulisynkronoinnista, vaikka muiden kaiuttimien tarkkuus laski noin 81 prosenttiin.

Todellinen totuuden testi

Tutkijat sanovat, että heidän lähestymistapansa on vain osa kissa ja hiiri peliä. Kun syvän väärentämisen tekniikat paranevat, ne jättävät vielä vähemmän avaimia.

Agrawala sanoo, että viime kädessä todellinen ongelma ei ole niinkään syvästi väärennettyjen videoiden torjuminen kuin väärän tiedon torjuminen. Itse asiassa hän toteaa, että suuri osa harhaanjohtavasta tiedosta syntyy vääristämällä ihmisten sanojen merkitys.

"Vähempien tietojen vähentämiseksi meidän on parannettava medialukutaitoa ja kehitettävä vastuuvelvollisuusjärjestelmiä", hän sanoo. "Tämä voi tarkoittaa lakeja, jotka kieltävät väärän tiedon tarkoituksellisen tuottamisen ja niiden rikkomisen seuraukset, sekä mekanismeja siitä aiheutuvan haitan poistamiseksi."

Suositeltava: