Istraživači sa Univerziteta Erlangen-Nürnberg, Max Planck instituta informatike i Stanford univerziteta kreirali su tehnologiju koja omoguće manipulisanje videa bilo koje osobe na taj način da se potencijalno može lažirati njen govor. Sistem po imenu Face2Face dozvoljava uvjerljivo spajanje snimka nečijih usta i pokreta usana sa licem druge osobe u ciljanom videu.

Tehnologija ovo može odraditi u stvarnom vremenu.


Demonstracija se za sada zasniva na kreveljenju, ali zaključak se sam nameće

Na ovaj način se nekom političaru, aktivisti ili bilo kome drugom može bez problema smontirati da je rekao ono što nije, pod uslovom da se radi o dobrom imitatoru glasa ciljane osobe ili uvjerljivom sintetičkom glasu. Pošto je u pitanju video snimak, automatski se povećava vjerovatnoća da će javnost povjerovati u lažirani govor. Tačnije, tako je bilo do sada; nakon predstavljanja Face2Facea, svi će sumnjati u sve.

Također, Face2Face još uvijek nije savršen, budući da je moguće primijetiti veoma blagu neuvjerljivost pri uklapanju tuđih usta u snimak osobe. Ovo će, vjerujemo, vrlo brzo biti popravljeno ili čak zaobiđeno uz pomoć dobrih glumaca i imitatora.

Automatski se postavlja pitanje zašto je ovakva tehnologija uopšte razvijena? Nama na pamet ne pada nijedna pozitivna upotreba.

1/1