面部追踪技术并不是什么新鲜的技术,但是今年3月公布的Face2Face无疑彻底改变了它的意义。这项技术可以非常逼真的将一个人的面部表情、说话时面部肌肉的变化完美的实时复制到另一个视频中的角色上。它由德国纽伦堡大学的科学家Justus Thies领衔完成,技术上来说,这不仅是第一个能实时进行面部转换的模型(以前的都有或多或少的延迟)。而且准确率和真实度比以前那些模型高得多。最终效果看起来大概就是下面这个样子:
via nerdist.com
Face2Face在今年刚刚举行的CVPR上发表了自己的论文,在论文中他们对自己的技术做出了详细的解释,下面是Face2Face的算法简易概览图:
左上角的人就是最终的使用者,被称为源角色(Source Actor),左下角的是会被替换掉表情和嘴型的角色,被称作目标角色(Target Actor)。Face2Face先使用特定的算法重构目标角色和源角色的脸型特征。当算法运行时,它会同时追踪目标和源角色的脸上的表情。然后用一种变形函数在套用源角色的变化模型后重新渲染目标角色的脸的形状和光照。最终与背景进行复合。据团队在论文和演示视频里表示,同之前的面部追踪技术相比,Face2Face的主要进步在变形各种算法,包括RGB追踪算法、传输函数以及嘴部模型建立上的改进。
最终的表现就是极高的实时性,以及真实性。Face2Face仍然维持了目标角色的嘴部形状,而现有的模型要么是把源角色的嘴型复制到目标角色上去,要么就是采用通用的渲染模型。这两者都会导致很不稳定的结果。
单从结果上看,这确实是一项很大的技术进步,但是仔细想想,你难道没觉得害怕?科技媒体Mashable说:“你知道那句话:Show me pictures or video, or it didn't happen(咳,这句话的中文翻译我就不说了)”。但是多亏了这项技术,你可以信任你在视频里看到的东西的日子已经正式结束了。
Youtube上这个团队的演示视频已经被播放了246万次,有1526条评论,而大部分评论都在表示对这项技术的不解与反对,我们选取了其中一些比较有代表性的:
aJovialPenguin:这太过分了,它有极大的被不正当使用的潜力,为了全人类着想请不要再继续研究这项技术了。
Bill Singleton:一般来说我是很支持这些奇奇怪怪的技术的,但是这个做得真的太过分了。它简直就像地狱一样恐怖,用来伪造认罪记录、诈骗……还有无穷无尽的将其用于犯罪的可能性还没被想到。但是只要想想你能伪造总统说任何话的录像来使我们的国家安全陷于危险之中就知道了。你真的会以为这东西只会被用来做研究?
Nonamagic:这背后隐藏的暗示让人毛骨悚然,还觉得我们被欺骗和操纵的不够多吗?天知道这玩意会被用来干什么。宣传?陷害某人?可能人们终于有个地方能用来发挥他们的“聪明才智”了。
新技术的诞生通常都会招来反对之声,在AI领域,“AI”这项所有相关研究的总和就一直被人质疑会夺走大部分人的工作,导致社会动荡。但那些说起来本质不过是生产力的进步导致的必然结果,就像反驳的人们总是会举的工业革命的例子一样,最终很可能其实会帮助人类走上一个新的台阶。很多对新技术的担心,最终可能都会被证明是杞人忧天。
但这项技术或许不能算在此列,先不提它的“合理”使用(话说到底这项技术是为什么要被发明出来?)能给人类带来什么好处,单从本质来看,这就是一项用来“欺骗”的技术,它能把我们伪装成另一个人,而对方几乎完全不可能察觉出其中的异样(难道每次视频先对个暗号?),无论在这之上发展出看起来如何有理有据的应用,它的本质还是不会改变。一项为欺骗而生的技术,从出现那一刻起就注定了无法帮助人类的文明前进,甚至在这个数字化的时代,它可能会进一步撕裂人与人之间本来就已经越来越脆弱的信任。
最让我惊讶的是,研究团队的成员Matthias Niessner告诉Mashable,尽管目前这项技术还处于研究阶段,不对外公开,但由于有很多人的请求他们已经在考虑对该技术进行商业化。
到底是哪些人在渴望用到这项研究?或许Justus Thies和他的团队真的该三思而后行。
雷锋网原创文章,未经授权禁止转载。详情见转载须知。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/60422.html