雷锋网(公众号:雷锋网)按:这里是,雷锋字幕组编译的Two minutes paper专栏,每周带大家用碎片时间阅览前沿技术,了解AI领域的最新研究成果。
原标题 AI-Based Animoji Without The iPhone X
翻译 | 廖颖 字幕 | 杨青 整理 | 李逸帆 凡江
本期论文:Avatar Digitization From a Single Image For Real-Time Rendering
▷每周一篇2分钟论文视频解读
本期的两分钟论文是介绍使用AI技术来实现iPhone X上功能——Animoji。自从iPhone X面世以来,这项功能受到很多人的喜爱。它可以轻易地模拟你的表情,用emoji里的图案来表现,看起来实在是妙趣横生。这项功能是如何实现的呢?它使用的是点阵投影器(Dot Projector)来捕捉、理解人脸的几何特征。
现在问题来了,假设我们不使用这项技术,如何能达到Animoji的效果呢?AI可以帮我们做到。很简单,你甚至不需要上传一段视频,仅仅一张图片作为输入,就可以训练神经网络来制作实时动作的动画图像,听起来很有趣吧?
在训练过程中,可以看到,图像包含一些基本的元素:眼睛、牙齿、舌头、牙龈。但是这样其实是不够的,为了让图像更生动,还需要用户的外貌和姿态。有意思的是,头发的部分不是像之前的技术那样,一根一根地生成,因为这样实在是太耗时耗力了。
这一切究竟是如何实现的呢?首先,我们将图片分割为面部和头发两个部分,然后将头发部分放入神经网络,试图去提取一些特征,例如头发长度、刺头等资讯,判断是否丸子头、马尾,找出发际线位置。这个神经网络非常深,大概有50层左右,训练用的素材多达4万张。
下一步,我们使用一种多视角的方式来展现完成之后的图像,这项技术可以重新定位,也就是说,我们的姿势可以转换到不同的特征。这个训练的模型受光照的影响不大,在各个光照条件下都表现优异。是不是超赞?
现在脸部建构技术愈来愈丰富了,看着《头号玩家》,虽然目前展现的虚拟头部还没很精细,但离在虚拟世界生活的距离是不是愈近了呢?
论文原址 http://www.hao-li.com/publications/papers/siggraphAsia2017ADFSIFRTR.pdf
更多文章,关注雷锋网 雷锋网
添加雷锋字幕组微信号(leiphonefansub)为好友
备注「我要加入」,To be an AI Volunteer !
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/129554.html