导读 | 有没有这样的经历,也许你保存了某篇文章里的一张图片,忽然有一天你想要重读这篇文章,结果你又不能用手上的图片反向检索文章。事实上直到最近1、2年,很多搜索引擎采用的依然是文字驱动技术,而不是通过图像搜索。换言之,用户能不能检索出自己想要的东西,取决于这个东西在搜索引擎内部是否被分类标记,或者是否有准确的文字描述。 |
最近一两年是人工智能的启动元年,人工智能已经推动计算机视觉技术达到了一个新的高度。在这个高度,业界的目标是在像素级理解图像,而不是之前的需要文字描述、分类等方式协助。这种进步帮助我们的系统认识图像里面是什么内容,图像里面是什么场景,例如是不是一个有名的旅游胜地。反过来看,这种技术可以更好地为视障人士提供帮助,帮助他们更好地使用搜索引擎搜索图像和视频。通过Joaquin Quiñonero Candela的文章《Building scalable systems to understand content》,我们可以大概了解一下。
为了让AI(人工智能)更容易地进入FaceBook的软件大家庭,FaceBook管理层认为需要引入一个通用的平台,这个平台需要可以支持工程师自己控制集群规模,最终引入的平台叫做FBLearner Flow。有了FBLearner Flow平台之后,FaceBook的工程师在运行、调试机器学习程序的时候不用再担心集群负载海量实时任务的业务负担了。FaceBook目前在FBLearner Flow平台上平均每个月需要运行120万个AI任务,这个数字是1年以前的6倍。
FaceBook还在不断地加强FBLearner Flow平台,包括提供自动化处理机器学习的工具、构建专用内容理解引擎等。此外,FaceBook也允许工程师通过编写多机运行的训练代码方式构建整个生态环境,这样的运行环境和代码可以被全公司的工程师复用。
FBLearner Flow平台最初起源于FaceBook人工智能研究的一个小型研究项目,当FBLearner Flow平台达到了生产环境要求的时候,FBLearner Flow平台和整个小组成员已经转换为应用机器学习团队,并作为FaceBook计算机视觉团队的分析引擎。
Lumos构建于FBLearner Flow平台之上,它是专用于图像和视频的学习平台。Lumos很容易使用,如果一个FaceBook工程师想要使用Lumos训练和部署一个新的模型,他不需要接受针对深度学习或者计算机视觉技术的培训。Lumos平台一直都在不断提升,无论是通过标定数据,还是通过FaceBook各种应用程序提供的注释数据。
深度学习的进步让FaceBook在图像分类领域有了重大提升,比如“图像中有什么?”和“目标在哪里?”这样的问题可以通过系统回答,而且精度较之前提高了很多。FaceBook通过在给定图像上检测和分割对象的设计方案加强搜索准确度。
让我们想象一下整个流程。这些技术被应用在FaceBook,图像可以穿过深度学习引擎,穿越过程中分割图像并且识别对象和场景,进而可以让图像本身附带更多的意义。这个过程为FaceBook的产品或者服务提供大量可以使用的数据。FaceBook的几十个小组已经在Lumos上通过训练和部署了超过200个视觉模型,针对例如不良内容检测、反垃圾邮件、自动图像字母等等目的。从FaceBook的连通性实验室到无障碍团队都在使用这些应用程序。
FaceBook目前正在研究将图像识别技术应用到提升自动高亮图像文字描述(AAT),这项技术可以帮助视觉障碍人士理解图像内容。
之前的一段时间,FaceBook技术只能描述图像当中的对象。2017年2月2日,FaceBook宣布增加了一组12个动作,图像描述对应可以增加类似于“走路的人”、“跳舞的人”、“骑马的人”,以及“弹奏乐器的人”等等。
AAT的这次更新在两个部分执行,通过Lumos实现快速、可扩展的迭代更新。由于FaceBook应用里面有相当多的图像包含了人类,所以FaceBook着重提供针对人的自动描述。人工智能团队从FaceBook应用上搜索了13万张包含人的图片(用户完全公开的图片)。标定人员需要假定自己在像视觉障碍人士解释图片的内容,通过一句话方式描述图片。然后FaceBook利用这些注释建立一个机器学习模型,支持推断出图片中人的动作,进而用于AAT功能。
Lumos允许这个任务快速迭代,让另一个任务通过接口使用前一次训练模型的标记。例如,如果我们正在训练“骑马的人”分类,想要去增加包括马的图片(没人骑的马),开发人员可以使用模型的一部分标定示例去学习是否图片里面有一匹马。
Lumos允许通过检索和聚类相结合的方式生成训练数据。给定一组标签或搜索术语,Lumos平台可以检索互联网上的图像的一小部分,找到匹配标签的图像。这些图像通过语义集合方式更快地分类标签,Lumos用户选择按照用户用例对样本进行负面或者正面的注解分类,无论是在一个大规模数据集级别或者是针对数据集内部的每一张图片,都可以这样注释。这种做法可以帮助一个有初始数据集的分类任务进一步扩散,通过迭代方式训练并获得更高的精确度/召回分类。
AAT应用对于FaceBook来说至关重要,因为它解决了FaceBook视觉障碍用户的使用问题,业界也有其他的应用程序尝试提供类似的方式解决问题,但是更多地把精力放在了搜索参数多样性上面,而不是人工智能领域。
FaceBook宣称他们的搜索系统可以通过大量的信息以及相关图像,利用图像的理解进行快速排序。换句话说,比如我们正在搜索“黑色衬衫照片”,FaceBook系统可以自我确定是否图像中存在黑色衬衫,即便图像上没有标签信息。这些工作是通过图像分类器完成的。
为了理解图像中的内容,FaceBook团队使用了尖端的深度学习技术,使用该技术学习几十亿的图像数据,弄清楚这些图像的原始语义。
团队为了更好地对图像进行分类,使用以下几点技术:
- 对象识别:图片识别模型的底层是一个带有数以百万计学习参数的深度神经网络。它构建于最先进的深度残差网络之上,使用数千万带有标签的图像训练对象识别。它可以自动预测一系列丰富的语义,包括场景(例如花园)、对象(例如汽车)、动物(例如企鹅)、地点和景点(例如金门大桥),以及穿戴内容(例如围巾)。
- 图像嵌入:这个特性也会生成高层次的语义特征,它是深度神经网络最后几层的输出的量化版本。这些丰富的信息对于提炼图像搜索结果很有用。
原始语义特征是高维浮点数向量,特别是当工程师不得不索引很多图片的时候,它使用了大量的存储索引。通过利用量化技术,这些特征被进一步压缩成几个Bit,这种情况下依然可以保留大部分的语义。压缩成Bit级别的图片可以被直接用来作为搜索引擎排名、检索。
实现这种目标的一种方式是从图像中提取出预测的概念和类别,然后解析搜索查询并连接到实体和提取物,进而在两组概念之间使用相似性函数确定相关性。
对于FaceBook团队来说这是一个好的开端,但是FaceBook并没有止步于预测图像分类,他们进一步使用了查询和图像联合嵌入方式,动态提升准确率和查全率。FaceBook采用这种方式从多方面解决排名问题。此外,FaceBook也在图像之间使用了一种相似性测量办法,确保图像搜索结果多样性。
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/102509.html