F8 2017 | 小扎也忧伤,识别直播杀人,AI 能做些什么?

F8 2017 | 小扎也忧伤,识别直播杀人,AI 能做些什么?

雷锋网(公众号:雷锋网)按:在北京时间今天凌晨开幕的 Facebook 年度开发者大会 F8 上,创始人扎克伯格在开幕演讲中,向 Facebook 直播谋杀的受害者表达了慰藉。此事在网络上传播甚广,其中一个争议的焦点是 Facebook 在事发两小时后才将视频移除。在直播和各类视频内容爆炸的年代,及时识别出用户上传的不良内容,同时又不损害用户体验,成为各大平台面临的一道技术难题。针对这个问题,人工智能成为良策,但现在也没有达到完美,国外媒体 Wired 就撰文进行了分析,雷锋网对文章进行了编译。

上周日,Steve Stephens 在 Facebook 上传了一个 57 秒视频,视频中他杀害了一名男子后自杀。该视频在他的 Facebook 主页上挂了两个小时后才被 Facebook 识别后删除。但是这两个小时已经足够让数千人在 Facebook 上分享这个视频,让各种第三方网站下载该视频并重新上传给他们的用户。

整个事件重新燃起了一项关于社交媒体的激烈辩论:社交媒体公司究竟应该怎么做才可以防止他们的网页上出现不良内容?并且,一旦不良内容出现,就无法避免它被保存和传播到网络的各个角落。所以社交媒体企业应该如何将不良内容直接扼杀在摇篮里?

防止一个视频在网络上公开的最佳方法就是在它第一次上传时进行阻止。Facebook 可以通过很多步骤实现该方法,例如他可以坚持人工审查核准每一个视频的上传。但是这并不现实,因为这会使大批喜欢实时分享生活的用户离开 Facebook,公司并不能承担这样的风险。

另一个方法是,Facebook 可以在不良视频公布时立刻删除它,但是这又会出现另一个问题:即时精准定位和删除图像材料在技术上还无法实现。技术算法还无法达到自动筛选并删除的能力,而雇佣大量人员手动处理也并不现实。但如果 Facebook 授权算法直接删除视频,一定会发生不可避免的错误。就算是 Facebook 可以根据其服务条款给予算法这样的权力,公司也会因为审查问题被指控。这样的影响是巨大的,因为没有人喜欢自己的视频因为算法的错误而被删除,而用户的不信任问题也是 Facebook 根本无法承担的风险。

因此,Facebook 目前采用的是多管齐下的解决方法。任务前端是 Facebook 的用户,公司根据用户对视频的浏览和标记来跟踪不良视频。利用一些人工智能算法,挑选出潜在的不良视频(如儿童色情等)。此类视频被标记后,会送到 Facebook 的内容审查部门,该部门有上万人每天观看数小时的视频,人工决定视频是否被删除。这个系统还很不完善,但是目前,人工审查仍然比 AI 技术靠谱的多。

但是最终,AI 识别不良视频会变得越来越有效,人类会与 AI 合作作业,而不是被AI 所代替。Facebook 人工智能搜索的主管 Yann LeCun 说:“我认为,只要有足够的数据训练,我们是可以实现这一技术的。”尽管他没有回答周日杀人视频的处理细节,但是他表示 Facebook 未来会做的更好。对 Facebook 来说,用 AI 实时监控视频,识别杀人凶手的技术完全可以实现,只是还不是现在。

F8 2017 | 小扎也忧伤,识别直播杀人,AI 能做些什么?

上传杀人视频的 Stephens

现在还不是时候

理想情况下,Facebook 可以这样解决 Stephens 的视频:当他第一次上传说明他想要杀人的视频时,AI 软件就应该立即“看过”该视频,并将它标为优先级别。接着优先级的标识会触发 Facebook 人工审核部门的警报,迅速开始人工审查视频内容,发现直接危害,删除该视频,关闭 Stephens 的账号,通知有关部门。

但是现实并不是这样。根据 Facebook 全球运营副总裁 Justin Osofsky 昨天发表的声明称,最初上传的视频并没有被标识,第二个视频,也就是有谋杀者自己的视频是在 Stephens 上传超过一个半小时后才被标识了出来。Osofsky 说,只要有用户将危险视频标识出来,Facebook 的审查部门在23分钟内就可以将该视频从网站中删除。

但是问题仍然是,如何让这个程序迅速反应立即处理。人工智能目前还无法识别出第一个视频中的危险因素,甚至对第二个视频中出现的谋杀者也无能为力。为了让 AI 介入谋杀,AI 必须首先能够处理 Stephen 的语言,分析他的语音语调,分辨他说到杀人时究竟是开玩笑还是真正想法。LeCun 说:“确实有这样的技术,但是目前还不清楚将该技术整合进深度学习框架中后是否还能有效率的运行。并且由于缺乏人类的常识,这种系统会犯低级错误。”

Facebook 明白 AI 必须学习这个技术,所以公司在这方面投入巨大。LeCun 的团队是继谷歌团队后在该领域进行前沿研究的第二大团队。他的团队已经开发了算法帮助计算机标识各种问题内容,比如儿童色情、裸体、产权侵害问题等。去年秋季, Facebook 总裁扎克伯格在 WIRED 的采访中说到,目前网络上一半的标识都是由 AI 完成的,而非人工操作。“ 这是一个人类与 AI 并肩作战的时代,AI 正在帮助人类解决超大体量的问题。同时,我们也在发展新技术,探讨这种联合可以做到什么。”

但即使扎克伯格现在已经意识到了这一点,目前AI 与人工必须相互配合工作,Stephens 杀人视频的例子正是一个鲜活的例子。本周二在旧金山的 F8 开发者会议上,扎克伯格直接回应了社会辩论:“我们要做的还很多。上周日的悲剧提醒着我们,我们会继续努力,尽我们所能避免这样的悲剧再次发生。”

训练计算机识别暴力问题比识别裸体图像要难得多,相当于识别假新闻的难度。这需要对背景线索和形式的复杂理解。

AI 可以做些什么?

因为 Facebook 需要大量时间来训练其神经网络来规范化这个过程,所以目前阶段,Facebook 需要改变其审查过程来应对危机。在视频杀人事件发生后的声明中,Osofsky 说:“在一系列恐怖事件发生后,我们正在改善上报流程,确保用户可以尽快向我们报告网站中存在的危险视频。”

这意味着 Facebook 将简化加速优先级别审查内容的过程,增加更多人工审查员,使视频审查过程更快。同时,人工审查员会继续训练 AI,但这需要花费大量时间,AI 需要大量暴力视频的例子进行学习,才能有效地识别出危险视频。所以第一件事情是收集足够多得的正确标识的暴力视频。这需要人工雇员不断地浏览暴力视频,标识暴力语言,这一过程将会比较漫长。

当考虑到 Facebook 的直播功能时,问题就更严重了。直播视频更加难以控制,所以很多人直接建议 Facebook 关闭其直播功能。当然这是不现实的,Facebook 去年开发该功能的目的就是为了与其他直播网站相竞争,公司绝不会因此而放弃直播。另外,直播功能还引发了另一种形式的暴力事件。比如去年,黑人 Philando Castile 被警察射杀后,他的妻子用 Facebook 直播了射杀后的场景,还在直播中发出了全球范围内的求救信号。

Lehigh 大学传媒专业副教授 Jeremy Littau 说:“无论是好是坏,即时视频或直播视频终将存在下去。Facebook 必须面对这个现实。”

不过,Facebook 可以像广播式网络的功能一样,坚持对直播视频进行一定的延迟处理。但那时正如上文所说,除非用人工或AI 来监控所有视频,否则延迟直播也不会起到太大作用。

然而,有一件 Facebook 可以实现的事就是,控制第三方从 Facebook 上下载视频的过程(与 Instagram 做法类似)。这样可以阻止如 Live Leak 的第三方网站获取并再次传播 Stephens 的暴力视频。这样的小调整至少可以避免不良视频在其他地方再次上传,进入互联网的永久无法删除的记忆。

Via wired.com

雷锋网版权文章,未经授权禁止转载。详情见。


F8 2017 | 小扎也忧伤,识别直播杀人,AI 能做些什么?

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/82072.html

(0)
上一篇 2021年8月12日 12:27
下一篇 2021年8月12日 12:27

相关推荐

发表回复

登录后才能评论