Facebook聊天机器人项目是因为AI自我交流关停了吗?

facebook-ai.jpg

 各位看官周末好。这两天有很多媒体因为Facebook的聊天机器人发明了自己的机器人语言而开始发布惊恐的言论,说人工智能可能已经威胁人类了。镜报说:“机器人智能是很危险的。”太阳报,独立报都有相似的报道。

这听起来真的是像科幻电影的桥段,昨天我刚看了战狼2,要是以后都是机器人作战,机器人革命推翻人类简直是分分钟的事,那可真的不敢想像。那么,我们真的要害怕机器人会给人类带来世界末日了吗?

这个故事可以追溯到今年6月,Facebook当时发表了一篇博客,说的是关于他们对聊天机器人的研究。Facebook 人工智能研究院(FAIR)的其中一个研究是让聊天机器人对虚拟商品进行讨价还价。

这两个聊天机器人分两个分别叫Bob和Alice。几天后据传,FAIR 的专家发现两个机器开始用自己的语言进行“对话”:

/uploads/fox/20143341_0.jpg
图片来源:Facebook人工智能研究院(FAIR)
 
这一屏无非就是程序员最常见到的普通SSH命令行嘛。我们把这些文字翻译过来是:
 
Bob:我可以我其他一切事……
Alice:球对我来说对我来说对我来说对我来说对我来说对我来说对我来说对我来说是零。
 
从这两句对话的内容来看,都是重复率略高的英文单词,说是键盘卡壳了,整了一些乱码,本猿人还更信服,要说这是一种新语言,恐怕有些牵强。
 
正如在 6 月的文章中解释的那样,研究人员可以轻易的破译该新语言,因为它是基于英语的,但是他们不能确定翻译的百分之百正确。“重要的是要记住,目前还没有人同时精通人工智能和人类的语言,” FAIR 的 Dhruv Batra 说道。这种新语言也没有达到研究的目的。“我们关注的
是让机器人能与人交谈,” FAIR 的研究科学家 Mike Lewis 解释道。
 
/uploads/fox/20143341_1.jpg
谈判系统的 GUI,Gif 来自 Facebook 人工智能研究院
 
这俩机器人除了讨论彼此该如何将一系列商品(在用户界面中是一些无害物体,如书籍,帽子和球)按双方满意的结果谈成,除此之外没有做出任何值得人们惊慌的事情。
 
后来Facebook研究院的人决定重新设计了训练机制,避免其偏离英文的行为,保证机器人一直使用可识别的语言。至今也没有关闭此项目。
一帮不明真相的媒体就对这一改变添油加醋,炮制了引发担忧的头条,高呼:机器人有自我意识了,竟然会自行创建新语言进行交流!
/uploads/fox/20143341_2.jpg
 
事情没过几个小时,BBC就亲自下场辟谣说,Bob和Alice的沟通文字属于“新语言”这个观点,并非出自Facebook研究院的砖家自己,而是来自部分媒体的主观臆测,说Facebook就是个戏精又炒作假新闻的锅也就不成立了。
 
/uploads/fox/20143341_3.jpg
更加客观的解释应该是,为了更加有效的沟通,科学神经系统网络修改了人类的语言。就像科技新闻网站Gizmodo说的那样:“他们在互相学习的过程中尝试新的方式,聊天机器人开始用一种衍生的快捷方式来互相沟通,可能看起来有点诡异,但仅此而已。”而且机器人发明自己的快捷方式这也不是第一次了。
 
BBC接着说,机器人只是在电影上很恐怖。在现实世界里,人工智能是个巨大的待开发待研究领域。
 
一个初步结论是,神经网络如何创造结果是不可预计的,这也是为什么有人说把人工智能放到研究中,尤其是自动武器的研究中,是很危险的。这也是为什么越来越多的人开始争论人工智能发展中的道德问题,因为科技终将有一天会跟我们的生活直接相关。
 
事实上,Facebook决定要加入Facebook Messenger的应用,但是研究人员发现原来的IM没法处理人们70%以上自动化的事情。经过进一步的研究和开发,人工智能聊天机器人可以做很多接近人类的事情,但是目前应该还没有到可以发动革命推翻人类的地步。
并且,这种行为是可以预测的。从某种意义上说,这是一种非常人性化的适应,因为其目的是提高性能和减少付出,这正是人类的大脑所擅长的。
 
正如在 6 月的文章中解释的那样,研究人员可以轻易的破译该新语言,因为它是基于英语的,但是他们不能确定翻译的百分之百正确。
“重要的是要记住,目前还没有人同时精通人工智能和人类的语言,” FAIR 的 Dhruv Batra 说道。这种新语言也没有达到研究的目的。“我们关注的是让机器人能与人交谈,” FAIR 的研究科学家 Mike Lewis 解释道。
 
今年早些时候,Google 就曾经说过它的翻译软件有做过类似的事情来更好地解读句子的语义。还有 OpenAI 机构也在研究一个系统,人工智能可以开发自己的语言使得信息处理更加快速。
 
独立语言最初自发的发展突显了我们还很不了解人工智能,这也是关于人工智能研究争议的一个重要部分。毋庸置疑,人工智能能够帮助我们,而且很少有人质疑这项技术会继续发展下去。
 
然而,我们准备与人工智能共享世界的方式,以及对人类来说这个世界是否是安全的,这仍然存在较大的争议。
/uploads/fox/20143341_4.jpg
可以肯定的是,许多关于人工智能的恐惧更多的是基于科幻小说而非事实,人们对机器人的失控之心一直有之,只是人们不喜欢这种感觉而已。
 
根据牛津大学人工智能教授、开放数据研究所的主席 Nigel Shadbolt 的说法,“我们最需要考虑的是,对现有人工智能系统的硬件、软件和部署策略实行的限制和保障措施。”但你下一个所遇到具有自我意识的电脑只会出现在电影中。
 
在 FAIR 和其他地方出现的语言问题正好属于限制和保障的范围之内。我们是否应该允许人工智能为了提高性能,而开发特定任务的专业语言,即使这意味着我们无法真正理解它们的意思?
 
许多专家敦促我们需谨慎行事。乔治亚理工大学人工智能研究人员 Mark Riedl 告诉 Future of Life,人工智能训练优化奖励的方法,最终可能导致将人类视为其优化计划的威胁。
 
对人工智能发展的最强烈的警告来自 Elon Musk 和 Stephen Hawking ,他们与Facebook还有李开复争论中最突出的一点是,当我们察觉到人工智能风险时,可能为时已晚。

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/industrynews/256421.html

(0)
上一篇 2022年5月18日 19:35
下一篇 2022年5月18日 19:37

相关推荐

发表回复

登录后才能评论