雷锋网消息,7月7日,中国计算机学会(CCF)主办,雷锋网与香港中文大学(深圳)承办的第二届CCF-GAIR全球人工智能与机器人峰会在深圳如期开幕。今天的第三位讲者是Subbarao Kambhampati教授,他现在是AAAI(美国人工智能学会)的主席,同时他也是亚利桑拿州立大学的教授,他主要的研究是在自动化的决策机制,特别是在人工感知的人工智能领域。
同时他也是一个非常知名的教授,他花了很多的时间,同时特别提到了关于人工智能对于人类感知以及社会的影响,同时他自己本人也是AAAI的成员,他也在很多的国际机构任职。他在2016年的大会的项目,以及2016—2025的AAAI项目当中提供相关的咨询服务。Subbarao为我们讲述了人工智能的兴起,人工智能与人类学习模式的不同,一些人工智能的挑战,关于人工智能伦理的一些思考,最后还介绍了他进行的研究。雷锋网(公众号:雷锋网)将其演讲内容进行了整理。
机器学习的过程与人类不一样
人工智能在过去并不十分受重视,但是现在,越来越多的媒体关注人工智能。很多国家也希望AI能带来变革。但机器的学习过程与人类是不一样的。人类会观察这个世界上的事物,然后开始有了情感的智能,然后他们有了社会的智能,另外他们还会有感知的智能和推理的智能。而机器的过程则相反。不一样的原因是:计算机解决问题的方案跟人类解决问题的方案是不一样的,是相反的,机器学会认知才学会感知。
现在的AI大热
现在,我们可以发现,AI技术成为了人们的谈资。但是AI大热背后也有一些副作用,这会遮蔽我们的眼睛。Subbarao讲了一些典型例子,包括一些恐怖分子识别系统和犯罪识别系统等。
如何谨慎地使用人工智能
像犯罪分子行为预测这样的系统是非常有争议的,必须要有合理、公平、道德的理由。AI现在是强有力的技术。很多公司对其进行了商业化,所以我们需要促进审慎的、有伦理的AI的发展。同时,我们在人工智能领域还有很多挑战,例如,如何让机器能理解语言背后的含义,如何让人工智能对世界有完整的理解,如何让人机交互不会有不良事件。
人工智能和人类应该如何交互
Subbarao也告诉了我们在人工智能与人类交互方面,我们应该关注的部分:
-
我们能看到人工智能的正面报道,也能看到负面的。负面报道,我们必须关注
-
有意识的人工智能,如何让人和机器能有效协作
-
人类希望能够有能够感知的机器人与自己对话
他认为,人类会对周围的环境、事物有情感上的反应。这是我们的情感的智能和社会的智能。我们需要社会的智能和情感的智能来弥补机器所不具备的这两部分的技能。
此外,Subbarao还向大家介绍自己的研究,其研究的主要目的主要是能够对人类情感做出识别,并推测人类动作的意图和期待。最后,他还向大家做了一个简短的关于AAAI(美国人工智能学会)的介绍。
以下是雷锋网整理的Subbarao演讲速记:
我来自亚利桑那州立大学,我今天将和大家共同探讨一下AI的崛起以及人工智能的发展,非常感谢主办方邀请我来中国,这也是我第三次来到中国。
就像刚才大家提到的,我也是AAAI的主席,首先我向大家简单介绍一下AAAI,AAAI主要是关注于人工智能的研发机构,它同时也是人工智能界最为久远的一个科学研究机构,它是在1979年建立的,它现在拥有大量的成员机构,同时AAAI也举办了目前全顶尖的人工智能论坛和相关的活动。我特别要提到的是,中国已经成为了AAAI非常重要的一员,有来自中国的很多的学者,特别是在中国加入之后,目前在我们整体的AAAI论文的提交数量,以及包括我们的科研提交量上,我们的文章的接受量已经远远超过了美国,而在去年AAAI会议计划在美国新奥尔良市举办,因为是春节期间,很多中国的开发者没有参加。因此今年我们修改了时间,作为现任执委委员的杨强教授在当中出了不少力。(雷锋网注:此外,杨强教授还是CCF-GAIR 2017大会的程序主席,香港科技大学计算机与工程系主任,国际顶级学术会议KDD、IJCAI等大会主席。杨强教授是第一位华人AAAI Fellow,他的当选改变了AAAI过去仅限于欧美圈子的状况。杨强教授一直致力于推动AAAI的国际化,包括为本次GAIR大会推荐了并帮助邀请Rao做演讲,曾做客雷锋网沙龙,解读了AAAI的历史变迁。)
AAAI人工智能年会现在已经得到了来自中国人工智能学界和研究界的大力支持。参与我们人工智能年会的人数以及中国成员的人数是比较少的,尽管他们的论文提交量比较高,所以我也希望在未来能有越来越多的人参与人工智能年会,把我们的年会变得越来越国际化,让我们倾听来自中国的人工智能专家的声音。同时我们也希望大家能够注册成为AAAI的会员。在中国的会员身份一年是交20美金的会费,学生是18美金,所以对各位来讲,如果加入这个人工智能年会是一件很简单的事情,花费也不高。
当大家加入到AAAI这个协会里边,我们是一个人工智能的组织,你们会看到各种各样、各个地方的人工智能的专家,你会看到一些印度的人工智能专家,他们也在中国,我也会互相的进行会员的介绍。
因为我担任AAAI的主席,所以我简单给各位介绍一下AAAI,最核心的信息就是欢迎大家成为AAAI的会员。
今天我主要要讲的就是人工智能。现在人工智能有一个非常有趣的话题,就是有意识的人工智能,有意识的人工智能除了它自己的特点之外,还有什么样的挑战呢?另外我还会再讲一讲有人工意识的人工智能,因为这个人工智能的细分方向在未来可能会得到学界的大量的关注,并且这个问题的研究也是充满了挑战。
人们现在一般都在讲AI做不了什么,但是当我在马里兰大学读书的时候,我读到了一本书,但是我读了这本书之后,我发现人工智能还有很多能做成的地方。所以后来我们看到了谷歌,每天我订阅谷歌的信息,他们把关于人工智能的所有信息都发给我,可以说在每一天收到的所有的文章里面都有至少一篇是关于人工智能的,而现在我们看到越来越多的文章和新闻,以及媒体都在关注人工智能,而且这些文章越来越离谱,今天早上我收到一篇文章说人工智能是不是被炒得太热了,大家能够看到在人工智能的领域,现在有很多有趣的情况,也有很多的公司正在使用着AI的技术来从事某种业务,比如进行股东大会,在2018年可能越来越多的人还会再讲到AI,而在之前没有人这样讲,在2017年的时候我们已经开始听到或者看到有股东大会在使用AI技术。当然,各国的政府也正在关注AI,在美国奥巴马执政期间,美国政府有一个面向未来的计划,这个计划也主要是关注人工智能,奥巴马说,他希望整个美国都能够被AI技术变革,当然我们也看到同样的国家执政者,在中国也是一样的,希望大力去发展AI技术,变革中国的生产力。
当然,AI热带来的一个信息是什么呢?就是像我这样的科学怪人能够有机会上镜,在电视上大讲AI技术,在之前像我们这些做研究的学界的人士是没有机会到电视上的,现在我们被邀请到电视上讲一讲人工智能,讲一讲机器人。
今天我想讲什么呢?就是考虑到我刚刚讲的这些大的背景,在座的各位观众可能有的是研究AI的专门,有的是初学者,我给大家简单地做了一个梳理,来帮助大家了解为什么现在AI变得这么热。我们先想一想人的智能,我们看看宝宝,人类的宝宝在出生的时候,他们开始有一些特征和行为,在早期的时候,孩子会有感知和模仿的能力,他们会观察世界,然后他们会去模仿我们的行为。这是我妻子的学生做的一个图,他用这个图来看他的孩子在吃饭的时候做一些简单的行为。另外,在孩子成长的过程中,他们会逐渐看这个世界上的事物,然后他们开始有了情感的智力,然后他们有了社会的智能,另外他们还会有感知的智能和推理的智能,比如说大家去上学,在上学的时候就培养我们自己的感知能力和推理能力。当然,在大学、中学和小学,我们都要进行各种各样的考试来培养和锻炼我们的感知能力,这就是人类如何去发展自己的智能的。
我们再看一下AI,在90年代的时候,我们有一个专家系统,这个专家系统是一种基于规则的系统,当时许多企业都开始采用这种基于规则的系统,当时所有主流的公司都会用这种规则系统,在90年代的时候有深蓝计算机,它和俄罗斯的国际象棋手进行了比拼,并且获胜,所以那时候计算机开始有了推理的技能,到2000年的时候我们看到有深蓝的升级版本。深蓝能够在一个蛋糕和一个棋子中间进行感知和选择。在那个时候深蓝计算机本身还没有感知的能力,而在2000年之后,我们会看到现在最新的一些AI技术,让我们的AI有了感知的能力。另外,他们开始进行语音的识别、图象的识别,而且我发现如果把语音和图象的识别跟感知结合在一起,将会是未来一个很火热的话题。从过去到现在,人类是从感知到智能,而机器是走了一条相反的路,所以机器的学习跟人类的学习是不一样的。
为什么机器或者是AI的学习跟人类的学习是相反的呢,它们为什么不是先去感知,然后再去观察呢?我们就必须要了解一下计算机解决问题的方案跟人类解决问题的方案是不一样的,计算机看到一个东西,它会有自己的思维,而如果人看到一个东西,它会去进行描述,另外它还会跟别人进行争论和探讨,所以对人类来讲,人类的学习模式是更适用于人脑的,而机器的学习模式是适用于机器的,所以对机器来讲,推理是非常难的。
如果我们的机器的感知能力变得越来越好,现在的孩子花六七年的时间积累和了解、学习这个世界上的知识,如果机器在未来能够有感知能力,它们就能帮助我们的孩子进行基础知识的积累。另外,我也不是讲相比人类,人工智能显得并不是那么重要,在未来人工智能的推理技能将会得到极大的提高。而且不光是学习,机器对于视觉的信息和图象的提取都会变得越来越好。另外,在未来我们还会训练机器去进行说、理解和解释这样的连环的培训。
现在AI技术为什么变得大热呢?这是因为我们发现在现代的AI技术之下,我们能够通过人工智能的技术,让我们的手机看到我们所看到的世界,并且这个手机还能把它看到的信息跟我们进行反馈。如果我们能够实现这样的人机互动,每个人都能够去用人工智能,大家都能知道在最新的围棋比赛中,如果我们能够使用这种人机共识或者是共同工作的状态,在未来AI技术会得到更大的应用。同时,这个现象也有一些副作用,我们在生产生活的各个方面都看到AI技术的使用,在漫画里边大家能够看到,当深蓝计算机跟人类的棋手进行比赛的时候,它说“这是1970年,你不要跟我讲AI,这时候AI技术还没有这么智能”。现在又走到了另一个极端,任何一个行业都在讲AI,而深蓝以及AlphaoGo,这些机器每天都在跟人类的智能进行比较和衡量。所以现在大家看到任何东西都要言必讲AI,因为这是人们愿意听到的,这也是AI大火带来的一个负面作用。我觉得AI技术的大热可能会让我们蒙蔽了双眼,不能看到它未来的前景。
现在当然我们能够做图象的抓取,能够做语音的识别,但是这就够了吗?
这是阿基米德,他是希腊的哲学家,他说“如果你给我一个支点,我就能够撬动地球”。现在人们说,如果你给我一个足够大的GPU和足够大的数据,我就会给大家创造出超智能。这种超智能看起来可能比较滑稽,但实际上它给我们彰显了在未来人工智能的一个新的前景,那就是超智能。
现在我们必须要去吸取早期在80年代、90年代在深度学习和大数据方面所走过的弯路,并且看未来一步怎么走。这就给我们带来了一些关于AI的风口期,我们都知道到目前为止,AI的发展是非常快的,但是也有人认为AI走向了冷冻期。当然很有意思的一点,去年有一家公司说,我们可以使用面部识别的方法告诉你这个人到底是不是犯罪分子或者是恐怖分子,这样我们可以建立起一个机器学习的系统,最终能够帮助我们去预测哪些人可能会成为恐怖分子,这是一家以色列的公司,但是我并不确保这到底是不是所谓的人工智能的系统。在中国,人的智商也是非常高的,在去年我们可以看到有一个来自中国的数据。我们如何使用面部识别的方法,能够帮我们进行人的面部的感知,以及包括一个推理,如果大家去到警察局,可能会看到有大量的人的照片,然后在云端寻找这些数据,同时通过深度学习来进行推理,预测这些人是否会出现任何的犯罪行为。这些照片显示的都是中国人,不是说他们都是犯罪分子,我们只是拍了他们的照片而已。
通过机器学习,可以进行犯罪分子预测行为的准确性达到95%,可以甄别谁是犯罪分子,谁不是犯罪分子,它可以通过我们帮助社会上的人是不是犯罪分子,但是这样的系统也出现了很多争议,大家在探讨这到底是不是人工智能的一个好的应用,这样的方法是不是能够使用在智能的犯罪分子的预测上。这篇文章要让我们设想一下,为什么我们要在人工智能方面谈伦理学,我特别谈到这一点,对于任何复杂、强大的技术,我们都要思考一下,我们到底应该如何使用它,如何用一种谨慎的方法来使用他。当AI在发展的过程中,很多人报道关于AI的技术,我们谈到的只是技术本身,我们现在也要探讨在人工智能方面的一些伦理方法,以及包括在技术使用上的伦理道德的原则。
这就让我想起了另外一个组织,就是人工智能的合作伙伴关系,这个组织是由世界上非常知名的谷歌、微软,以及脸书、IBM等等几大公司发起的联盟,我也是作为一个AI部门的理事加入到这个联盟,我们这个组织最重要的目的,就是希望通过这个组织帮助我们了解,如何用有社会责任的方式来使用人工智能的技术。我们确实做出了很多的技术变革和技术发展,但是我们不希望用这个技术决定谁是犯罪分子,谁不是,因为这样的做法实在是太疯狂了。同时我们也可以探讨其它的AI技术的使用,可能会造成人的隐私的泄露,或者是影响到公民的权利,从这一点来讲,就是我们建立这个联盟的原因,而我本人也是这个联盟的理事。从我个人的角度来说,我们提到了关于安全重要的人工智能,以及包括一个公平、透明、可信的、问责制的AI,以及包括人和人工智能系统之间的合作。
我们这里特别提到了这一点,如果我们要让AI来决定人到底是不是犯罪分子的话,我们不能找一些滑稽可笑的理由,我们必须要能够向人们解释出来,以合理、公平、道德的方式展示,为什么这样使用。这是我今天演讲特别要提到的,AI对我们的文化产生了非常大的影响,同时AI也带来了大量的福祉。但是现在AI已经是一个非常强有力的技术了,这个技术在发展过程当中,有很多的公司对其进行商业化,进行了大量的转化。但是我们应该想想这些技术的使用,如何能够进行一个审慎的、具有伦理性的发展,我相信大家可以更好地了解我们AAAI,以及我们这个联盟,事实上我们都在不断地倡导对于AI技术的伦理性、道德行的使用。
在youtube上有这样一个视频,我在这里面特别提到了关于人工智能对社会伦理的影响,以及使用上的问题,如果大家感兴趣的话可以看一看。
接下来我想跟大家探讨的是,我们在智能、认知、感觉技术上的发展,特别是在感知技术和认知技术上的变化,还有一点就是我们对机器人的控制和操纵,从操纵的角度来说,我们也可以依靠大数据来达到这一点。但是我想问一下,我们是否就已经做完了所有的研究呢?事实并非如此,我们仍然有很多的挑战,在这里有一点就是我们现在大部分的学习和案例都是基于以机器为基础的,学习知识为基础的学习,但是它的案例数量仍然非常少。人类的学习一般是你给我一个片断,或者我根据我自己所得到的知识来进行模拟、使用。但是目前在人工智能行业还做不到。还有另外一点就是常识,这一点是我稍后要跟大家探讨的,还有一点就是世界的不完整性,我们可以看到目前我们所有的关于这个世界的了解仍然是不完全的,在我们做AI的过程当中,我们是否需要一个完全完整的知识?但是对人来说,我们都没有办法对全世界有一个清晰的认识,我们如何能够确保AI可以做到对世界完整的认识?还有一点就是交互,机器以及人工智能和人的交互。我们希望在和人交互的过程中,不会出现任何的不良事件,我们希望这个人工智能能够和人进行紧密、有效、正向的联系,而不会带来过多的不良事件。稍后我会和大家探讨一下这方面的研究上的挑战。
首先我们来看一个常识。常识是我们经常提到的,什么叫做常识?我最喜欢的就是麦哲伦的这个案例,很多人都有这样的常识,我们大家都知道这个问题的答案是什么,但是对麦哲伦来说,他到底是在哪一次的旅程当中去世的?我相信在中文和英文当中都有同样一点,如果你了解麦哲伦航海的故事,你就能非常清楚地了解到这一点。还有其它一点,我们可以看到从语义的角度来说,它从表面上是一模一样的,但是我们到底能找出在同样两句话当中语义的差别是什么?从2016年开始,我们就开始进行关于语义的了解,我们去年开始了一个比较大的竞赛,这个竞赛最终的结果事实上并不是非常的有效,我们希望能够真正地寻找到在同样的语言背后的语义的变化,能够让我们的人工智能真正了解到这一点,同时能够帮助我们更好地了解到这个机器所没有办法了解到的人类的自然语言的语义变化。事实上还有其它的一些变化,我也想和大家进行分析,就像我们提到的关于麦哲伦的这个问题也是如此。
我刚才和大家提到了一个不完整性,也是一个非常大的挑战。因为现在越来越多的人开始探讨超级智能,或者是包括智能至高无上的发展,以及机器的完全智能,它们将取代全世界,人类将会灭绝,或者有人说人类会成为机器的奴隶,我觉得你完全不用担心这些部分,因为我相信如果我们有这种杀戮的机器,如果它使用的是一个对世界的不完整认知,它确实会带来很多负面影响。但是对我们来说,它这样的一种结果是非常不可预见的。我们如何能够在一种不完全的模式下,能够对机器来进行训练,这一点是非常重要的,接下来这个部分我还会谈这个观点。
最后一个部分我想和大家探讨的是一个非常大的挑战,也就是我们如何去确保人工智能和人来进行共同的交互。这一点也是在接下来的十几分钟我会和大家进行分享的。
在这里我想和大家特别提出的是,在人工智能当中,人工智能作为一个整体,它和人之间的关系是非常有意思的,他们希望能够帮助人类,但是他们并不是非常希望能够看到在人机协作方面所出现的大量的问题。大家想想下一次你提到人工智能的发展的时候,我们可能花了很多的时间来看我们的人工智能的机器战胜了非常知名的棋手,它在帮助人的同时也战胜了人,很多人提到了人工智能和人之间的关系的恶化。与此同时还有一点就是在之前的文章当中,很多人提到人工智能会取代人,人将会成为人工智能的奴隶。但是对于我们来说,我们自己应该要关注这一点,特别是对于人工智能的负面报道,我们必须关注。
去年我负责了我们的全球人工智能联合大会的国际会议的主办,当时我们就建立起一个特别团队,我们提到了应该是有意识的人工智能,我们特别提到了关于人和机器如何能够得到有效的结合,能够共同协作,这才是最为重要的。在那次会议上,我们就提到了我们为什么要主观地设计这样一个未来,我们为什么要去设计一个让我们自己能够担忧的未来,而与此同时,你们如果认为机器能够战胜人类的话,人还应该做什么事情呢?我们人应该是能够让机器辅助人,增强人的能力,这是需要我们各界相互协作。很多人提到了有意识的人工智能,人工智能或者是有意识的人工智能,可以真正地将我们从传统的机器人为主导的趋势中救出来,我们相信对机器人的负面的报道也会不断地减少。
这是JASON报告,这是一个非常知名的智囊团和咨询团,他们为美国不同的部门提供服务,我之前参加过一个JASON的会议,有一个人说了我们现在必须决定的三大问题。在JAZON现在进行了大量的关于人工智能的研究,同时他向我们展示我们如何在人工智能的各个方面发力,其中他特别提到了一点,就是以增强人类生产力为发展的人工智能,将会最终走向有意识的人工智能的发展。与此同时,我们可以看到当我们在预测未来的人工智能发展的时候,也有一个白宫的报告,它特别提到了我们必须要寻找到有人类意识的人工智能的新算法。
现在我们已经进入了人工智能2.0时代,我们会走向更多的人机协作的时代。为什么我们必须要让人们意识到这一点?为什么我们会提到这一点?为什么我们在做这方面的工作?我在这里和大家探讨一下目前在AI方面的社会学问题。当每次提到人机协作的时候,人们都是觉得好像是一种期待的过程,大家觉得只是人去解决问题,而机器就站在旁边,什么都做不了。对于我们在座的很多年轻人,或者是各位工程师、技术人员,我们都知道这是我们真正的机器对话,这个机器可以有非常好的智能,但是这个机器后面还有一个人,他在阐述这个机器人,但是里面藏着一个真正的人,这是一种谎言,这样的谎言其实是人们希望有人的感知能力的人工智能发展。
人工智能还有没有别的挑战?如果机器做的事情越来越多,人的能力会不会被机器取代?大家都认为,如果机器的能力越来越高,我们就不需要人了。我们再看一下人机融合或者人机合作,人机合作就能拓宽AI技术的深度和广度,而现在人机融合也能打消人们的担忧,比如说有些人担忧机器人将会取代所有的人类进行工作,如果进行人机协作的话,就打消了这种疑虑,同时人机合作或者是有意识的人工智能,它还是一种全新的研究方向,这在未来可能会被认为是一件很酷的科研的方向。现在有许多新的科研的挑战在人机融合方面,从高层或者是政府层面来看是看不到的,我们讲人机融合在操作上有许多的问题需要解决。
有人说,人们需要我们自己的大脑,不光是去看老虎,看狮子,而是去互相观察,在大多数时候,人类的大脑实际上做的事情不是自然的观察,而是社会的行为,比如说我们会倾听、交流和互动,这也就是人脑和机器的大脑能够互相进行合作的地方。因为人脑具有社会交际的功能,所以它能够填补机器在这方面的空白。
(见PPT)这一张片子是我在前面给大家看到的,我刚刚没有讲过情感和社会的智能,但情感和社会的智能恰恰是人脑所拥有的,并且擅长的,我们利用这两个方面的智能教育孩子在学校里要守纪律,并且我们告诉他们如何掌控自己的情绪。同时我们还有社会的智能,社会智能让我们更好地跟别人进行互动,比如说如果没有这种情感和社会的智能,我们在采访的过程中,可能采访人和被采访人之间就不会进行任何的互动,如果机器人去采访,他就会丢掉这份采访的工作,因为他没法和他的采访对象之间进行互动。另外,情感和社会的智能还会帮助人工智能模拟人脑,并且逐渐的具有一些情绪和社会的智能。现在我们已经知道,如果人们开始不使用AI系统,是因为AI系统没有社会和情感的智能,对于现在在座的一些微软的专家,可能听起来不是那么高兴,因为人工智能的确没有社会和情感的智能,而我们知道在微软的办公室里,他们会有一种机器人,会帮助他们的员工去进行工作。在这个机器人身上体现了微软现在已经取得的所有最新的机器人和人工智能的技术,但是当比尔盖茨宣布他要退休的时候,在座的所有的员工都有了情感,有的人开心,有的人难过,有的人可能会哭。但是他们就发现跟他们在一起工作的这些机器人是完全没有任何情感表示的,这也就是说如果我们在平常工作的过程中表现欠佳,我们需要同伴对我们进行一个情感安慰的时候,跟我们一起协作的机器人是做不到的,因为它们本身并没有情感。所以我们现在要开始考虑这种机器的辅助人工智能是否能够被引入到工作场合中去,因为它们本身并不具备情感和社会的智能。
现在大家再看一个智能主体的结构。我们会有一个智能的主体,首先我们要看在这个智能主体之内,它有制动器,也有传感器,我们会看世界,观察这个世界的信息。而对于人脑来讲,人脑也是一个智能主体,但是他观察信息的方式是完全不一样的,大家知道人脑,我们也可以模拟人脑,我们会发现,如果我们让AI的机器模拟人脑的时候,我们就会看到在这张表上一个智能主体的结构变得非常的复杂和丰富。举个例子,如果是出现一个表征的情况,他们不光能够看到现在是什么样,而且他们会想到此刻我周围的人在考虑什么,我周围的人考虑的东西和我之间有没有什么关系。机器不光是对周围的信息感兴趣,而且他开始因为新的人机融合的智慧主体,开始对周围的事情产生关联和联想。就像人脑一样,我们的机器和人脑进行融合,就会关注越来越多的周遭环境的信息,包括这个人在想什么,这个人下一刻在想什么,他想的东西跟现在的环境有没有关系,另外我们还要对这些信息保持持续的追溯。所以人脑抓取信息是越来越复杂和丰富的,如果进行人脑融合的话,我们就可以让机器感知和解决现实中的问题。如果我们关着门一个人待起来的话我周遭的世界是很简单的,但是在社交生活中永远都不是一个人在闭门造车,所以我们需要社会的智能和情感的智能来弥补机器所不具备的这两部分的技能。
我们接下来再看这张图片,在接下来的几分钟我会讲一讲我们的团队在人类意识的人工智能方面做了哪些研究。我们主要是研究人和机器不同的决策、学习的过程,然后去进行和人机融合的模拟,另外我们还要人和机器一起合作,在这里面大家可以看到,我们让一个人和机器进行对话,让机器试图去理解它对面的这个人的意图,通过理解到的意图做相应的动作。比如说他张开双臂是代表什么意思,他把手放在桌子上是什么意思。当然在这个项目里边我们也投入了大量的资金,到现在为止我们的技术能够在某种简单的层面下去让机器了解到它的人类的协作者希望它做什么,并且了解人类的意图,而通过人类的表情去看这个人是开心或者是不开心。另外人类还会给它发送不同的信号,有些信号代表的是高兴,有些信号代表的是不高兴,机器要根据接收到的信号做相应的判断,并且它不光是要做人类期望它做的动作,而且要做人类接下来在下一个环节希望它继续去从事的动作。因为一般情况下,我们可能都很容易去了解我们想做什么,别人希望我们做什么,但是别人为什么希望我们这么做是一个更加复杂的命题,所以在人机训练的过程中,我们训练机器听我们的指令,不光是了解我们的意图,我们不光做人类的语言,跟机器进行沟通,同时还加上手势和表情,而如果手势和表情不足够的话,我们还提供额外的信息来让机器了解人类,让它做某种动作的意图是什么,期待是什么。
举个例子,在荷兰我们做了一个类似的实验,人们看到前面的一个球,然后把信号传递给机器,机器自己去感知它到底是不是要去抓这个球。现在大家来看这个机器和人试图抓取桌子上的积木,而机器人需要了解,当人类开始去抓取的时候,人类希望它怎么做,所以通过人机协作,人类的情感和社会智能就弥补了机器所不具备的情感和社会的智能。
我们现在看一下有哪些挑战。首先,我们必须要有一个很好的人类和机器互动的体制,我刚刚也讲过,现在世界上最复杂的一个问题就是我们去考虑旁边那个人在想什么,这是世界上最难以解决的命题,所以要考虑到人类的思维实际上是很难解决的,我们要训练机器去了解它旁边的人在想什么,这是难上加难的问题。另外,我们不光要确保机器去了解它旁边的这个人想什么,而且要能够根据它的判断去做出一个明确的行为。另外还有一点就是,大家都知道我是一个AI的专家,但是即便是我这样的专家,我也没有办法研制出一个机器人,让它完全了解人类的意图,并且跟人类进行互动。当然,我们都知道如果真的有这样一个机器人产生,它可能会更好地跟人类进行相处,因为它能够了解在这个封闭的社交环境里边人类希望它做什么,但实际上要做出这样的机器人是非常难的。另外我们也需要各国的政府批准人机可以在某种层面上进行互动和协作。举个例子来说,在某些特别的情况下让机器人跟人类一起去互动是不是一种可以被接受的情况,另外在某些细分的行业,比如说国防,是不是人可以和机器人进行合作。另外,在这张图片上大家可以看到,机器人对于世界有自己的感知,而人类有大脑里边自己的关于机器能做什么的预设,这两个预设之间是不是完全一样的?未必。我们必须要让人类去了解他们脑中所设想的那个机器能做的事情,并不是真正机器在大脑里头所想的东西。我们必须要让机器人能够更好地跟人类沟通,比如说到底如何从一个目的地走向另外一个目的地,在前进的过程中最短的路径是什么,最好的计划是什么,人类和机器还有很多的在这样的简单互动方面需要协作的东西。另外还有如何去制定计划,如何把制定出来的计划用清晰的语言去解释出来。所有这些沟通的方方面面都会影响到人机融合未来的前景。
我差不多讲到这里,最后我会给大家放一个短片。我再简单地回顾一下我刚刚讲的所有的东西,首先我给大家做了一个简单的关于AAAI的介绍,AAAI是美国人工智能学会,我们每年都接收关于人工智能方面的论文。今天关于人工智能的研究已经成为我们社会责任的很重要的一部分,而且我们也可以看到中国在全球的人工智能方面的贡献正在变得越来越多,因为我们收到的每两篇人工智能的论文里面就有一篇是来自中国学者的。其次我还讲了人类的婴儿和机器在学习方面的差异。另外我还讲了现在AI技术的一些专业的门槛。最后我讲了如何进行人机协作,并且培养出有人类智能的人工智能,当然这也是我们未来非常困难的命题,这也是像我这样的科学家在未来可能去解决的问题。因为大家都知道,最终的目的实际上不是让机器去取代人类,而是让人类更好地跟机器协作。
。
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/126647.html