雷锋网按:本文根据张钹院士近日在 CNCC 2016 上所做的大会特邀报告《《人工智能未来展望,后深度学习时代》》编辑整理而来,在未改变原意的基础上略作了删减。
张钹:CCF会士,2014CCF终身成就奖获得者,中国科学院院士,计算机专家,清华大学类脑计算研究中心学术委员会主任。曾任信息学院学术委员会主任物联网物联网,智能技术与系统国家重点实验室主任,中国自动化学会智能控制专业委员会主任,计算机学报副主宾,2011年德国汉堡大学授予自然科学名誉博士,2016年获微软研究员接触合作贡献奖等。从事人工智能理论、人工神经网络、遗传算法遗传算法、分形和小波等理论研究,以及把上述理论应用于模式识别、知识工程、智能机器人与智能控制等领域的应用技术研究,共发表论文200多篇,中英文专著4部。
今年是人工智能60周年,如果用人生的起步来衡量的话,已经进入了老年,不过还是有很多人希望人工智能能提供成熟的成果和技术,用来发展产业、发展经济进行科学研究。我今天做的报告,将通过分析时代的特点,这个时代下人工智能与计算机的可能命运,来重新认识人工智能,我们赖以生存的计算机,还有我们自己。
后深度学习的前提-人工智能的春天又来了
如今人工智能的春天又来了,不过和30年前在日本的那次相比,时间不同、地点不同,主题也不同,这一次是关于人工智能第二个成果,深度学习相关的。
从知识情报处理到深度学习
从第五代计算机到类脑计算机
从大容量知识库到大数据
从高速符号推理到类脑芯片
从自然语言理解到感知(机器人)
我想这一次是不是我们的机会,我们能不能弯道超车还是又一个日本的“五代机”?我的看法是这两个可能性都存在,关键我们怎么做。
中国有句老话,三十年河东,三十年河西,和30年前比现在有何不同?在我眼里两点,一点是大数据,另一点是概率统计方法(及其理论)。正是因为这两个因素催生了现在的深度学习大潮。
这个第一点大数据我不用宣传,大家看这个图就行。
这是在这种启发下建立的神经网络模型,这里神经网络模型里要着重讲下概率统计方法论,两个词,一个贝叶斯推理,一个概率统计,被“引进”了人工智能,并使得人工智能发生了革命性的变化。
其实很多人不知道,作为对当下人工智能有根本性贡献的概率统计,30年前的它跟现在的它还有很多不同。就是下图的四个里程碑。
我们现在能够做深度学习,能够在几百万、几千万的参数下做优化,很多人都以为是计算机变快,其实不完全是,而是要归功于概念统计方法的变化。这个变化使得我们现在能把深度学习做好。就是上面四个里程碑的出现,大家一定要注意上面的四个里程碑。
后来这些里程碑进一步发展成神经网络了,特别是深度学习,使用多层网络进行学习。所谓深度,就是层数比较多。由于用的深度学习方法,把模式识别、图像识别等识别方法的准确度提高了10%,这个事情又引起了深度学习的热。
为什么呢?因为深度学习解决了一个问题,有相当一部分人,按中文的说法,我们知其然,不知其所以然。我能识别了了马,但我们描述不了马,然后怎么办?那就用深度学习办法:
-
它可以解决一些不能完全表述的问题,也就是说“知其然,不知其所以然” 的问题。
-
第二个它能针对不确定性的问题,我们不断的变化,我可以不断的再学习,最后,它能解决不能清楚表达的问题。
-
另外,深度学习还有一个完全改变传统神经网络的作用,它不仅仅做函数映射,更重要提取那些多层次重复的模式,这是我们讲的真正公共的特征。
这样使我们做模式识别可以达到很高的水平,后来这些用到模式识别、用到语音,包括用到文本(现在正在做,但是效果不如前面,但也有一些效果),效果都很不错。
我们可以这么来说,深度学习这个第二个人工智能提供出来的成果,可以帮助我们解决在给定的数据库下,有了可利用的大数据,在感知信息处理上,有可能达到人类的水平甚至超过人类的水平。
后深度学习时代的人工智能
后深度学习时代的人工智能,就是想把人工智能从这个狭义的,只能解决一定范围的方法,推广更宽广的范围去,这就是我们现在讲所谓的弱人工智能、强人工智能、以及通用人工智能。那我们要做这个工作面临什么挑战?基本上面临三个挑战。
1)一个是概念统计方法带来的困难。
我们刚刚说概率统计方法,对人工智能起到了革命性的变化,但是也给人工智能带来极大的挑战,这就是概念统计本身的原因——通过大量的数据,它只能搞出来重复出现的特征,或者是数据中间的统计关联性,它找出来的不是本质上的特征、语义上的特征,它找出来的关系,也不是因果关系,而是关联关系。
这样做的后果是什么?这里有深度网络做出来的手写数字识别系统,各种各样的2它都能认出来,它声称它这个性能超过了人,识别能力很超前 。
但你们看,当我们用这种噪声去欺骗它,它可以用99.99%的置信度确认它是2,这在人是不可能发生的,为什么机器会发生,因为机器去认识这种0和1,不是根据0和1本身的性质来认识,而是通过黑白分布的统计性质来认识它,因为这排噪声跟2的统计是一样的,所以才有这样的错误。
这个在模式识别上没有问题,但如果用到决策就会出现大错,它甚至可以把一块石头看成是马。这个问题非常严重,也就是说深度学习区分的是重复的模型,但大脑区分的是语义的特征,这两种区分有本质的区别,但是有关联。
2)第二个,生数据带来的问题。
大数据有很多好处,其实大数据带来很大问题。我们现在大数据跟以前的大数据不一样,大量的数据是生数据。我们看网络上传来的数据都是掺杂了很多噪声,有骗人的,有各种垃圾,这种数据叫生数据。大家看下机器对于生数据和经过加工的数据的鲁棒性表现相对很差,不像人。
如果我们用右边的图去训练这个神经网络,它能很好认识的猫;如果用左边的图,它很难认识,因为它不知道猫在哪儿。这个吴教授在我们学校做报告的时候,我跟他开玩笑说,你老说你的好成果,不说你的毛病,它为什么能在猫脸与人脸的识别上都识别地非常好,因为它用训练例的时候,是经过精心挑选的,没有背景,没有经过加工。因此,这三样东西的识别都做地非常好。但如果正例、负例都随便取,那它的识别率只有百分之十几,几乎不认识,可见机器跟人的认识形式是很不一样,它非常不鲁棒。
3)第三个,推广能力,领域迁移。
这两种方法都是就事论事,都很难推广到不同领域,这就是我们的挑战。我们要从一个弱的智能到通用智能,必须要克服这种困难,如果解决这种困难,目前来讲两个解决办法。
两个解决办法
1)一个办法,是人工智能的这两个方法结合起来,因为这两个方法是互补的。
因为知识驱动跟语义挂钩,是理解;数据驱动是黑箱的方法,不理解,但可以保持从数据中提取模型。那么,前面那个必须有人工做模型,这个地方关键在哪儿?知识驱动方法是用离散的符号表示,深度学习是用高维空间里头的向量,这两个东西我们如果能把它 “沟通” 起来,就会把人工智能推动非常大地一步,现在世界上很多机构也在做这件事。
2)另外一个办法,就是回到神经网络的本源。
它是根据神经网络和深度学习借助于人脑神经的工作机制来形成的,人的神经网络有一套办法,这套办法可以借鉴到现在的人工神经网络来,这个工作,世界上也有很多机构在做。
我们一般把计算方法、深度学习,这两个东西如果能够沟通起来,现在主要做的沟通,这两个方法结合起来就会把人工智能推广大大的应用。
第二个,我一个文本看起来洋洋洒洒数万页,我为什么知道这里面说的是什么,因为不同局部的,我怎么从局部的信息,把它整合成为全局的认知,这个大脑里面也有一套办法,这里面也涉及到很多研究。如果我们把这些研究移植到这个地方来,把人工智能往前走一步。
后深度学习的计算机
现在对计算机有这么几个批评,一个你能耗太大,大脑这么大强,才25W,你这一个计算机得多少?另外一个批评,就是对冯诺依曼结构,人脑里面是处理跟存储在一起,你处理跟存储分开,所以对对现在的计算机说三道四。
我想给大家吃一个定心丸,现代的计算机,我们这个人工智能学会(里的人)还是可以靠它维持很长时间的。首先,现在大家讨论最热的一个是个量子计算、一个是类脑计算。大家不要量子计算一出来现在的计算就不行了,不对了。因为量子算法,目前只有一个算法,它就是因子分解,它可以把指数变成多样性,其它的都没用。其它的,这个计算机即使它出来,只有涉及到因子分解那些算法,它有可能加快,其他它目前还没有算法,算不了。所以量子计算机现在绝对代替不了现在的计算机,就像量子通讯代替不了现在的通讯一样。
我想给大家吃的第二个定心丸,现在讲的类脑计算,正确地讲叫Brain Inspired Computer,而不是Brain like,大脑你都不知道什么样子,你like谁呢。
如何建造计算,实现人工智能的两种途径,计算机方式或者学大脑的方式。数据提高了,加一个网络芯片,目前做这个工作的人基本上都得保留一些冯诺依曼架构,不能把冯诺依曼立马取消了。当然也有人直接从右边往左边做,这个是属于基础研究的一类,我们要做的话,这个类脑就需要学科的交叉,我特别推荐要数学、认知科学、心理学、神经科学和语言学等。
最后说一下,人工智能究竟有多大的希望呢?取决于我们对认知的世界的认知,取决于我们对自身的了解多少?
好了,我们把我们对自身的了解分成两个部分,左边部分是“我们知道we know”,右边那部分叫做“我们不知道”,所以我们把它画大一点。
-
我们知道的东西的白色的部分,这就是“我知道的知道”,这就是知其所以然更知其所以然,这就是白盒。(We know what we know)
比如说下国际象棋,就是我们能说清楚,我们知其所以然,又知其所以然,这个用传统的人工智能模型可以解决它。
-
我们知道的下方黑色部分,是“我们不知道的知道”。( We don't know what we know)。
这是黑箱,感知就是这样,我们知其所以然,不知其所以然,我们知道那是张三,但我们说不清楚张三鼻子多高眼睛多大,那怎么办,用深度学习。
从黑箱到白箱中间有个灰色地带,好多问题有的说清楚,有的说不清楚。最典型的就是围棋,围棋有一部分能说清楚,而象棋都能说清楚,马为什么这么走,卒为什么要向前走,围棋绝大部分一颗白子为什么要落在这个地方,大师也说不清楚,他会说这是我的棋感。
棋感怎么做?这就是AlphaGo的重大贡献,把棋感当作模式识别来做,你看到这个版面以后,你就应该知道怎么落子,这个版面就是一个模式,现在我们现在可以说,大师下围棋下得好,不是因为它太聪明了,而是他的模式识别能力非常强,棋子有一点点变化,他就知道变了,就知道我的策略要变,这个就是用传统模型+深度学习,AlphaGo就是这么做的,蒙特卡洛搜索+深度学习。这就是我们不知道的知道。
-
还有蓝色的部分,我们是不知道,但是我们(清楚地)知道我们不知道。(We know what we don't know)
比如情感、意识等等,这个也能够用深度学习的方法来模拟,至少做到表面模拟。人工智能能做的这么多,这就是人工智能的厉害之处,为什么大家注意到,过去除了白色的部分,其它部分我们都不能做,人工智能却能够做这一切。
-
但是唯独黄色这部分,我们都不知道我们不知道。(We don't know what we don't know)
我们都不知道怎的情况下怎么做呢?脑科学研究覆盖了所有,所以,我们的信息是建立在这个基础上,我们不知道的我们不知道,变成我们知道的我们不知道,再把它变成我们知道的我们知道。传统的算法只占在白色部分的一小部分,也就是说可以建立数学模型的问题,所以,我们为什么说人工智能寄予这么大的希望,原因就在这儿。
我就说这么多,谢谢大家。
雷峰网原创文章,未经授权禁止转载。详情见。
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/215368.html