前言
我们曾经说过,在人工智能的研究中有一个流派,倾向于认为对大脑的恰当模拟会是制造出人工智能的关键,但事实上,直到今天我们对人脑的工作原理的了解仍然十分粗浅,更谈不上对它的精确模拟了。对大脑的研究、以及对以此为基础的人工智能的研究,早已脱离了单个学科可以应对的范畴,而需要多个学科领域之间的相互协作。或许只有最顶尖的人才才能理解,并最终推动这些领域的进步。
不过即使是我们目前对人脑非常浅薄的研究中得到的认知,也已经构成了一幅无比美丽的画卷。这其中蕴含的奥妙让我们丝毫不会怀疑,我们的大脑是世界上最精妙(同时居然是自然进化出来的)结构。而这些研究也告诉我们,无论是对人类的智能还是人工智能,我们都尚有太多太多可能的潜力没有挖掘出来。如果条件成熟、脑科学同计算机科学能够更加紧密的结合起来,没有人能想象将会爆发出多大的能量。
在刚刚结束的中国人工智能大会CCAI2016上,来自中国科学院的外籍院士、中国科学院神经学研究所长薄慕明院士给我们详细讲解了目前在神经科学领域研究的最新进展。其演讲中体现出来的严谨的思路和实验方法不禁让人赞叹,雷锋网在此精编了整个演讲实录,并为大家做出了注释,在大家阅读的同时,不妨想象一下,在你阅读的同时,你神奇的大脑内密密麻麻的神经细胞之间,又迸发出了怎样的火花?
脑科学能为人工智能带来什么?
演讲者:蒲慕明
非常高兴今天有机会能来参加这个会,今天我想把神经科学里面的一些进展和我个人的一些看法给大家做个报告,希望能帮助到人工智能的未来发展。
大脑的整体结构
首先从最简单的讲起,神经系统有两大类,一是中枢神经系统,包括大脑、小脑、脑干、脊髓,另一种是外周神经系统,主管知觉还有各种内脏自主神经系统。我们所说的脑科学主要专注于大脑,所以,脑科学是神经科学的一部分。而大脑最主要的部位就是大脑皮层,这是我们人类最发达的一个部位,大脑之下的很多结构,叫皮层下结构,是比较早期就出现了的,不过在进化中,从猴到猩猩到人,这个皮层的结构得到了极大的增长,这就是人类认知的主要来源。
脑科学最主要关注的质疑就是皮层的各种功能。现在我们已经知道,大脑皮层的各个部位是分管各种功能的,就是说,功能是分区的,你的哪个区域受损,就会丧失相应的脑功能。比如语言区域受损就不会说话,视觉皮层受损就会看不见,对此的实验我们已经确认过很多次,形成公认的认知了:我们可以通过正电子成像的方法观察大脑的活动——在正常人的大脑中注入葡萄糖,产生活动的地方就会有信号,我们在实验中观察到当被测者看到文字或别的东西的时候总是脑后部的一块区域有活动,我们基本就可以确定这一块是主管视觉的区域,我们让他讲几句话,发现另外一个地方活动,那这个地方基本就是语言区。但是我们观察到一个非常令人惊讶的现象,我们让他不做任何事,光想象几个字,这时我们会发现整个大脑皮层到处都是活动,这说明想象几个字虽然看起来是个很简单的事,但是实际上牵涉到了大脑的很多部位,到底为什么会这样我们至今还没有弄清楚,所以我们说思考在脑科学上怎么解释,我们还是不清楚的。
雷锋网注:
正电子成像术是目前脑成像技术中应用的最广的方法之一,通过注射含有微量不会影响人健康的放射性元素的葡萄糖,我们可以在大脑外部用仪器探测到其散发出的放射线,而大脑工作时会消耗能量,会吸收掉葡萄糖,也就是说此时我们只要观察哪个区域的放射信号在变弱,就能判断那个区域正在工作。
“想象”会调用大部分脑神经结构的事实正好契合了一个假设:人的大脑的潜在运算能力其实非常强大,但人类在进行心算的时候其实是无法用最高效的手段完成计算的,因为人脑没有那个能力。人脑会先将算式转化成脑中抽象的概念,这需要调用到视觉中枢的功能,在模拟计算的时候我们又要调用许多高级功能,甚至在运算比较复杂的算式的时候,我们考虑退位、进位,还需要调用记忆功能。正是这种“低效”的计算方法才导致大脑的计算能力完全无法匹敌计算机。
不管是在对鱼的或者对什么动物的脑部实验,还是对人的脑部实验里,我们都发现,即使他们在不做任何事情的时候,脑部也是有许多自发活动的,这些活动的意义是什么,我们仍然不清楚。这是神经系统的研究目前面临的一个大问题。
神经元与突触
为了进一步的研究,我们把神经系统进行了切片。我们发现神经系统里是密密麻麻的神经细胞,如果我们只染色其中的少数细胞,我们会在颜色交界处发现其实它们有很多网状结构,这些网状结构就是所谓的神经网络,神经系统的功能都是靠这些来实现的。人的大脑有上千亿个神经细胞,我们管它们叫神经元,通过它们之间的互相连接,我们得到了一个由百万亿计的连接组成的一个复杂的神经网络,用来进行感知、运动、思维等各种功能,神经元是有结构的细胞,有输入端也有输出端,它的输出端叫轴突,输入端叫树突(雷锋网乱入:其实这一段好多东西高中生物都教过,红红火火恍恍惚惚)
我们在这里演示一个斯坦福大学实验室做的一个实验,通过特定方法的荧光染色,我们发现小鼠大脑的内部有很规则的也有非常复杂的网络,在这张图中,皮层上方的结构排列比较整齐,下面的区域是另外一种样式了。
我们刚才看到的叫做介观层面(注:这是一种介于宏观和微观之间的尺度)。在这个层面我们可以最好的探究不同种类的神经细胞有什么样不同的作用。宏观太大,而微观又使他们之间的关系变得不明显。绘出介观层面的结构只是第一步,我们需要理解这里面的功能,需要理解它们的功能信息处理和功能机制。在过去的许多年里,我们对这个问题已经有了比较清楚的答案,而且这个过程中诞生了一连串的诺贝尔奖:细胞之间传递信息靠的是脉冲,其中包含的信息是由脉冲的频率和时序决定的,而与幅度无关。脉冲在细胞内运动,而在细胞之间需要通信的时候,传递信息的细胞会从轴突上释放出小泡,通过这些小泡中的化学物质产生离子流动造成电位变化,在膜外传播到下一个接收细胞的树突上,这个过程非常复杂,我们叫做化学突触传递,由于过程经过了细胞外,因此这个过程是可以调节的,我们可以通过外接手段促进或者压抑这个信号,从而干预这个传递的过程和结果。
雷锋网注:
目前哪怕是做出一个200多层的好用的人工神经网络都已经是值得大书特书一番的事情,而大脑中的神经元如果硬要分层,不知道可以分成多少层了,当然,虽然人工神经网络的灵感来源于人的神经网络,但它们的工作原理其实并不是很像。
生物好的小伙伴应该记得(当然如果忘记了也别气馁XD),在高中的生物书上学到神经元这一节的时候,老师应该拿麻醉剂举过例子,麻醉剂的原理就是通过药物堵塞神经细胞间的离子通道,让代表痛觉的信号极少,乃至无法传递至我们的大脑中,从而达到暂时消除痛觉的目的,这正是这个传播方式的典型案例。
另外,在每一个突触释放多少化学物质,接受多少化学物质,都可以改变,这让突触变得非常有可塑性。而这个突触可塑性就是神经系统里信息处理的非常重要的关键,也是我们说的认知学习的关键,化学物质在突触产生的电信号我们叫突触电位,兴奋性突触电位是使突触后的膜电位有去极化下降,假如下降程度超过一个预值就发放脉冲,也就是神经要发出的信号,但有些物质产生超级化,就是使膜电位变的更高就会产生相反作用,一个神经元接收到数百个甚至上千个输入,我们叫做EPSP跟IPSP的输入叠加之后,决定最后是不是超过阈值,超过阈值就发放,发放之后就是信号整合,就传到下一个神经元了,这是信息传递的原理。
环路、网络、神经活动
接下来我们将更复杂一点的结构:环路。我们可以这样理解:神经网络的整体的互相连接叫网络,而在网络之间有很多各种特殊功能的路径,这些路径就叫环路。也就是说,神经环路的意思就是神经元上有特殊功能的网络,也是轴突与树突形成的,在这个网络里抑制性神经元有关键的作用。很多时候通过促进和抑制的共同作用,我们才能完成一些行为活动。
前面提到的这个神经可塑性,我个人认为是过去50年来对大脑的理解中最重要的理解,因为这个理解间接验证了一个假说:60年前加拿大的心理学家海布(Donald Olding Hebb)提出了这个假说:如果两个细胞间多次发生同步的电活动,那么它们突触间的连接就会加强或者说稳固,如果出现不同步的电活动,这些突触就会削弱甚至消失,我们管它叫海布学习法则。可以理解为:如果大脑经常被同样的东西刺激(在神经元间产生同样的电信号),大脑就会对这个东西越来越敏感。这个说法在70、80年代得到了实验证据:电活动可以造成突触的长期强化或者长期弱化现象。如果你刺激高频刺激突触,维持一秒钟,刺激后的突触点位会比刺激前上升,而且这个上升的幅度可以维持很长一段时间,而如果使用低频刺激,结果会是相反的,效率会下降,变得弱化。最近也有实验室发现小鼠活体在进行学习的过程中,在神经元之间产生了新的突触,后来经过观察,这种新的突触的产生在成年个体的大脑里面也会出现,但是出现的频率会远小于发育过程中。
海布的这个假说非常了不起,神经元的可塑性也支持了他的假说。而这个假说进一步推理下去,还可以形成对感知记忆形成原理的一个假说:感知信息传递到大脑中之后,强化了一群神经元之间的联系,而这些被强化的联系其实就是记忆。这些被感知信息所刺激而加强的细胞叫海布细胞群,在这之后,由于它们之间的关联性是非常强的,只要你能通过其中的一部分信息刺激它,就能通过这部分信息使整个细胞群重新开始活动。从而提取出所有记忆。
雷锋网(公众号:雷锋网)注:
我们应该都有过这样的体验:如果我们主动去回忆我们记住了什么东西,往往我们能想起的东西是非常少的,或许三天前的中午你吃过什么你根本就想不起来,可是如果你有一天想起,或者有什么额外的信息来源告诉你那天的中饭是跟一个很久没有见面的好朋友一起吃的,可能在这个过程中你就把那天中午吃了什么乃至其他一些乱七八糟的细节全部一起想起来了。这个现象很好的符合了这个假说的内容。
海布的假说有一个转折,就像人工智能的发展一样,每隔一段时间就有个转折。原来海布的假说里说的同步,到底什么叫同步,两个神经元间放电的顺序是怎样,时间是怎样?这个假说并没有描述,所以后来很多实验都表明海布的假说应该修正为一个时序的假说,突出前跟突出后的神经元的先后,就是突触前要是比突触后先有电活动就是强化,如果是后有电活动就是弱化。
发育的过程中网络的形成是一件很重要的事,我们观察到人活着很多哺乳动物刚出生之后是没有什么网络的,神经元都有,但是它们之间的网络是非常少的,大部分网络都是在出生之后建立的,学习的过程也就是这个网络变成一个复杂有效的网络的过程,在发育期这样新突触的形成是非常频繁的,网络的复杂度增加的非常快。而成年后这个过程仍然会有,但会减少很多。因为大多数位置已经经过了改变,很少再有空间用来进行新的调节和新的突触建立了。
下面终于讲到人工智能了。现在流行的深度学习其实就是基于人工神经网络的一个很好的应用,而这些人工神经网络都是从神经科学的一些规律中得到的灵感。通过结果反馈改进网络中的参数。最终得到很好的结果,不过关于如何调整网络,人工神经网络和人的神经网络是不一样的,你要通过输出改变输入的效率,信息的传递是从输入到输出的方向的,你怎么把输出的信号传回去呢?人的神经里显然不是用数学算法来做这个事的,神经系统没有这个机制。
雷锋网注:
因为人工神经网络通常是通过通过对预期结果与实际结果的差值、节点权重等数据的运算后直接对节点进行调整的,但是突触的结构决定了人的神经网络中的信号传递只能是单向的,输出信号如何反馈给输入呢?蒲慕明和他的团队做了一个实验
我们培养了一群互相连接的细胞,就记录其中四个细胞,他们之间有有16个连接,不过最开始这16个连接点其实只有9个连接点是有电活动的,我们就想改变其中一个连接点的强度,看他会不会影响其他的连接点,比如我们把这个连接E1到E2的连接增强,突触电位增强出现了,但是我们发现除了开始的这9个连接,有4个其他的连接也增强了,这个连接增强也造成其他的连接增强,这证明突触电位的改变确实有一个扩散,(输出的信号通过某种方式传递到了输入端去)我们对这个现象的规律进行了研究,非常开心的写了一篇文章,这篇文章发表在1997年的Nature杂志,题目叫做Propagation of activity dependent synaptic depression in simple neural networks,这篇文章创了两个记录,第一个是Nature长文,有10页纸长,另外一个就是这篇文章是引用率最低的文章,因为当时没人知道我们为什么要做这个实验,神经科学的人看到这个他不知道这个结果有什么用,人工智能的学者又不读生物科学的文章,所以他的引用率是最低的,不过到今年现在慢慢开始上升了,我希望大家对这个重视,我们花了10年功夫证实突触的增强、抑制的反向跟侧向传播是存在的,这个现象我觉得是相当有意思的,是不是我们在人工智能上也可以应用这个机制呢?
人工智能与脑神经科学的相互借鉴
我总结一下刚刚这些内容,在这里提出5类人工智能可能能从人类神经网络里借鉴的特性:
第一个特性,我们现在的人工神经网络里的节点没有种类之分,我们所有的单元都是一样的,但是神经系统的关键就是抑制性的神经元,没有抑制性神经元很多功能无法出现,抑制性的跟兴奋性的神经元还有亚型,不是说每一个单元都是同样的性质,有些单元对高频信号有输出反应,对低频没有反应,亚型有各种信号传递的特性,这都是未来人工智能可以考虑加进去的特性,
第二点是在神经网络里面有顺向的,现在都是顺向的网络,但是也有逆向的网络也有侧向的网络,这都可以是抑制性也可以是兴奋性联接,局部网络里面最关键三种网络,一种是Feedback网络,神经元被激活之后自己轴突输出到旁边的抑制性神经元回来抑制自己,所以他有控制,不是无限制不断的高,他是可以压制高幅度的电活动,第二种是Feed-forward,除了输入兴奋性神经元,同样的输入到旁边的抑制性神经元,通过延迟这个信号抑制神经元,还有旁侧的,把神经系统一连串的信息尖锐化,因为有一个抑制性延迟,所以开始的时候有信息,后面一连串的信息把后面消掉,所以就时间变的更准确,可以强化中间这个被刺激的神经元,通过侧向的抑制使旁边的下降,这样子可以突出该强化的通路,把不该强化的通路压下去,这些都是抑制性神经元造成的。
第三类最重要的可以借鉴的特性就是神经突触可塑性,有功能的可塑性,就是效率的增强或减低LTP(突触长时增强)跟LTD(突触长时抑制),这是我们最常见的,这其中我们需要注意的是增强跟削弱的规律是什么,我们可以依赖突触前后电活动的频率决定LTP或LTD,但也可以依赖时序,就是突触前跟突触后的电发放顺序,这些可以思考如何在人工神经网络里做到类似的应用。还有一个就是结构可塑性,就是这个突触尤其在发育过程中有新生的有修剪的,这个连接是可以变化的,而人工神经网络的神经连接现在是不能变化的,而只能变突触的权重。在计算所的实验室里我们已经把这个联接可变性加入进去,发现有很好的效果,还有一个就是可塑性的传播,LTD的传播是我们的BP的来源,但是LTP为什么不可以传播,传播为什么一定要指定,可以有自己的逆向传播、侧向传播,而且是可以自发的,不需要指令的神经元自己的有序的传播来进行突触的变化。
第四类,记忆储存、提取与消退,按照我们说的假设,记忆是怎么回事呢,就是突触群在感知记忆或者其他记忆激活的时候之间联接增强或者结构修剪,就是在进行处理的网络上的储存,他这个储存的修饰在神经系统里面会随时间消退,LTP、LTD不是长期的,你来一次的话过一阵子几十分钟之后就不见了,这是有道理的,因为不是所有的突触都可以强化,都可以弱化的,这样子的话你得不到有意义的信息,所以他有遗忘,这个短期记忆长期记忆是同样的网络可以进行转化,短期记忆就是可以消退的,有规则的重复性有意义的信息他可以把这个网络之间突触之间的强化和弱化转化为长期的变化,结构上的变化,这就是神经系统的机制,记忆储存是什么,就是在这个网络使部分突触群的活动在线,就可以把这个记忆提取出来。人工智能中的强化学习里,现在是用算法来完成这个强化,但事实上我们可以考虑加入特别的神经单元来做这个功能。
最后就是海布的理论,最有兴趣的一个集群概念,这个海布的神经元集群概念,就是嵌套的集群,可以用来做图像的记忆,做概念的形成,这都是嵌套式集群,加入STDP之后可以变成时序,包括语言信息的储存也是嵌套的,就是句子出现的时候产生的集群,这句话的集群跟另外一句话的集群不一样,同样的一个字一个语句,在不同的句子里面意义不一样,就是因为不同的集群里面他产生了连接,所以这个集群可以把多成分多模态的信息放在一起,视觉的、听觉、嗅觉的,都可以连在一起,不同模态的信息在网络的不同区域处理,在神经网络里面自然网络里面把这些怎样捆绑不同模态的信息呢,他就是用同步的活动在不同区域同时震荡,或者震荡有一个相差,一个先一个后,这也是同步来捆绑各种集群,输入信息,在神经系统中这是很重要的图谱,视觉系统不是乱输入,而是有图谱,有些图谱结构已经用在人工网络里面开始使用了。
脑科学与类脑人工智能的协同发展也是我们未来的前景,强调相互共同支撑、相互促进、共同发展,我是看到人工智能BP神经网络的出现,让我想知道在自然网络中有没有自然形成的,不需要指令的BP算法,发现有这个现象,现在那个现象发现之后还没有回馈应用到人工神经网络上去,所以我说假如再回馈到人工神经网络上,应该也可以发现这个特性很有用,我想说的是,我们应该就算是脑科学跟人工智能结合的一个最好的例子,脑科学可以应用在人工神经网络上,反过来也是可以的,为了有效结合这两个领域,中国科学院去年成立了脑科学智能技术卓越创新中心,这个中心跟一般的中心不一样,我们真的在一起工作,我们相信未来哪一个国家的人工智能跟脑智能的融合协同发展进展最好,那个国家就最有前途,希望大家未来关心脑智中心的发展,我今天就讲到这里,谢谢。
后记
人类有太多的发明是从羡慕动物拥有的能力开始,从仿生结构开始发展一点一点的找到适合自己的最终产品形态的了。如果按照这条路来理解,人工智能未尝不能理解成人类羡慕完了所有的动物,终于开始想要模仿自己的最难的能力——智能了,之前的许多发明除了达到人类本身的愿望外,还为人类带来了许多未曾想到的附加值(举个不是很恰当的例子:飞机刚出现时,曾经有多位身经百战的高级军官认定它在战争中发挥不了任何作用。),而人工智能的出现,或许也能给我们带来我们现在根本想象不到的附加价值。而且,与其说我们会被人工智能所取代,更大的可能说不定是,就像现在的脑科学和计算机科学的紧密合作一样,我们会与人工智能形成一种取长补短的合作,甚至共生?我们究竟能不能在有生之年看到这一切的发生?且让我们拭目以待。
题图来自 nipic.com
雷锋网原创文章,未经授权禁止转载。详情见转载须知。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/60744.html