如今,最强大的人工智能系统使用基于深度学习的机器学习方法,该算法通过调整大量的数据隐藏层相互连接的节点来拟合数据,这些节点形成的网络被称为深度神经网络。顾名思义,深度神经网络的灵感来自于大脑中真实的神经网络,这些深度神经网络的节点以真实的神经元为模型。
根据 20 世纪 50 年代神经科学家对神经元的了解,当时一种有影响力的神经元模型被称为感知器,从那时起,我们对单个神经元计算复杂性的理解逐渐加深,人们了解到生物神经元比人工神经元更复杂,但是复杂的程度是多少?不得而知。
为了找到答案,耶路撒冷希伯来大学的David Beniaguev, Idan Segev和Michael London训练了一个人工深度神经网络来模拟生物神经元的计算。该研究表明,“一个深度神经网络需要 5 到 8 层相互连接的人工神经元来才能表示单个生物神经元的复杂性。”
“我原以为它会更简单,更小”Beniaguev 如是说。Beniaguev 也没有预料到这种复杂性,他原来预计三到四层就足以捕获单元内执行的计算。
在Google旗下的 AI 公司 DeepMind 设计决策算法的 Timothy Lillicrap 表示:“新结果表明,可能有必要重新思考,以前将大脑中的神经元与机器学习背景下的神经元进行不精确的比较的旧传统 ”,他认为“这篇论文确实有助于人们更仔细地思考这个问题,并搞清楚我们可以在多大程度上进行类比。”
最基本的相似之处,在于它们处理输入的信息的方式。这两种神经元都接收输入的信号,并根据这些信息决定是否将自己的信号发送给其他神经元。人造神经元是依靠简单的计算来做出决定,但数十年的研究表明,生物神经元的这个过程相对来说更加复杂。
计算神经科学家使用输入-输出函数,模拟生物神经元的长树枝(树突)接收到的输入的信息与神经元决定发送信号之间的关系。
这项新研究的作者使用一个人工深度神经网络模仿这个函数,以确定关系的复杂程度。他们首先对老鼠的大脑皮层中的神经元的输入输出功能进行了大规模模拟,这种神经元的顶部和底部都有不同的树突分支,被称为锥体神经元。然后,他们将模拟结果输入到一个深度神经网络中,该神经网络每层最多有 256 个人工神经元,他们不断增加层数,直到在模拟神经元的输入和输出之间达到毫秒级 99% 的准确率。
最后,深度神经网络成功地预测了大脑神经元的输入-输出函数的行为,结果表明:深度神经网络至少有 5 层相互连接的人工“神经元”,但不超过 8 层。在大多数网络中,一个生物神经元就相当于大约 1000 个人工神经元。
神经科学家们现在知道,单个神经元的计算复杂性,比如左边的锥体神经元,依赖于树突状的分支,这些分支会受到传入信号的轰击。在神经元决定是否发送自己的信号“尖峰”之前,会导致局部电压的变化,以神经元的颜色变化来表示,红色表示高电压,蓝色表示低电压。这个“尖峰”出现了三次,如图中右侧的各分支的轨迹所示,这里的颜色代表了树突从上(红色)到下(蓝色)的位置。
——David Beniaguev
贝勒医学院 (Baylor College of Medicine) 的计算神经科学家安德烈亚斯·托利亚斯 (Andreas Tolias)说:“(这个结果)为生物神经元和人工神经元之间搭起了桥梁。”
这一研究的其中一个作者London对人们提出了警告,他认为,“人工神经网络中有多少层和网络的复杂性之间的关系并不明显,不是直接的对应。”因此,我们不能确切地说,从四层增加到五层会增加多少复杂性。我们也不能说 1000 个人工神经元就意味着生物神经元的复杂度恰好是人工神经元的 1000 倍。说不定,我们可以在每一层中使用成倍的人工神经元,最后能形成只有一层的深度神经网络来拟合一个生物神经元。当然,算法学习可能因此需要更多的数据和学习时间。
London 表示:“我们尝试了多种不同深度和不同单元的架构,但大多都失败了。”
该研究的作者们分享了他们的代码,以鼓励其他人找到一个层次更少的解决方案。但是结果表明,找到一个能以 99% 的准确率模拟生物神经元的深层神经网络是很难的。因此,这些作者们相信,他们得出的结果确实为进一步的研究提供了有意义的比较。
Lillicrap 认为,这一研究结果对于将图像分类网络与大脑联系起来,或许可以提供一种新方法。图像分类网络通常需要 50 层以上,如果每个生物神经元都近似于一个五层人工神经网络,那么一个有 50 层的图像分类网络就相当于一个生物网络中的 10 个真实神经元。
这一研究的作者还希望他们得出的研究结果能够被用于改进 AI 领域目前最先进的深度网络架构。
Segev 指出,“我们建议,可以尝试用一个代表生物神经元的单元来替代深度神经网络中的简单单元,使其更接近大脑的工作方式。”在这种替代方案中,人工智能研究人员和工程师可以插入一个五层深度网络作为“迷你网络”,取代每一个人工神经元。
但有些人怀疑这一研究是否真的对人工智能有益。
冷泉港实验室 (Cold Spring Harbor Laboratory) 的神经学家安东尼·扎多尔 (Anthony Zador)说,“我认为,在这种对比中是否存在实际的计算优势,还是一个悬而未决的问题。”“但是该研究为检验这一点奠定了基础。”
除了人工智能的应用之外,这篇新的论文也加深了人们对树突树和单个生物神经元强大计算能力的共识。早在 2003 年,三位神经科学家就表明,金字塔神经元的树突树可以通过将其建模为两层人工神经网络来进行复杂的模拟计算。在这篇新论文中,作者研究了金字塔神经元的哪些特征(结构)激发了 5 到 8 层深度神经网络的更大复杂性。他们得出的结论是:秘密来自于树突,以及树突表面接收化学信使的一种特定受体——这一发现与该领域之前的研究结果一致。
一些人认为,这一结果意味着神经科学家应该把对单个生物神经元的研究放在更重要的位置。
宾夕法尼亚大学 (University of Pennsylvania) 的计算神经学家康拉德·科尔丁 (Konrad Kording)说:“这篇论文使得我们对树突和单个神经元的思考变得比以前重要得多。”
还有 Lillicrap 和 Zador, 他们认为关注一个回路中的神经元,对于学习大脑如何使用单个神经元的计算复杂性同样重要。
无论如何,人工神经网络的研究可能会提供对生物神经元以及大脑奥秘的新见解。
伦敦大学学院 (University College London) 的计算神经科学家格蕾丝·林赛 (Grace Lindsay)说:“从层次、深度和宽度的角度思考,这项工作让我们对计算的复杂性有了直观的认识。”
然而, Lindsay 也警告说,这项新研究仍然只是在对模型进行比较。不幸的是,目前神经科学家不可能记录真实神经元的完整输入-输出功能,所以可能有更多生物神经元模型没有捕捉到的东西。换句话说,真正的神经元可能更加复杂。
London 说:“我们不确定 ,5 到 8 层是否真的是最终的极限。”
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/142883.html