关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

雷锋网 AI 科技评论按:此前,AI 科技评论已经给大家报道了 10 位院士AI 的深度把脉,而在「新一代人工智能院士高峰论坛」上,除了院士们的热烈讨论,还有来自学界、业界的一线研究者的声音。

他们聚焦于不同的研究领域,并一直工作在最前线,从科研和应用的角度来看,他们的分享同样独具借鉴意义。

12 月 21 日 ,由鹏城实验室、新一代人工智能产业技术创新战略联盟主办的为期两天的「新一代人工智能院士高峰论坛」进入第二日。论坛分为上午场和下午场:

上午场中,来自阿里、清华大学、中科大、中科院计算所及自动化所、北大的专家聚焦 AI 芯片和类脑,从科研的视角分享了各自领域的最新进展。

下午场中,来自中国平安、卫健委、交警局、蚂蚁金服、中科院计算所、云天励飞的六位专家,从应用的视角分享了人工智能的目前的应用情况以及未来的探索。

我们首先来看聚焦当下 AI 领域两个最热门的研究方向——AI 芯片和类脑的分享。

1、谢源:AI 时代的架构创新与机会

来自阿里巴巴达摩院的谢源教授作为首位上台的报道嘉宾,带来了主题为《AI 时代的架构创新与机会》的报告。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

阿里巴巴达摩院技术实验室负责人、IEEE、AAAS、ACM Fellow 谢源

正式进入演讲前,他先以英特尔和英伟达过去五年的股市涨幅(前者 63%;后者 900%)为例,指出了当前芯片市场中是否创新对于一个企业所带来的影响,就正如马云曾说过的一句话:很多人输就输在,对于新兴事物第一看不见,第二看不起,第三看不懂,第四来不及。

借此,他呼应今天的演讲主题表达了自己的核心观点:人工智能时代的来临,给计算机体系结构的创新带来了新的黄金时代,大家需要看到挑战,同时也要抓住机遇。

在过去的 50 年间,人工智能的发展经历了三次起起伏伏,其中的三大关键因素便是算法、大数据和算力。而在当下的第三次浪潮中,软件和硬件的融合成为新的趋势,其中 AI 芯片更是成为了此次浪潮中极为重要的因素。传统意义上的软件公司如 Facebook、亚马逊,以及中国的互联网企业都开始涌入这一赛道。

这一形势下,AI 时代的硬件创新可谓是一个激动人心的「战国时代」,AI 硬件很难出现像过去 50 年的 PC 和移动时代一样,出现 X86 、ARM 一统天下的局面,而是呈现出百花齐放的形势,这也让硬件研发存在更多的可能性。

具体而言,他指出了三个可以探索的大方向:

第一,异构计算。AI 时代没有哪一个单独的芯片能够做到一统天下,例如 CPU、GPU、FPGA 这些不同的通用芯片,各有其优势,因此未来可能需要尝试在同一个平台上使用不同的芯片。对此,他也带领团队开展相关工作,研究如何通过异构计算的方法来提高高性能分布式系统的训练效率。

第二,芯片从通用走向专用。从谷歌在 2017 年发布的第一款 ASIC TCP——TPU,到阿里前不久发布的平头哥含光 900 芯片,这些专用的芯片相比通用芯片的优势非常明显:可以为特定的场景定制,从而实现功耗、成本以及性能的最优。

第三,围绕存储做新架构探索。他指出,AI 时代对存储的带宽容量的要求非常高,计算过程中将数据从存储搬到计算单元、再从计算单元搬回存储中所需的容量和性能损失远远超过做计算本身。因此,当下 AI 硬件创新面临的一个很重要的挑战,就是存储墙。针对这一挑战,他也提出了两个探索方向:

  • 一个方向是利用 3D 堆叠技术解决未来计算中的存储带宽问题。AMD 于 2015 年发布的 Fiji 核心便是这一思路的产物,其可以直接用 Fiji GPU 来加速 DNN,性能大幅提高。现在,几乎所有 AI 芯片公司都会沿用这一思路,考虑在芯片训练中使用这种 HBM(高带宽存储器)。

  • 另一个方向则是计算存储一体化,这是未来有可能改变传统的把计算和存储分开的冯·诺依曼架构的一个方向,并且这种方法不仅仅改变计算机体系结构,还能在材料、底层半导体技术上做更新。其中一个比较有趣的工作便是 ReRAM 技术,能够让计算和存储发生在同一个地方,而不需要做数据的搬移,节省的能耗和提高的性能非常多。

「AI 时代,我们可以探索到计算机体系结构的非常前沿且新的主题,从底层看,可以尝试异构计算、3D 堆叠以及计算存储一体化等;往上看,则是在应用层做创新。这个时代存在着无数创新的机会,这也将为芯片这个行业带来新的春天。」

2、陈云霁:深度学习处理器基础研究

中科院计算所研究员陈云霁,在题为《深度学习处理器基础研究》的报告中,基于自己的研究工作分享了自己的思考。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

  中科院计算所研究员

「AI 时代当下的一个很明显的趋势,就是超级计算机正在和智能技术走向融合,而随着传统芯片无法满足深度学习处理的需求,未来的计算机需要采用专门芯片去实现智能处理,其中最核心的算法则是深度学习处理器。」陈云霁研究员指出,这也是他一开始研究深度学习处理器的初心。

基于多年的研究经历,他指出,设计深度学习处理器体系结构背后的核心思想是:如何用一个深度学习处理器芯片去高效处理海量、各种各样且不断演进的深度学习算法。

要实现这一目标,实际上还面临三个矛盾:

  • 第一个是有限规模的硬件和任意规模的算法之间的矛盾。深度学习处理器作为一个硬件,神经元和突触数量都是有限的,并且在出厂甚至设置时,数量就已经固定下来;而算法则是在设计中可以任意调整的。

针对这一矛盾的解决思路是,将硬件的神经元虚拟化,即通过时分复用,将有限规模的硬件虚拟成任意大规模的人工神经网络,其中的关键技术在于控制架构和访存架构。

  • 第二个是结构固定硬件和千变万化的算法之间的矛盾。硬件的神经元和突触连线在出厂时就是固定的,而算法的神经元或者突触互联的拓扑却针对不同的算法是不一样的,尤其是现在一些新的训练方法,在训练过程中可能会对整个神经网络拓扑都带来变化。

针对这一矛盾的核心思路是,自动抽取各种深度学习(机器学习)算法共性基本算子,再基于这些共性基本算子设计出指令集,最后通过指令集的组合来高效处理这些算法。其中的关键技术在于算子聚类和运算架构。

  •  第三个是能耗受限的硬件和精度优先的算法之间的矛盾。比如说 Alpha Go 下每一盘棋,都要损耗好几十度电,背后很重要的一个原因便是算法工程师和研究者并不会去考虑某个算法到底会耗费多少电;然而能耗对于硬件工程师而言则是需要重点考量的一个点。

针对这一矛盾的解决思路是,通过稀疏神经网络处理器结构来解决。其中的核心是采用软硬协同的思想,在训练中不仅仅盲目追求提高神经网络的稀疏度,而是追求规则化的稀疏,以此来提高稀疏神经网络的处理效率,与此同时更利用神经网络对于计算误差的容忍能力,在有限的能耗下实现高精度的智能处理。

另外他还指出,从应用层面来看,在研制产品级芯片上还会面临两大主要挑战:一个是如何快速地开发出系列化、统一化的端边云智能芯片;二是如何面向系列化、统一化的端边云芯片快速地构建软件生态。

而从基础研究到工程技术,其实更面临着人才短缺的难题,而中国尤其缺乏做底层研究的人才。「虽然我国现在已经有 200 所高校开设了人工智能专业,然而培养的都是算法人才。无论是做芯片还是做系统软件,只有培养出足够多的具有系统思维的人工智能人才,才能这些事情做起来。」

3、吴枫:脑认知与类脑智能

中国科学技术大学校长助理吴枫带来的报告主题是《脑认知与类脑智能》,他从自动化、智能化的成像数据处理对脑科学研究的支持入手,阐述了类脑智能发展所面临的挑战。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

中国科学技术大学校长助理、类脑智能技术与应用国家工程实验室主任吴枫

他表示,类脑现在被视作未未来人工智能发展的重要途径,然而经过近几年的研究,他认为类脑研究不仅仅会促进人工智能的发展,还可能对信息领域带来变革性的变化。

相比于现在的信息系统体系,人脑具有低能耗、超高鲁棒性、超强能力等优势,然而人脑的理解非常之难,这也导致很多神经学家通常都集中在单个功能的研究上,人类到目前为止也没有了解清楚人脑的全连接图谱。而要想了解清楚,则需要做好对人脑数据的获取以及数据的分析。

一方面,在人脑数据的获取上,涉及到三个层面,包括:第一步,确定脑功能的分区;第二步,了解脑分区下面的脑网膜结构;第三步,观察和解析脑的动态活动,也就是电活动。

另一方面,在数据分析上,由于获取的人脑数据规模非常大且多为未经标注的电镜数据,神经学家基本无法处理这些数据,对此,吴枫教授的团队也做过一些相关的工作,包括:首先,利用胞体等特性进行自动神经胞体的分割;接着通过现在深度学习的技术,对光镜细胞做出比较精准的分析;然后用算法将重叠的分割片的信息拼接起来,形成完整纤维的连接,从而最终对连接数据进行分析。

针对信息拼接过程中遇到的对准问题,他们还提出了用 3D 卷积的方法做电镜图像对齐,该方法的性能比传统的方法提高数百倍,精度也进一步提升。

「虽然现在还没有科学家能够对突触等人脑数据分析出来,但是随着人工智能技术的发展,对全脑进行连接层面的分析和研究成为了可能,我认为后续这方面的工作非常有意义,并且有可能产生诺奖级的成果。而这需要花大量的时间和精力进行长期的研究。」演讲最后,吴枫教授也表达了对于这一研究方向的期待和信心。

4、尹首一:面向无处不在的 AI 计算

清华大学微电子学研究所副所长尹首一分享了在可重构计算和 AI 芯片方面的一些研究成果和心得体会,他的报告主题是《面向无处不在的 AI 计算》。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

清华大学微纳电子系副主任尹首一

他首先指出,现在的大部分 AI 计算还依赖云端,然而在未来的很多场景下,受限于很多客观因素,一些数据可能不太适合上传到云上。

正如 ARM 和谷歌不约而同地对未来的 AI 计算系统体系提出了一致的愿景:未来的 AI 计算应该是分等级的分布式计算系统,即从云到边缘设备再到终端设备,让不同等级的数据在不同的地方进行计算和处理,从「AI in Cloud」变成「AI Everywhere」。

而要实现这一愿景,还面临着一个难题:计算需求和功耗受限之间的矛盾。具体到 AI 芯片设计上,则主要有以下三个主要的挑战:

  • 第一个挑战来自于可编程能力。也就是说,随着算法的演进,AI 芯片能够通过编程得到持续改进。

  • 第二个挑战来自于 AI 芯片落地应用处理任务时,不仅需要处理神经网络,还需要处理大量常规的计算或经典的信号处理计算。

  • 第三个挑战则是能耗问题,尤其是对于边缘设备或者物联网设备而言,能耗问题非常突出。

为了实现这种超高能效、可编程又具有灵活性的计算,在过去六七年的时间里已经有了相当多的工作,主要沿着两个方向努力:一个方向是算法方向,对神经网络模型进行剪枝、压缩、量化、低位宽化;另一个方向则是在领域专用的体系结构上的探索,包括数据粒度、编程和存储模型等。

针对体系架构,尹首一教授等人也做了一系列工作,其中就包括采用基础的可重构计算架构来做 AI 计算芯片,主要从 MAC 单元、PE 及 PE 阵列架构三个层面上实现了硬件的可重构能力。采用这种架构设计出来的芯片,不仅能够支持灵活的、不同神经网络的编程,还能极大地降低能耗。

而下一阶段,尹首一教授指出,应该尝试实现可重构、可编程的体系结构和存储计算一体化(In-Memory Computing)的融合。「这样才是一个将来能够真正把计算和能效继续推高,把芯片的适用性和灵活性继续扩大的 AI 芯片解决方案。」

5、程健:边缘端智能计算和芯片

中国科学院自动化研究所南京人工智能芯片创新研究院常务副院长程健带来的分享同样聚焦缘端智能计算和芯片。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

中国科学院自动化研究所研究员中国科学院自动化研究所南京人工智能芯片创新研究院常务副院长程健

他指出,现在的计算逐渐从云端走向边缘端,然而边缘端的计算目前还存在很多问题:一方面是移动设备「算不好」;另一方面则是穿戴设备「算不了」。而这些问题背后的原因主要还是边缘端的智能计算复杂度太高,当前的芯片还无法满足这类边缘端计算的需求。

在过去很长一段时间,国内学术界研究算法和研究硬件的人属于两个完全不同的领域,各自「井水不犯河水」,几乎很难一起做研究,然而随着近几年来智能计算的发展,尤其是深度学习模型对芯片架构提出了新的挑战和诉求,计算和芯片二者在研究中结合得越来越紧密。

深度学习从一开始的 AlexNet,有 8 层网络,约 6000 万个参数;发展到 2014 年的 VGG-19 模型,有 19 层网络,大概 1.43 亿个参数,深度学习模型越来越复杂,如果无法直接在存储中处理数据和模型,就会对带宽造成巨大堵塞,对效率产生很大影响。

这就要求提高边缘端的计算能力,主要的推进方向有两个:一是从神经网络模型的表示、计算、存储、 和学习等方面,通过压缩、剪枝、量化等方法来简化模型;二是使用专用加速器加速深度学习应用,将 32bits 浮点数转换为定点数,减少延迟,降低能耗。

程健认为,智能计算按应用领域分为云端和边缘端,按任务可以分为训练和推理,这四者可以组成四个象限:云端训练、云端推理、边缘推理以及边缘训练。而随着目前智能计算走过了从云端训练到云端推理、再到边缘推理的阶段,下一步可以探索边缘训练,特别是随着 5G 通信的到来,将为这一方向的探索带来了更多的机会。

6、黄铁军:视达(Vidar):视觉新模型与超级视觉

北京大学信息科学技术学院教授黄铁军,则基于自己的最新研究成果,带来了主题为《视达(vidar):视觉新模型与超级视觉》的报告。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

北京大学信息科学技术学院教授黄铁军

演讲伊始,他先提出了一个问题:人为什么躲不过子弹?原因是:人的眼睛往大脑传送神经脉冲的速度比较慢,而且每秒只能传几十个脉冲,所以,当一颗子弹飞过来时,眼睛根本来不及向大脑传输信号。

基于此,他较为尖锐地指出,现在 90% 做计算机视觉的研究者根本还没搞明白视觉到底是什么,因而现在用摄像头采集视频+算法的技术研究路线和思维方式从根本上来说都是错误的。并且,用视频作为视觉信息的表达方式的这一起点,就是错的。

他表示,视频实际上是影视产业发展的产物,它利用的其实就是人类视觉系统的缺陷——视觉暂留,来给人类以连续的画面感,而生物视觉则是视网膜接收连续的光子撞击,再由神经节细胞接收到足够刺激后发放脉冲,接着脉冲序列被传送给大脑,最后大脑从脉冲序列中解码出外部世界,

因此,要真正实现机器智能,就必须放弃视频这一概念,用新的思路去做研究:了解从眼睛到大脑的神经脉冲是如何编码外界的视觉信息的。基于这一思路,黄铁军教授在视觉信息处理方面最近开展了一个工作,便是模仿从视网膜到大脑的神经脉冲对外界视觉信息进行编码。他将这项工作称之为视达(vidar)。

最后他再次强调,计算机视觉的研究者应该彻底改变用摄像头+算法的研究思路:「第一,不再用以前的识别摄像机,而要用新的视达芯片和摄像机来抓识取过程;第二,不要在计算机上编算法,而要在脉冲神经网络做脉冲序列。」

人工智能技术在现实场景中的应用情况如何?以及未来会有哪些值得探索的方向,我们继续来看:


7、肖京:人工智能赋能实体金融

平安集团首席科学家肖京首先分享了人工智能在金融领域的赋能情况,他的报告题目是《人工智能赋能实体金融》。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

平安集团首席科学家肖京

他指出,相对于互联网,智能化应用更加复杂,前者只是模式的创新,相对容易实现;而后者则是技术上的创新,需要具备数据、技术(算法和算力)、场景和行业专家四大要素,让业务流程的每个环节都实现智能化。

在智能化应用的能力建设上,他从平安在智能化应用的案例实践出发,指出可以分三步走:

  • 第一阶段是婴儿阶段,即形成包括听觉、视觉、阅读理解能力在内的基础认知;

  • 第二阶段是学习阶段,即构建海量信息和知识图谱的全面知识体系;

  • 第三阶段是专家阶段,即能够具备打造专业解决方案的能力,能够让 AI 赋能金融服务、医疗、智慧城市等行业应用场景。

最后,他也提及平安对于 AI 伦理问题的极大关注,不仅积极参与各大部委对于 AI 伦理的标准制定,还专门成立了平安人工智能伦理委员会,创建了一套完整的体系来保证 AI 不会被滥用。

8、罗乐宣:深圳市智慧医疗服务体系与人工智能应用探索

深圳市市委卫生工委书记、深圳市卫生健康委员会党组书记罗乐宣主要介绍了人工智能在深圳市智慧医疗服务体系中的应用和探索。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

深圳市市委卫生工委书记、深圳市卫生健康委员会党组书记罗乐宣

在智慧医疗体系建设方面,总体来讲是由深圳整个卫生健康委进行底层的统一规划,并通过标准先行,去逐步推进卫生健康细则建设。在实施过程中则遵循四个「一」来推进:共享平台统一、一码(电子健康码)服务一生、一网协同运行、一体协同监管。

在高水平医院的建设上,不仅推动智慧医院的建设,还进行智慧医院跟企业的联动,逐步提升例如电子病历的水平等。

在便民惠民方面,深圳现在超过 95% 的市医院都推行了预约挂号服务,同时提供一站式在线服务、预防、诊疗、康复和办证服务。

在完善家庭医生服务规范上,则打造了四个「统一」的服务体系,包括:统一呼叫中心,统一签约管理,统一服务标准,统一绩效管理。

与此同时,他还分享了在人工智能探索方面的一些工作,包括与腾讯、鹏城实验室等企业和机构多方合作,来探索医疗大数据、人工智能的应用,以及在应用场景方面落地城市健康舆情可视化及趋势分析系统等等。

9、徐炜:科技支持、智慧赋能——积极打造智慧交通先行示范

深圳市公安局交通警察局局长徐炜,则汇报了深圳交警在科技支撑、智慧赋能、智慧交通方面所做一系列工作。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

深圳市公安局交通警察局局长徐炜

他指出,深圳智能交通、智慧交通一直都走在全国的前头:第一套电子警察诞生于深圳,第一个车牌自动识别系统也诞生于深圳。多年以来,科技赋能交通管理也成为了深圳交通管理非常重要的亮点。

具体而言,人工智能技术通过以下方式赋能交通管理:

第一,在顶层设计上遵循「智慧+」理念,治理体系向智慧转型。在这个方面,交通治理体系主要经历了技术辅助、各自为政,科技引领、统管统建以及智慧赋能、百花齐放三个阶段。顶层设计从城市交通大脑向交通智能体转变,重点就安全、畅通、执法、服务这四大领域全面赋能。

第二,在警务变革上,深圳立了 26 个攻坚团队,汇聚各种技术打造一个中心三大体系:总指挥运营中心+执法、科技、后勤保障等 N 个指挥中心的「1+N」指挥中心;安全体系、治堵体系、运营体系三大体系。

演讲最后,他也表达了自己的展望:积极打造智慧交通先行示范,即沿用比肩世界的最先进的交通管理理念以及科技赋能优势,全面打造新一轮的交通管理体系,实现交通的绿色化以及可持续化。

10、漆远:金融智能的思考与实践

蚂蚁金服首席 AI 科学家、副总裁漆远博士,基于大量真实的案例分享了金融智能所遇到的挑战,并对此提出了自己的思考。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

蚂蚁金服首席 AI 科学家、副总裁漆远

他表示,金融与 AI 两者其实是相辅相成、互相推动的关系:AI 可以赋能普惠金融提升风控能力,提高效率,改善用户体验和减少信息不对称;而金融也为 AI 提供完美的场景,因为金融行业数字化程度最高,拥有全方位多场景的应用,与此同时, AI 可以对金融服务提供显著的改善效果,所以金融行业也更有动力去发展和应用 AI。

他指出,金融智能面临的挑战主要集中在以下几个方面:

第一,复杂动态网络。一方面是一些恐慌行为会通过网络的传播效应导致更多人产生恐慌行为;另一方面,在交易风控中,人到设备、设备到人再到商户之间的各种网络产生大量复杂的结构性数据,如何对它们进行建模后分析是一个非常难的问题。

第二,金融中的对抗性无所不在。每一笔交易都有可能是人和系统的对抗。对抗性与前面的大规模网络和实时处理需求结合起来,将会变成更大的挑战。

第三,人机协作问题。一方面,要想服务海量用户,需要实现自动化来提高效率;但另一方面,为了防止灾难性风险或者系统性错误,金融系统中人工干预又是不可或缺的。怎么把人的知识和机器的决策结合起来,会成为一个很好的研究方向。

第四,算法的公平性。随着机器智能在越来越多的系统中发挥着关键决策功能,如何避免智能算法引入偏见从而做出「歧视性」的决策,是一个非常重要的问题。

第五,数据安全和隐私保护问题。随着整个社会对数据和隐私保护越来越重视,如何打破数据孤岛让更多的数据融合产生价值,同时又要保证数据的安全隐私,这两者之间其实挺矛盾的。

对此,漆远博士也从蚂蚁金服的案例出发分享了一些解决方案,例如构造了两个非常关键的学习能力:蚂蚁图智能平台和蚂蚁共享智能平台等等。

11、山世光:弱小数据驱动的视觉学习进展实例

中科院计算所研究员山世光,基于在人脸识别等图像识别技术上超过 20年 的研究经验,带来了主题为《弱小数据驱动的视觉学习进展实例》的报告。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

中科院计算所研究员山世光

山世光研究员指出,随着人脸识别已经取得了非常大的进展,接下来将会从「看脸」时代转向「读心」的时代,从依赖强大的数据的学习算法转向弱监督小规模数据驱动的视觉学习算法。因此,打造有温度、有温情的 AI 系统,非常重要。

对于「读心」,他认为可以从三个层次来开展工作:

  • 第一,测量生理性特征,比如身高、体重、心率、呼吸、血压、血氧、眨眼率、视线、瞳孔缩放、皮肤状况、醉酒状态等等。

  • 第二,评估心理状态。表情很多时候是虚假的,而微表情则更能体现人试图隐藏的内心情绪。这些心理状态的评估可以应用到学习、驾驶、健康等方面。

  • 第三,通过观察生理特征和心理状态,来评估人的内心精神状况,包括是否抑郁、幸福等精神层面的辅助诊断。

然而在具体的技术实现上,「读心」首先就面临着是数据稀缺的挑战,比如针对自闭症儿童的数据,有个几十人就已经算多的了。那么如何在非常小规模的数据环境下做好机器学习呢?

他认为可以从以下三个方向来克服这个挑战:

  • 第一,自监督学习,思路是针对小样本,尽可能地采用借鉴人的注意机制的方法,找到最值得关注的区域并提取特征,从而即便在小样本情况下也可以实现比较好的视觉特征学习。

  • 第二,弱监督学习,思路是通过引入不同的任务,进行多个任务的协同处理,从而将不同任务的算法进行优势互补,实现弱监督条件下的学习。

  • 第三,半监督学习,思路是协同训练一部分带标签的数据和另一部分没有标签的数据,让二者同时学习多个模型,互相补充和支持,将这些没有标签的数据也用起来。

最后,他总结道,未来十年,AI 会深刻地改变各行各业,AI 算法也会越来越深刻地了解人类,然而现有的算法还不足以支撑社会各界对 AI 的预期。如何在数据稀缺情况下做机器学习是未来要克服的挑战之一,他今天分享的仅仅是实现标签从无到有、由弱变强、从小到大的思路,而其他的思路,例如如何将领域知识设计成一种通用的算法等,也是值得领域研究者关注和研究的方向。

12、王孝宇:Regionlets 通用目标检测

云天励飞联合创始人兼首席科学家王孝宇博士,作为最后一位报告嘉宾,主要基于其对通用目标检测方法——Regionlets 的研究历程分享了体会以及思考。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

云天励飞联合创始人兼首席科学家王孝宇

一开场他便感慨道:「我之前掉进过一个坑,现在这个坑还没填满,大家有兴趣的话还可以往里面灌点水。」

而他口中的这个坑便是:在 2018 年,也就是提出 Regionlets 的五年之后,才真正将深度学习的方法加进去,做完全端到端到训练。

他介绍道,Regionlets 是他们于 2013 年就开始研究的一项工作,该方法不仅能采用选择性搜索策略对每个候选检测包围盒进行多种区域特征的集成级联式分类,还保留了目标的空间结构关系,可以灵活地描述目标,甚至是发生形变的目标。

2017 年,他们再次回到这项工作进行完善,然而知识将深度学习当做特征提取的方法,直到 2018 年才完全引入深度学习的方法,做端到端的训练。该方法最终在 COCO 目标检测测评指标上的表现比 Mask R-CNN 还要好。

同时,他也基于研究工作以及创业经历中遇到的一些问题,针对智慧城市这一研究领域分享了一些思考:第一,如何在布满摄像头的城市中解决遮挡问题;第二,如何在目标检测中将时间维度和空间维度同时考虑进去;第三,在做多个目标检测时,如何提高搜索精度以及提高对比效果?

在 12 场精彩报告中,还穿插进行了两场圆桌会。

上午场的圆桌会中,黄铁军、谢源、陈云霁、吴枫、尹首一、程健六位嘉宾针对「 AI 的新架构,像模拟脑、模拟神经网络的计算架构,哪个会最先进入商业应用的环节?」、「随着量子的兴起和商业化,它是否会对人工智能算法、芯片架构和类脑计算产生根本性的变革?」等问题发表了自己的意见并进行了讨论。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

而下午场的圆桌会中,陈熙霖、肖京、漆远、王孝宇、徐炜、山世光六位嘉宾则要围绕着 AI 技术的应用展开,交流了业务场景里的相关问题。

关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

最后,「 2019新一代人工智能院士高峰论坛」在各位专家的热烈讨论中画上了圆满的句号。下一届「 新一代人工智能院士高峰论坛」,明年见! 雷锋网(公众号:雷锋网) 雷锋网 


关于 AI 芯片、类脑以及应用趋势,谢源、陈云霁、肖京等 12 位专家带来了专场报告!

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/137553.html

(0)
上一篇 2021年9月2日
下一篇 2021年9月2日

相关推荐

发表回复

登录后才能评论