澳门大学陈俊龙:无需深度结构的高效增量学习系统

雷锋网(公众号:雷锋网) AI 科技评论按:本文作者陈俊龙、刘竹林等,本文首发于公众号德先生,AI 科技评论授权转载。

本文是对陈俊龙教授团队「Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture」的中文综述,原文将在 IEEE Transactions on Neural Networks and Learning Systems, Vol. 29, Issue 1, 2018 发表。

论文链接:http://ieeexplore.ieee.org/document/7987745

文章代码下载地址:http://www.broadlearning.ai

正文

深层结构神经网络和学习已经在许多领域得到应用,并在大规模数据处理上取得了突破性的成功。目前,最受欢迎的深度网络是深度信任网络(Deep Belief Networks,DBN),深度玻尔兹曼机器(Deep Boltzmann Machines,DBM)和卷积神经网络(Convolutional neural Networks,CNN)等。

虽然深度结构网络非常强大,但大多数网络都被极度耗时的训练过程所困扰。其中最主要的原因是,上述深度网络都结构复杂并且涉及到大量的超参数。另外,这种复杂性使得在理论上分析深层结构变得极其困难。另一方面,为了在应用中获得更高的精度,深度模型不得不持续地增加网络层数或者调整参数个数。

因此近年来,一系列以提高训练速度为目的的深度网络以及相应的结合方法逐渐引起人们关注。其中,宽度学习系统提供了一种深度学习网络的替代方法,同时,如果网络需要扩展,模型可以通过增量学习高效重建。

单层前馈神经网络(Single layer feedforward neural networks,SLFN)已被广泛应用于分类和回归等问题,因为它们可以全局地逼近给定的目标函数。一般来说,基于梯度下降的 SLFN 的泛化性能对某些参数设置,例如学习率,非常敏感。更重要的是,他们通常在训练时收敛到局部最小值。为此,由 Yoh-Han Pao 教授在 1990 年代提出的随机向量函数链接神经网络(random vector functional link neural network,RVFLNN)提供了不同的学习方法。

RVFLNN 有效地消除了训练过程过长的缺点,同时也保证了函数逼近的泛化能力。因此,RVFLNN 已经被用来解决不同领域的问题,包括函数建模和控制等。虽然 RVFLNN 显著提高了感知器的性能,但是在处理以大容量和时间多变性为本质特性的大数据时,这种网络并不能胜任。为了对中等大小数据进行建模,C. L. Philip Chen (陈俊龙) 在 1990 年代末也提出了一种动态逐步更新算法 (增量学习),用于更新 RVFLNN 中新增加输入数据和新添加的增强节点的输出权重。这项工作为调整遇到新的输入数据的系统铺平了道路。

另一方面,近年来除了数据量的增长之外,数据的维度也大大增加。假如将原始的「大」数据直接输入神经网络,系统往往无法再保持其有效性。如何处理高维数据最近成为迫在眉睫的问题。克服这个难题的两个常见做法是降维和特征提取。其中,特征提取目的是寻求从输入数据到特征向量的最佳函数变换。易于实现和效率突出的特征提取常用方法包括,变量排序(variable ranking),特征子集选择(feature subset selection),惩罚最小二乘法(penalized least squares),随机特征提取方法,包括非自适应随机投影(non-adaptive random projections)和随机森林(random forest)以及基于卷积的输入映射等等。

因此,对于特征提取,可以采用「映射特征」作为 RVFLNN 的输入。本发明中提出的宽度学习系统(Broad Learning System,BLS)是基于将映射特征作为 RVFLNN 输入的思想设计的。此外,BLS 可以在新加入的数据以有效和高效的方式更新系统(输入的增量学习)。BLS 的设计思路为:首先,利用输入数据映射的特征作为网络的「特征节点」。其次,映射的特征被增强为随机生成权重的「增强节点」。最后,所有映射的特征和增强节点直接连接到输出端,对应的输出系数可以通过快递的 Pseudo 伪逆得出。为了在宽度上扩展特征节点和增强节点,论文中额外设计了对应的宽度学习算法。同时,如果网络结构需要扩展,论文同时提出了无需完整网络再训练的快速增量学习算法。

论文的其余结构如下。首先介绍 RVFLNN,如图 1-3 所示。其次,给出了所提出的宽度学习算法的细节。第三,在 MNIST 分类和 NORB 分类中实验宽度学习系统,同时与其他各种深度神经网络进行比较。最后,给出关于宽度学习系统的结论和讨论。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

如图 4 所示,假设我们提供输入数据 X 并利用函数ϕi(XWei+βei) 映射产生第 i 组映射特征 Zi。其中,Wei 是具有适当维度的随机权重系数。给定记号 Zi≡[Z1, . . . , Zi] 表示前 i 组所有映射特征。同样的,第 j 组增强节点ξj(ZiWhj+βhj ) 被记为 Hj,同时前 j 组所有增强节点被记为 Hj≡ [H1,. . . , Hj]。实际上,根据建模任务的复杂性,可以选择不同的 i 和 j。此外,当 i≠k 时,ϕi 和ϕk 可以是不同函数。同样,当 j≠r,ξj 与ξr 也可以不同。在不失一般性的情况下,本文省略了随机映射ϕi 和ξj 的下标。图 4 表征了论文提出的宽度学习网络的结构。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

论文中还提供了三种不同的增量学习算法,包括增强节点增量,特征节点增量和输入数据增量(图 5)。由于更新输出层的 Pseudo 伪逆时,只需要计算新加入的节点的伪逆,增量学习的训练过程节省了大量的时间。从这个角度分析,宽度学习系统可以高效重建需要在线学习的模型。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

在 BLS 的基础上,我们提出了一种新的神经-模糊模型,我们称之为模糊 BLS。该模糊 BLS 保持了 BLS 的基本结构,将 BLS 的 feature nodes 部分替换为 Takagi-Sugeno 型模糊子系统,同时去掉了原来的 sparse autoencoder(如图 6-7 所示)。输入数据会送入每一个模糊子系统进行处理,然后将每个模糊子系统的输出作为 enhancement 节点的输入。在模糊 BLS 中,我们也只需要通过伪逆来计算顶层权重,而模糊子系统部分的参数将通过聚类和随机产生的数据来决定。这样我们可以减少模糊规则数,大大加快模糊子系统部分计算速度。在函数逼近和分类问题上,与经典的和目前主流的神经-模糊模型相比,模糊 BLS 在精度和训练时间上都表现出极大的优势。关于模糊 BLS 的论文目前正在审稿中,之后我们会提供更详细的描述。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

如果在特征节点内,增强节点内,以及特征节点和增强节点之间建立不同的权重连接,宽度学习网络可以产生不同的变体。其中一种典型的结构如图 8,图 9 所示。对应的数学模型以及增量学习模型可以在即将发表的论文中查看。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

另一种变形的把宽度学习结构里的串联增强节点,这样就可以成为宽深学习网络,如图 10,图 11 所示。宽深网络数学模型以及增量学习模型也可以在即将发表的论文中查看。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

最后,相关实验结果被给出以验证所提出的宽度学习系统。为了确定提出的系统的有效性,论文测试了宽度学习系统在 MNIST 数据下的分类表现。同时,为了证明 BLS 的有效性,我们将与现有「主流」方法的分类能力进行比较,包括堆叠自动编码器(Stacked Auto Encoders,SAE),另一个版本的堆叠自动编码器(another version of stacked autoencoder,SDA),深度信念网络(Deep Belief Networks,DBN),基于多层感知器的方法(Multilayer Perceptron based methods,MLP)深玻尔兹曼机(Deep Boltzmann Machines,DBM),两种的基于 ELM 的多层结构,分别表示为 MLELM 和 HELM。在我们的实验中,网络由 10×10 特征节点和 1×11000 增强节点构成。相关的权重均为随机生成。

BLS 的测试精度以及其他所提到的深度算法测试精度如表格 1 所示。虽然 98.74% 不是最优秀的(事实上,深度学习的表现仍然比 SAE 和 MLP 好),BLS 在服务器上的训练时间被压缩到了 29.6968 秒。此外,应该注意的是,MNIST 数据特征的数量减少到 100。这个结果符合学者在大数据学习中的直觉,也就是现实应用中的数据信息通常是冗余的。

表格 2 是 BLS 在 NORB 数据库上的分类表现以及和其他模型的比较,最后两行 BL 是「宽度学」的结果,其它都是深度学习算法的结果,表明宽度学习算法是又快又准。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

澳门大学陈俊龙:无需深度结构的高效增量学习系统

另外,我们还对增加的输入测试增量宽度学习算法。测试结果如表格 3 所示,表明设计的算法高效并且有效。从而,我们进一步得出结论,本文所提出的宽度学习算法,可以逐步更新建模系统,而无需从一开始重新训练整个系统。尤其当系统收集到新输入数据时,现有网络结构迫切需要更新以反映系统的真实性和完整性。这一功能完全适用于大数据时代。基于上述实验,宽度学习系统在训练速度方面明显优于现有的深度结构神经网络。此外,与其他 MLP 训练方法相比,宽度学习系统在分类准确性和学习速度都有长足的表现。与数百个迭代的高性能电脑下几十小时或几天的训练相比,宽度学习系统可以在几十秒或几分钟内轻松构建,即使在普通 PC 中也是如此。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

我们对 20 万的数据,每个数据维度从一万维度到三万维度,做测试,在 3 分钟到 50 分钟之内,宽度学习都很快的找到神经网络的权重。另外在函数逼近和回归问题上,BLS 和模糊 BLS 都表现出较高的精度,具体参数设置和结果见表格 4 和 5。

澳门大学陈俊龙:无需深度结构的高效增量学习系统

澳门大学陈俊龙:无需深度结构的高效增量学习系统

综上所述,我们认为 BLS 以及它的各种变体和扩展结构具有良好的发展潜力,在实际应用中表现出其快速且高精度的优秀性能。

作者简介

澳门大学陈俊龙:无需深度结构的高效增量学习系统

陈俊龙系澳门大学讲座教授及科技学院前院长,博士生导师,国家千人学者,自动化学会副理事长,IEEE Transactions on Systems, Man, and Cybernetics: Systems 期刊主编。1985 年获美国密西根大学硕士学位,1988 年获美国普度大学博士学位。曾在美国德州大学工学院任终身教授、工学院副院长及电机计算机系主任。曾任 IEEE Systems, Man, and Cybernetics Society (SMCS) 学会国际总主席(2012-2013),现任资深主席(2016-2017)。陈教授是 IEEE Fellow、AAAS Fellow、CAA Fellow、国际系统及控制论科学院院士(IASCYS)、香港工程师学会 Fellow,担任多个 IEEE 期刊副主编。科研方向包括:系统及智能算法理论与工程,数据分析及挖掘,物理建模及智能控制。

陈教授近五年主持与参与的各类国家科技计划包括:国家基金委、科技部 973 物联网计划子课题和澳门科学基金会。曾承接美国基金委,美国航天局,美国空军科研实验室,海军研究实验室科研计划。两次获澳门自然科学奖,2016 年获母校美国普度大学杰出电机与计算机工程奖。

刘竹林,现为澳门大学计算机科学博士生,山东大学数学本科,澳门大学硕士毕业,科研兴趣为计算智能、机器学习、函数逼近。冯霜,北京师范大学数学本科、硕士毕业,现为澳门大学计算机科学博士生,研究兴趣为模糊系统、模糊神经网络及应用、计算智能。

雷锋网版权文章,未经授权禁止转载。详情见。


澳门大学陈俊龙:无需深度结构的高效增量学习系统

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/129143.html

(0)
上一篇 2021年8月30日
下一篇 2021年8月30日

相关推荐

发表回复

登录后才能评论