雷锋网 AI科技评论按,2017年11月25日,由中国中文信息学会主办,哈尔滨工业大学(深圳)承办的中国中文信息学会2017学术年会暨理事会在深圳大梅沙雅兰斯丽比迪酒店隆重召开,雷锋网(公众号:雷锋网) AI科技评论也赶赴现场为大家带来报导。
此次会议邀请到学界和业界的多位知名专家,会议首日,美国伊利诺伊大学香槟分校(UIUC)计算机系教授翟成祥、中国科学院心理研究所所长傅小兰、京东硅谷研究院主任研究员李维、清华大学医学院生物医学工程系宋森、今日头条人工智能实验室主任李航为大家带来了五场精彩纷呈的特邀报告,横跨心理学、计算机科学、神经科学等多个领域。
对于为什么涵盖这么多的领域,中国中文信息学会理事长方滨兴院士表示,中文信息处理能扩展到各种信息处理方面,如语音处理等,这种宽泛性表示了一种跨领域的属性,往往为创新提供了更多契机。
翟成祥教授:TextScope: Enhance Human Perception via Text Mining
在上午的第一场特邀报告上,翟成祥教授带来了题为《TextScope: Enhance Human Perception via Text Mining》的主题报告,报告伊始,他表示,TextScope是一个形象的比喻,他将从大数据的角度分析文本数据存在的价值。“文本数据到处都有,这可以看作人对世界感知以后的数据,和传感器、温度计等没有很大的区别,这些都是对世界的感知和观察。 通过对文本数据的分析,既可以观察到观察者眼中的世界,也可以分析到观察者的想法,这是带给我们的机遇。”他如是说道。
之后,他强调了利用文本数据可以进行的相关研究,如从文本数据考察语言知识,用来预测现实世界的几乎所有变量,将来的趋势等。“文本数据包含了世界的很多知识,另外,利用文本数据在分析文本时能提供语境。”
对于如何让文本产生更大的价值,他提出了如下观点:多个文本数据拼凑在一起会产生极大的价值,将非文本与文本结合在一起,也有很多进行研究的空间。
在演讲中,他做了一个形象的比喻,将显微镜和望远镜结合在一起,可以扩宽我们的感知,让人看到更多的东西,TextScope是一个采用文本数据作为支持,用自然语言理解、信息检索、数据挖掘、机器学习来构造的交互式系统,也可以扩宽我们对世界的感知,与显微镜和望远镜相比,它能让我们看到更为复杂的知识和内在动向。
他们希望能构造文本分析、机器决策的通用工具,在主题分析方面可以满足个性化的需求。对于具体应用,他首先提到了医院的医疗系统,如预测、诊断、治疗等,系统会通过数据挖掘,研究药物的副作用,进而提供给医学研究人员作进一步考察。此外还有商业智能方面的用途,可以通过用户对产品的评论来进行分析,分析评论者是对价格更看重还是对服务更看重,从而进一步细化分值,对用户进行个性化推荐。最后他提到股市预测,通过分析股票新闻与文本新闻之间的关系,挖掘出有用信息。
他强调,在这一过程中,人和机器的合作很重要。他表示,TextScope只是一个设想,这个系统前景很大,最终目标是研究人和计算机如何优化合作,将来的方向有通用系统、决策系统、预测系统等 。他也说到,目前的系统如chatbot等只能从与人的对话中学习,不能超越人类,而将来的系统都是向智能agent方向发展 ,要能学会探索。在未来,也存在很多很大的挑战,例如怎么让人机合作(心理学部分很重要),如何解决系统的操作,如何应对鲁棒挑战等。
傅小兰研究员:感知、记忆和判断的认知计算模型(PMJ模型)
在翟成祥教授的报告结束之后,傅小兰研究员带来了题为《感知、记忆和判断的认知计算模型(PMJ模型)》的报告。对于为什么要提出PMJ模型,她表示,“认知即计算”已成为认知科学的主流观念,计算机科学不仅关注数值计算,更重视解决现实世界的问题 ,人类作为智能生物对复杂环境信息的高效加工方式,值得计算机科学借鉴。她进一步阐述了什么是认知计算,“认知计算是以人为中心的计算,要解决计算问题,更要解决认知问题,要利用认知神经科学成果对计算模型提出生物学意义的具体约束,要利用脑功能连接组学成果对大脑神经网络进行建模和仿真。”
那么PMJ模型的核心思想是什么呢?傅小兰研究员提到如下三点:一是认知加工过程主要由感知、记忆和判断组成 ;二是认知加工通路大致分为快速加工、精细加工和反馈加工 ;三是认知过程的感知、记忆和判断对应于计算流程的分析、建模和决策。接下来,她还进一步解释了三种不同的加工通路,“快速加工通路类比于大细胞通路及其关联的皮层通路,这是一种“快而糙”的算法,精细加工通路类比于小细胞通路及其关联的皮层通路,则是一种“慢而精”的算法 ,而反馈通路是指自上而下的反馈。”
之后,她细致描述了PMJ模型中的五个假设以及这五个假设的指导意义。这五个假设分别是:1) PMJ各阶段的输入输出可量化计算;2) PMJ各通路协同完成认知加工;3) 视觉显著特征自动捕获注意;4) 意图和先验知识自上而下地引导注意;5) 判断的输出可预测感知输入。
除此之外,她也介绍了大量相关的研究工作,如基于PMJ的图像情感预测和图像颜色修改。
在报告的最后,她说道,“在网络化、云计算和大数据时代,随着智能手机和穿戴式终端的普及、智能家居和物联网的兴起,智能计算必将逐渐渗透到当今社会的每个角落,为人们更方便、更舒适、更健康地生活和工作提供全方位服务。”
而在她的报告结束之后,对于这一研究领域,大家也进行了踊跃的提问,诸如目前是否有方法能追踪人脑思维信号,心理学与计算机科学之间的联系等。
李维博士:Deep-Parsing Chinese
傅小兰研究员的演讲结束之后,李维博士作为上午最后一位演讲嘉宾,一出场就引发了一阵拍照狂潮。他的报告主题是《Deep-Parsing Chinese》,主要为现场观众带来了如下四个方面的知识,一是自然语言处理的架构解析,二是中文语言解析的挑战和迷失,三是如何应对这些挑战,四是如何落地和应用。
演讲伊始,他抛出了自己的核心观点:自然语言的核心是怎么去理解它,怎么去进行深度解析,他为大家展示了一张自然语言处理框架图。“我们需要把碎片化的情报进一步挖掘,然后再延伸到应用层。浅层工作做完之后,需要研究怎么深入到深层去,深度解析是自然语言的核武器。”
他表示,深度解析实际上已经到了比较成熟的领域,自然语言虽然很难,但从大数据的角度来看,目前到了足以提供应用的阶段。自然语言的深度解析现在已经达到robust,可以处理混杂的语言对象,传统指标F-score已经达到接近人的程度。
他也提出汉语句法分析时常见的问题,比如说我喜欢烤红薯,那么到底是喜欢烤,还是喜欢红薯呢?另外还有其他常见的问题,比如不用标点符号、出现错别字、省略很多小词、词序混乱等。很多人认为汉语词序是固定的,对于这种看法,他提出了不同意见,他表示,词序并不固定的,例如“我鸡吃了”和“鸡我吃了”这两句话。
提到中文语言解析的挑战和迷失,他表示一共有三点:第一点是在很多大会上都会有人说中文很独特,有很多难点,事实上不是这样的,每种语言都需要tokenization;第二是POS tagging,从理论上说没有必要去做POS tagging,另外对于深度解析,不要去用别人的POS tagging,这样做之后,后续会永无止境的需要调节。第三个迷失是不应该认为自然语言的本质是循环,他认为Chomsky的思想割裂了汉语的两面性。
如何突破Chomsky的围墙,他表示,CFG的典型算法是把东西一锅烩去做句法分析器,现在主张用 软件工程的办法把任务一层一层变小,FSA解决了recursion的问题,不过可能有人批判会出现错误放大。
至此,上午的主题报告结束。
宋森教授:语义处理的神经机制及神经符号主义系统
下午的报告有两场,第一场是宋森教授带来的《语义处理的神经机制及神经符号主义系统》,宋森教授开场提到了深度学习面临的问题:大自然是复杂的系统,自然界的很多现象都呈现长尾分布,在大数据条件下,深度学习做得不错,但面对小数据时,深度学习经常犯致命错误,这时候应该怎么办?人会采取推理、类比的方法,这时候我们可以从大脑中得到很多启发。他为现场听众细致描述了大脑的全局链接结构,他表示,不同的任务会激活不同脑区,连接结构也不同,过去的十年人们才开始搞清楚这些网络。他提到最近用计算机科学知识帮助神经科学研究的最新文章,也提到2016年发表在nature上的一篇比较有代表性的文章,对细节进行了分析。
接下来他细致描述了局部编码。“大脑的一个最基本特征就是高度并行,用空间换时间。比如要表征8这个数字,在计算机中可能用二进制编码;在外周神经,可能是单个神经元发放8个spike,采用频率编码;而在中枢神经,采取8个神经元,其中一个神经元发放一个spike就可以了。”
对于稀疏编码理论,他表示这与计算机有很多结合点。他提到做过的一系列实验:给受试的小组看不同的短片,观察细胞对事件的反应。之后他也提到对大脑的更多分析:大脑中存在hub脑区,这些脑区的时钟比较慢,而其他脑区的变化比较快,尤其是管感知的脑区。
而对于语义理解中的神经符号系统,他表示有两条路径,第一是神经网络-符号系统的对偶,在这里神经网络和符号系统完成同样的功能,但是互相交流和借鉴,从而加速学习;第二是神经网络-符号系统的协作,神经网络和符号系统完成不同的功能,成为复杂系统相互协作的模块。
在他的演讲结束之后,大家也提出了各种各样的疑问,诸如动物的语义系统和人的语义系统的区别,怎么理解人在理解语言是大脑的工作,实验中受试者是否分类等。
李航研究员:人工智能的未来—记忆、知识与语言
最后一位带来分享的特邀讲者是李航研究员,他的演讲主题是《人工智能的未来—记忆、知识与语言》。在演讲伊始,他先是描述了记忆对我们的重要性,他举了英国音乐家 Clive Wearing 的例子,Clive患了失忆症中最严重的一种,不能去记新的东西,过去的记忆也有很多缺失,只有瞬间记忆。他借此引出了人脑的结构,其中的重要器官是海马体。之后李航博士引用了Frank Longo的大脑功能模型,为我们进行了详细的解读,他表示大脑的短期记忆能持续18-30s,而长期记忆的特点是对信息进行了压缩处理。
说完人脑之后,他提到了人工智能系统。“这些系统没有长期记忆,比如AlphaGo、自动驾驶等,这些都是通过机器学习事先学好,调用不同模型。这是目前人工智能系统的主要模式。”
那么未来会是什么样的呢,如何构建出智能的问答系统?他为我们讲解了这样的系统的框架,其中包括语言处理模块、短期记忆、长期记忆等,和大脑功能模型的图基本一致。他表示,假设系统能不断读数据,那么能不能构建一个非常好的语言处理模块,将数据进行压缩表示之后放到长期记忆里。“这样是一个进步,不仅有AI系统,有意识,有长期记忆,还能做自然语言问答,这是现在的愿景。”
而想要实现这个愿景也存在很多挑战,在自然语言处理的过程中,经常会遇到歧义性、多样性,另外,语义是一个非常模糊的东西,一个词的语义可以发生各种扩展,另外还存在知识概念的模糊性,有名的例子就是bachelor的概念。
那么有什么好的解决手段呢?他表示,将神经处理和符号化处理结合进行互补是个好办法,用神经符号的方法实现智能问答系统,沿用深度学习概念,将符号表示和向量表示结合。其实这样的工作业界也有在做,比如Nell系统。此外他也提到可以借鉴深度学习的方法做端到端学习。他表示FaceBook提出的memory networks系统根据描述做简单问答,其核心也是长期记忆。而最近最接近的工作是谷歌的neural symbolic machines模型,可以从知识库自动找到答案,这个模型有大量训练数据,可以把自然语言转换到命令,连接到符号处理。之后,他也介绍了之前的相关工作。他的愿景是希望在未来能实现AI系统的长期记忆,通过神经符号处理的技术,把神级网络和符号处理结合起来,把自然语言推到另一个高度。
至此,五位嘉宾带来的精彩报告全部结束。
短暂的茶歇之后,迎来了学会2017年技术评测工作回顾,由学会副理事长黄河燕教授主持并进行了学会评测工作介绍。本年度开展了评测工作的7个专业委员会的代表分别就各专委会开展的评测工作做简要报告,报告内容如下:
信息检索专委会:郭嘉丰研究员,“面向智能问答的偏正排序评测报告”
知识与语义计算专委会:韩先培副研究员,“全国知识图谱与语义计算大会技术评测工作回顾”
社会媒体处理专委会:蒋盛益教授,“SMP技术评测的实践与思考”
计算语言学专委会:车万翔副教授,“首届中文机器阅读理解评测介绍”
少数民族语言专委会:赵小兵教授,“民族语言自动分词评测MLWS2017”
机器翻译专委会:黄书剑助理研究员,“CWMT2017机器翻译评测介绍”
搜狗:许静芳研究员,“CIPS-SOGOU 问答评测比赛情况介绍”
至此大会第一天的活动全部结束,虽然活动已经结束,但精彩内容还在继续,雷锋网 AI科技评论后续也将整理出部分嘉宾的精彩演讲内容,敬请期待。
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/industrynews/128952.html