「人工智能技术一旦完全投入使用,它有可能拯救这个世界,也有可能终结这个世界。」
近日,VentureBeat 与「谷歌大脑」的联合创始人吴恩达、Facebook 人工智能研究院创始人 Yann LeCun 等业内专家进行了对话,并将他们的观点整理成文。雷锋网(公众号:雷锋网) AI 科技评论选取了吴恩达和 Yann LeCun 的观点进行编译,一起看看他们认为 2018 年有哪些里程碑,以及对 2019 年有何预测。
在对 2018 的回顾和对未来的预测中,其中一些专家表示,他们很欣慰越来越少地听到「人工智能终结者」这样的说法,同时也有越来越多的人开始理解人工智能能做什么以及不能做什么。不过,这些专家也强调,该领域的计算机和数据科学家在推动人工智能发展的过程中,需要继续保持负责任的伦理观。
吴恩达:软件业以外的 AI 应用将会有很多故事可讲
吴恩达是斯坦福大学的一位计算机科学副教授。由于种种原因,他的名字在人工智能圈中如雷贯耳。他是「谷歌大脑」的联合创始人,是将人工智能应用到谷歌诸多产品中的倡导者,还创立了帮助企业将人工智能集成到公司运作中的初创公司——Landing AI。他也是 YouTube 上一些最受欢迎的机器学习课程的讲师,也是在线学习公司 Coursera 的创始人兼讲师,同时,他还创立了 deeplearning.ai,并出版了《机器学习要领》(Deep Learning Yearning)一书。
他曾在百度任职首席科学家,2017 年,他离开百度进入另一家科技巨头,并帮助其转型为人工智能公司。最终,他成立了投资基金 AI Fund,并筹集到 1.75 亿美元资金,同时还担任无人车创业公司 Drive.ai 的董事会成员。
本月月初,在吴恩达发布关于指导企业获取人工智能对公司所带来的积极影响的《人工智能转型指南》(AI Transformation Playbook)时,VentureBeat 就对他进行了采访。
他预测在 2019 年,人工智能发生进展或者变化的一个主要方面是它会在科技或软件公司以外得到应用。他表示,人工智能领域待开发的最大机遇在软件领域以外,同时,他还引用了麦肯锡报告中的用例,指出到 2030 年人工智能将会创造 13 万亿美元的 GDP 产值。
「我认为到 2019 年,软件业以外的人工智能应用将会有很多故事可讲。在行业里,我们已经帮助谷歌、百度以及 Facebook、微软等企业做了许多不错的工作,甚至像 Square、 Airbnb 和 Pinterest 等公司也都开始用上了一些人工智能能力。我认为下一个巨大的价值创造浪潮将发生在能够赋能制造业、农业设备以及医疗公司开发一系列有助于企业发展的人工智能解决方案的时候。」
对话中,吴恩达对于 2018 年人们对于人工智能能做什么以及不能做什么的理解的进步表达了他的惊讶,同时,他也很高兴对话没有围绕杀人机器人事件以及对于通用人工智能的恐惧展开。
吴恩达表示,对于采访中的问题,他有意识地给出与其他专家有所区别的答案:「我尝试特意列举出我认为对于实际应用非常重要的一些领域。我认为 AI 的实际应用还存在很多阻碍,而在这些问题的某些方面是有前景性进展的。」
对于接下来的一年,吴恩达期望 AI/ML 研究中的两个特定领域取得进展,而这将能够推动整个人工智能领域发展。
-
一个是「小样本学习」(few shot learning),即人工智能能以更少的数据实现较高的准确率。「我认为深度学习发展的第一波浪潮是拥有海量数据的大公司训练庞大的神经网络,对吧?因此如果你想要构建语音识别系统,就在 10 万小时的数据上对它进行训练吧;想要训练机器翻译系统的话,就在大量平行语料的句对上对它进行训练,以此来实现大量突破性成果。现在,我看到在小数据集上也取得了越来越多的成果,这种形势下,即便你只有 1000 张图像,你也可以尝试做出点成果。」
-
另一个是计算机视觉领域的进展——通用化的视觉能力(generalized visibility)。一个计算机视觉系统可能在斯坦福大学的高端 X 光机拍摄的原始图像上训练时的表现非常好。同时,该领域的许多先进企业和研究者已经开发出表现胜过人类放射科医生的系统,不过,它们并不是特别灵活。
「但是如果你将训练好的模型应用到低端 X 光机上,或不同医院拍摄的有些模糊的 X 光片上,或者技术人员让病人稍稍右转而导致角度产生偏差的 X 光片上,那人类放射科医生在对这一新场景的泛化能力会比现在的学习算法好得多。所以我也看到一些有趣的研究正在尝试提高学习算法在新场景中的泛化性。」
Yann LeCun:AI 伦理问题尚未生死攸关,但人们需未雨绸缪
Yann LeCun 是纽约大学教授、Facebook 首席人工智能科学家,并创立了 Facebook 人工智能研究院(FAIR)——它是 Facebook 的科研部门,先后开发了 PyTorch 1.0 、 Caffe2 以及大量的人工智能系统,例如在 Facebook 上每日被使用上百万次的文本翻译 AI 工具或者会下围棋的强化学习系统。
LeCun 认为 FAIR 针对研究和工具所采取的开源政策帮助推动了其他大型科技公司也进行开源,并且他认为其中的一些开源项目推动了整个人工智能领域的进步。上个月的 NeurIPS2018 以及 FAIR 50 周年庆前夕,LeCun 接受了 VentureBeat 的采访,对于 FAIR,他将其描述为一个致力于成为「机器学习的技术性、数学性腹地,实现各种可能」的机构。
「开源推动了整个领域更快地向前发展,因为越来越多人进行研究交流,这实实在在地带来了非常大的影响。人工智能现在的发展速度很大程度上是由于现在有更多的人在更加快速、更加高效地开展交流,同时做了更多开放性的研究。」
关于伦理,LeCun 表示很高兴看到大家在思考人工智能研究带来的伦理影响以及带有偏见的决策所带来的风险方面的进步。「我们都应该关注这些伦理问题,现在这也已经成为大家的共识。在两三年前情况还非常不同。」
LeCun 提到,他认为人工智能中的伦理和偏见现在还未成为需要我们立马采取行动的主要问题,但是人们应该要为此做好准备。「我认为现在还没有出现… 亟待解决的生死攸关的大问题,但伦理和偏见问题终有一天会发生,因此我们需要… 理解这些问题,并在它们发生之前未雨绸缪。」
和吴恩达一样,LeCun 期望未来出现更多灵活的 AI 系统,进而开发出不需要原始输入数据或者完全准确的场景就能产生精确输出的稳健的 AI 系统。LeCun 表示,研究者已经能够很好地利用深度学习管理感知,但缺乏对完整人工智能系统的整体架构的理解。
同时他还指出,教会机器通过观察世界来学习,将需要自监督学习或基于模型的强化学习。
「不同的人对此的称呼不同,但本质上人类婴儿和动物都是通过观察和分辨大量关于世界的背景信息来学习世界的运作原理,我们不知道如何让机器学会这么做,但这是一项重要挑战。这个研究方向的成果可以让 AI 以及计算机取得真正的进步,让它们具备一点常识,以及让虚拟助手可以更流畅自然地就更广泛的话题和讨论与人类对话。」
对于将有助于 Facebook 内部运营的应用,LeCun 称让自监督学习取得显著进步以及人工智能仅需要少量数据也能返回准确结果,将会非常重要。
「在解决这一问题的过程中,我们希望能够找到能够减少机器翻译或图像识别任务等特定任务所必需的数据量的方法,而现在,我们在这个方向已经有所进展。我们在翻译和图像识别任务中使用弱监督或自监督学习,这已经为 Facebook 所使用的服务带来了影响。所以实际上,这些问题并不是纯粹的长期问题,它们也可以带来短期影响。」
LeCun 期望在未来能够看到人工智能在事件之间建立因果关系方面有所进步。这一能力不仅仅通过观察就能学到,还需要对事物有实际的理解,例如,如果有人打伞,就有可能是下雨天。「这是非常重要的,因为如果你想让机器通过观察学会世界的模型,它就必须能够了解它能对这个世界的状态有何影响,以及哪些事情是它自己做不到的。假设你在一个房间里,面前有一张桌子,桌上有一瓶水,你知道推一下水瓶,水瓶就会移动,不过你没法移动桌子,因为桌子又大又重——这类事情都是与因果关系相关的。」
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/134801.html