LG
-
微软发布史上最大NLG模型:基于Transformer架构,170亿参数加持
近年来,BERT、GPT-2等深度学习语言模型,极大地提高了问答、摘要、人机对话等下游自然语言处理任务的性能。 而今天,微软研究院重磅发布了有史以来最大的基于Transformer…
-
今日 Paper | 可视问答模型;神经风格差异转移;图像压缩系统 ;K-SVD图像去噪等
目录 准确性与复杂性:可视问答模型中的一种权衡 神经风格差异转移及其在字体生成中的应用 基于GAN的可调整的图像压缩系统 基于原始-对偶活动集算法的K-SV…
-
微软分享史上最大基于Transformer架构的语言生成模型
微软AI&Research今天分享了有史以来最大的基于Transformer架构的语言生成模型Turing NLG(下文简称为T-NLG),并开源了一个名为DeepSpeed的深度…
-
2020 年,图机器学习的趋势有哪些
2020 年才刚刚开始,但我们已经可以通过最新的研究论文看到图形机器学习(GML)的趋势。以下是我对 2020 年 GML 的重要性的看法以及对这些论文的讨论。 前言 本文的目的不…
-
今日 Paper | 多人姿势估计;对话框语义分析;无监督语义分析;自然语言处理工具包等
目录 基于层次表示的面向任务对话框语义分析 固定的无监督语义分析 斯坦福CoreNLP自然…
-
火爆的图机器学习,2020年将有哪些研究趋势?
2019年绝对是图机器学习(GML)大火的一年,凡是学术会议,图神经网络的会场总会爆满。 图机器学习的研究之所以在2019年突然变得火热,原因在于,在前几年尽管深度学习…
-
资源太多难以选择?数据科学爱好者最需要的10大资源推荐
我是一名受过教育的机械工程师,我的第一份工作是在钢铁行业。 我穿着那些沉重的胶靴和…
-
最全!2019 年 NLP 领域都发生了哪些大事件?
对于自然语言处理领域来说,2019 年可谓是令人惊叹的一年! 日前,NLP 专家 Elvis 盘点了 2019 年 NLP 和 ML 领域发生的大事件,涵盖具有价值的论文、文章、工…
-
深度学习的光环背后,都有哪些机器学习的新进展被忽视了?
雷锋网 AI 科技评论按:从神经网络被学术界排挤,到计算机科学界三句话不离人工智能、各种建模和预测任务被深度学习大包大揽,只不过短短十年时间。这十年里我们目睹了 dropout、S…
-
ICLR 2020| 最新NAS benchmark:0.1秒完成NAS算法搜索
雷锋网(公众号:雷锋网)AI科技评论按:本文对悉尼科技大学博士生董宣毅发表于 ICLR 2020 的录用Spotlight论文《NAS-BENCH-201: Extending t…