开源
-
神经进化:一种不一样的深度学习
雷锋网(公众号:雷锋网)编者按:近年来,神经网络借鉴了生物学策略的相关理论知识,实现了大飞跃,完成了之前无法完成的任务。神经进化作为人工智能的一个研究领域,试图通过进化算法而非随机…
-
春节对联哪家强,人工智能对得狂!
(雷锋网出品)对联传统源远流长,一幅写春联的需要极高的文学素养,不仅要求平仄齐整、意境对称,还要表达辟邪除灾、迎祥纳福的美好愿望。但是对于现代人来说,由于对传统文学的生疏和缺乏对对…
-
表征学习、图神经网络、可解释的 AI , ML & 机器人七大研究进展一览
随着每一年的结束,麻省理工学院电气工程与计算机科学系博士 Gregory J Stein 都会回顾一下对其影响最大的各大研究趋势或论文,今年亦如此。 作为该领域的研究人员,他发现深…
-
最全!2019 年 NLP 领域都发生了哪些大事件?
对于自然语言处理领域来说,2019 年可谓是令人惊叹的一年! 日前,NLP 专家 Elvis 盘点了 2019 年 NLP 和 ML 领域发生的大事件,涵盖具有价值的论文、文章、工…
-
势如破竹!169 篇论文带你看 BERT 在 NLP 中的 2019 年!
2019 年,可谓是 NLP 发展历程中具有里程碑意义的一年,而其背后的最大功臣当属 BERT ! 2018 年底才发布,BERT 仅用 2019 …
-
比基线模型快100倍,Google开源文本生成“加速器”LaserTagger
雷锋网讯,2014年,Google提出了Sequence-to-Sequence模型,旨在将句子文本映射到fixed-length向量,其中输入和输出的长度可能会有所不同。Seq2…
-
TinyBERT 搜索:比BERT快10倍,小20倍
最近,谷歌推出了一种新的方法来进行搜索并决定你看到的结果。这种方法基于流行的开源 transformer BERT,使用语言理解来获取搜索背后的含义,而传统的关键字方法无法做到这一…
-
ICLR 2020| 最新NAS benchmark:0.1秒完成NAS算法搜索
雷锋网(公众号:雷锋网)AI科技评论按:本文对悉尼科技大学博士生董宣毅发表于 ICLR 2020 的录用Spotlight论文《NAS-BENCH-201: Extending t…
-
AAAI 2020 | 计算所&微信AI:改进训练目标,提升非自回归模型翻译质量(已开源)
本文为计算所邵晨泽向雷锋网AI科技评论投稿,未经允许禁止转载。 本文是对计算所冯洋组和腾讯微信AI团队共同完成,被 AAAI2020 录用的论文《Minimizing t…
-
DeepMind开源AlphaFold,蛋白质预测模型登上《Nature》
雷锋网报道:还记得AlphaFold成名的那一战么? 2018年的11月2日,在第13届全球蛋白质结构预测竞赛(CASP)上,AlphaFold获得了预测43种蛋白中的25种蛋白结…