新闻中心

排序方式

ACL 2021 | PENS: 个性化新闻标题生成数据集

为了开展新闻标题生成任务的研究,微软亚洲研究院的研究员们构建了第一个可以离线评测个性化新闻标题生成方法的基准数据集:PENS(PErsonalized News headlineS)数据集;同时还提出了一种个性化新闻标题生成的通用框架,并且对其进行了效果评估。该论文 “PENS: A Dataset and Generic Framework for Personalized News Headline Generation” 已被 ACL 2021 收录。

发布时间:2021-08-04 类型:深度文章

ACL 2021 | 今年NLP的这些论文,你不能错过!

自然语言处理领域的国际顶级学术会议ACL 2021于8月1日-6日在线举办。本届大会共计接收论文3350篇,其中21.3%的论文录用到了主会中,14.9%的论文录用在了Findings子刊中,其综合录用率达36.2%。在此次会议中,微软亚洲研究院也有多篇论文入选,本文精选了其中的6篇进行介绍,论文主题涵盖:跨语言命名实体识别、代码搜索、音乐生成、Hi-Transformer、预训练模型、语义交互等。欢迎感兴趣的读者阅读论文原文,希望对你的研究痛点有所启发和帮助!

发布时间:2021-08-03 类型:深度文章

ACL 2021 | 时空可控的图片描述生成

一直以来,图片描述生成任务都是人工智能领域研究人员们关注的热点话题。近期学术界提出的 Localized-Narratives 数据集,为图片描述生成的可控性和可解释性研究提供了新的机会。基于此,微软亚洲研究院的研究员们展开了深入研究,致力于对图像描述生成任务中所涉及的语义概念进行空间和时序关系上的控制,以提高其表现性能。同时,研究员们还提出了一种新模型 LoopCAG,并通过一系列实验证明了其在多个层面的可控性优势。针对视觉信号和语言信号的对应关系这一研究热点,研究员们从图片描述生成的可控性角度给出了解答,但想要深度理解和研究这一问题还有很长的路要走。希望感兴趣的读者可以阅读论文全文,并发表自己的独特观点,和研究员们一起交流学术感想!

发布时间:2021-07-29 类型:深度文章

ACL 2021 | 难度预测和采样平滑,提高ELECTRA模型的表现!

在 ELECTRA 模型的预训练过程中,生成器无法直接得到判别器的信息反馈,导致生成器的采样过程不够有效。而且,随着生成器的预测准确率不断提高,生成器会过采样那些正确的词作为替换词,从而使判别器的学习低效。为此,微软亚洲研究院提出了两种方法:难度预测和采样平滑,通过提高生成器的采样效率来提升模型的表现。相关研究论文 “Learning to Sample Replacements for ELECTRA Pre-Training” 已被 Findings of ACL 2021 收录。

发布时间:2021-07-28 类型:深度文章

微软亚洲研究院提出多语言通用文档理解预训练模型LayoutXLM

最近一段时间,基于文本、布局和图像的多模态预训练模型在视觉丰富的文档理解任务中取得了优异的性能,展现了不同模态之间联合学习的巨大潜力。继此前发布的通用文档理解预训练模型 LayoutLM 之后,微软亚洲研究院的研究员们进一步提出了一种基于多语言通用文档理解的多模态预训练模型 LayoutXLM,希望为丰富的视觉文档理解任务消除因不同语言所带来的障碍。同时,为了更精准地评估多语言文档理解预训练模型的性能,研究员们还引入了多语言表单理解基准数据集 XFUN。该数据集包含7种主流语言的表单理解标注样本:中文、日文、西班牙文、法文、意大利文、德文、葡萄牙文。

发布时间:2021-06-01 类型:深度文章

微软亚洲研究院最新研究成果:文字生成视频,只需一步

随着网络性能的不断提升,视频已经成为越来越多人获取信息、娱乐休闲的主要方式,与此同时也涌现出了不少视频的创作人员,他们将喜欢的人、事、物,以具有创意的视频形式呈现出来,这让和小编一样毫无视频创作细胞的小白羡慕不已。不过,这样的能力你很快就可以借助技术实现了,微软亚洲研究院提出的开放领域视频生成预训练模型 GODIVA,基于 3D 注意力机制,克服了视频帧连续性建模的挑战,可秒级实现基于文字脚本生成视频。

发布时间:2021-05-07 类型:深度文章

“进化”的搜索方式:揭秘微软语义搜索背后的技术

作为一项云搜索服务,Azure 认知搜索集成了强大的 API 和工具,帮助开发人员构建丰富的搜索体验。不止于现状,微软的研究员们为 Azure 认知搜索“加持”了语义搜索功能,可以让搜索引擎拥有语义排序、语义摘要、语义高亮、语义问答以及自动拼写校正等能力。本文将揭晓这些神奇功能背后的核心技术,涉及关键词包括预训练、图网络、多任务等。本文编译自微软研究院博客“The science behind semantic search: How AI from Bing is powering Azure Cognitive Search”。

发布时间:2021-03-26 类型:深度文章

微软AI系统刷新美国司法学院入学考试逻辑推理纪录

近日,微软亚洲研究院自然语言计算组提出的新方法,刷新了关注美国司法学院入学考试(LSAT)逻辑推理部分的数据集 ReClor 的纪录,并且超过了人类的准确率(注:人类准确率指的是 ReClor 论文中给出的10名大学生的平均得分)。今天让我们来看看研究团队在机器逻辑推理研究中有哪些新的尝试,又有一些怎样的发现与进展。

发布时间:2021-03-16 类型:深度文章

自回归与非自回归模型不可兼得?预训练模型BANG全都要!

近两年,预训练技术的发展极大地提高了自然语言生成的效果,但随着数据量和模型大小的增加,模型在使用时的推断耗时也随之变大。为了降低自回归生成的时延,并行预测目标语句所有单词的非自回归模型被提出。然而,非自回归和半非自回归的依赖关系学习和生成难度较大,它们的生成质量往往弱于自回归模型。针对上述问题,微软亚洲研究院的研究员们提出了新的自然语言生成预训练 BANG。

发布时间:2021-02-03 类型:深度文章

四两拨千斤,如何做到自然语言预训练加速十倍

随着自然语言处理中的预训练成为研究领域的热点,预训练的成本与计算代价也成为了大家在研究过程中必须考虑的现实问题。本文将会介绍多种在训练模型过程中提高效率,降低成本的方法,希望能对大家的研究有所帮助。

发布时间:2021-01-19 类型:深度文章