新闻中心

排序方式

Best Paper一作:所有实习经历都是有意义的

2020年岁末将至,我们接连收到好消息:三位不同时期在微软亚洲研究院实习的实习生,作为第一作者斩获了各自领域重量级论文奖项,虽说科研要脚踏实地,但同是科研打工人,他们为什么突出重围?他们在微软亚洲研究院又有着怎样的经历和体会?未来想要进入微软亚洲研究院实习的童鞋们,这篇真诚的分享绝对不可错过!

发布时间:2020-11-19 类型:深度文章

NeurIPS 2020 | AI编程:如何从复制粘贴走向推理合成

AI 编程是人们对人工智能的一大期望,现在的 AI 编程技术虽然已经惠及了许多不会编程的普通用户,但还远没有达到满足人们预期的程度,一大痛点在于:现有 AI 只会进行机械地记忆与复制粘贴,难以灵活处理人们的需求。微软亚洲研究院提出的新型神经网络架构 LANE(Learning Analytical Expressions)能够模拟人类的抽象化思维,从而在 AI 编程中获得组合泛化能力。

发布时间:2020-11-18 类型:深度文章

带你读论文 | 端到端语音识别模型

本文将通过六篇论文,从建模方法、响应时间优化、数据增强等不同方面讲解端到端语音模型的发展,并探讨不同端到端语音识别模型的优缺点。

发布时间:2020-11-17 类型:深度文章

EMNLP 2020 | 微软亚洲研究院精选论文解读

EMNLP 是自然语言处理领域的顶级会议之一,2020年的 EMNLP 会议将于11月16日至20日召开。微软亚洲研究院精选了5篇录取的论文为大家进行介绍。

发布时间:2020-11-13 类型:深度文章

OSDI 2020 | RAMMER如何进一步“压榨”加速器性能

传统的深度学习框架为了模块化设计,通常使用互不感知的两层调度模型,导致无法充分发挥硬件的计算性能。针对现有深度学习框架的局限,微软亚洲研究院和北京大学、上海科技大学合作提出了 RAMMER:一种可以成倍甚至几十倍地提升深度学习计算速度的编译框架。这套编译框架的背后是微软亚洲研究院打造的深度神经网络编译器 NNFusion,目前已在 GitHub 上开源。

发布时间:2020-11-12 类型:深度文章

EMNLP 2020 | 忒修斯之船启发下的知识蒸馏新思路

深度学习的发展推动了很多大型神经网络模型的诞生,这些模型在多个领域中都取得了当前最优的性能,基于 Transformer 的预训练模型也在自然语言理解(NLU)和自然语言生成(NLG)领域中成为主流。然而,这些模型所包含的参数量巨大,计算成本高昂,极大地阻碍了此类模型在生产环境中的应用。为了解决该问题,来自微软亚洲研究院自然语言计算组的研究员们提出了一种模型压缩的新思路。

发布时间:2020-11-10 类型:深度文章

圆桌共话:金融数字化已经走了多远?还要走多远?

近日,在微软亚洲研究院第三届创新论坛上,各成员企业与微软亚洲研究院的计算机科学家们共同就 AI+ 行业的落地开展了一场跨越空间的思想碰撞。在论坛上的金融领域圆桌讨论环节中,华夏基金总经理李一梅、太平资产副总经理徐钢以及工商银行软件开发中心总经理助理刘承岩,共同分享了数字化转型在金融领域的应用成果,并对该领域的未来发展进行了探讨。

发布时间:2020-11-05 类型:深度文章

微软多语言预训练模型T-ULRv2登顶XTREME排行榜

为进一步实现用 AI 赋能用户体验,微软正在不断拓展多语言模型的边界。近日,由微软图灵团队与微软亚洲研究院联合探索的最新跨语言研究成果——多语言预训练模型 T-ULRv2,登顶 XTREME 排行榜,T-ULRv2 可以在相同向量空间表示和理解94种语言,提升所有语言的产品体验。

发布时间:2020-11-04 类型:深度文章

OSDI 2020 | 微软亚洲研究院论文一览

OSDI 是计算机系统软件领域全球最顶级的会议之一,每两年举办一届,被誉为“操作系统原理领域的奥斯卡”,拥有极高的学术地位。第14届 OSDI 将于2020年11月4日至6日召开。此次会议投稿398篇,共录用论文70篇,录用率不足18%。本文中,我们将为大家介绍微软亚洲研究院被录取的6篇论文。

发布时间:2020-11-03 类型:深度文章

XYZ“三原色”,助力AI决策类人化

人类认知的三大属性包括:单语言文本(X),音频或视觉感官信号(Y)和多语言文本(Z)。微软通过研究 X、Y、Z 三个领域的交汇处,发现了实现 AI 能力又一次飞跃的可能——以更接近人类的学习和理解方式进行多感知和多语言学习。

发布时间:2020-11-02 类型:深度文章