新闻中心

排序方式

在科学“法师们”的眼中,科研合作有怎样的魔力?

编者按:30年前,微软公司创始人比尔·盖茨设想有朝一日电脑将会看、听、读和学习,并以此为目标在1991年创立了微软研究院,专注于前沿技术的研究和创新。30年后的今天,我们步入了智能时代,比尔·盖茨当初对电脑的设想已经成真。30年间,微软研究院的科学家们是如何相互合作,一步一步将想法变为现实的?

发布时间:2022-01-25 类型:深度文章

微软亚洲研究院副院长刘铁岩博士获选2021 ACM Fellow

今天,国际计算机学会(Association for Computing Machinery,简称ACM)公布了2021年度国际计算机学会院士(ACM Fellow)名单,以表彰来自世界各地高校、企业和研究机构的研究人员,在算法、计算机科学教育、密码学、数据安全和隐私、医疗信息学以及移动和网络系统等领域的贡献。微软亚洲研究院副院长刘铁岩博士因其在机器学习算法及应用方面所做出的卓越贡献获选 2021 ACM Fellow。

发布时间:2022-01-19 类型:深度文章

从个性化推荐到语音识别,微软亚洲研究院为Windows 11注入新智能

编者按:问世30多年来,Windows 已经成为全球亿万人工作、生活、创作时不可或缺的绝佳伙伴。2021年10月5日,微软产品大家庭正式迎来了最新成员 Windows 11。在如今混合办公、远程协作成为新常态的背景下,新一代 Windows 11 创新的功能设计、高效易用的体验、丰富精彩的内容,将更好地帮助用户提高生产力、发挥创造力。而在 Windows 11 个性化、智能化功能的背后,既有微软产品团队努力的成果,也离不开微软研究部门的技术支持。那么,这些丰富实用的新功能是如何实现的?微软亚洲研究的基础研究创新成果又是如何转化到一线产品中的?

发布时间:2022-01-11 类型:深度文章

图灵奖得主John Hopcroft:95%研究自己的热爱+5%探索陌生领域=优异的基础研究者

编者按:12月11日,微软亚洲研究院举办了2021理论学术研讨会,邀请了来自学术界和产业界的理论研究专家共同探讨大数据和人工智能技术的理论研究。会议期间,康奈尔大学教授、图灵奖得主 John Hopcroft 博士针对“理论研究”和“科研教育”两个话题,结合自身的感悟,为大家分享了理论研究的意义,为什么基础研究很重要,以及大学教育究竟应该教什么。John Hopcroft 博士指出,我们需要花点时间去追求自己真正热爱的,去追求自己真正感兴趣的,然后还要花费5%的时间去探索自己并不熟悉的领域。希望即将走向或者正在进行计算机科学研究的你,能够在 John 的演讲中收获满满!

发布时间:2021-12-30 类型:深度文章

比尔·盖茨:今年我喜欢读的5本书

孩童时代,我痴迷于科幻小说。我和保罗·艾伦花了很多时间讨论艾萨克·阿西莫夫的原创小说《基地三部曲》。我读过埃德加·赖斯·巴勒斯和罗伯特·海因莱恩创作的每一本书。(我尤其爱读《严厉的月亮》一书。)这些故事让我兴奋不已,拓宽了(想象)可能的边界。

发布时间:2021-12-29 类型:深度文章

会议邀请:微软亚洲研究院2021年度技术回顾

年度总结既是过去一年的回顾,也是对新一年的期许。在即将到来的2022年,微软亚洲研究院将继续聚焦计算机领域以及跨领域的前沿技术发展,为学术界、产业界以及整个社会带来更多创新成果! 祝大家2022年一切顺利,如虎添翼!

发布时间:2021-12-28 类型:深度文章

公开催化剂挑战赛冠军模型、通用AI分子模拟库Graphormer开源!

编者按:微软亚洲研究院创新提出的可应用于图结构数据的 Graphormer 模型近日迎来重大升级!研究员们将此前开源的 Graphormer 升级为基于人工智能的分子模拟通用工具包。关注分子模拟领域的科研人员和算法工程师们可通过新版 Graphormer 工具包更好地对材料发现、药物发现等应用中的重要问题进行最前沿的深度学习模型与算法建模。在全新升级的 Graphormer 模型助力下,微软亚洲研究院的研究员们在刚刚结束的公开催化剂挑战赛中也取得了第一名的佳绩。一起来看看此次升级都带来了哪些更新吧!

发布时间:2021-12-24 类型:深度文章

通用模型、全新框架,WavLM语音预训练模型全解

编者按:深度神经网络模型近年来虽然在各项语音任务上都有所进展,但却仍依赖于大量的标注数据。而自监督训练方法的出现和发展则在一定意义上缓解了该问题。近日,微软亚洲研究院与微软 Azure 语音组的研究员们在判别式自监督预训练方法的基础上,沿用研究院自然语言计算组在自然语言预训练的 Transformer 模型架构,提出了全新的 Denoising Masked Speech Modeling 框架。通过94,000小时的英语语音进行预训练,通用语音预训练模型 WavLM 在 SUPERB 所有13项语音任务测评中超过先前所有模型,排名第一,并在其它4个不同的语音经典测评数据集上都取得了很好效果。

发布时间:2021-12-23 类型:深度文章

WMT 2021冠军来了!重建巴别塔之多语言翻译模型

编者按:近日,国际计算语言学协会 ACL 举办的 WMT 2021 国际机器翻译比赛的评测结果揭晓。由微软亚洲研究院、微软翻译产品团队及微软图灵团队联合发布的 Microsoft ZCode-DeltaLM 模型获得了 WMT 2021 “大规模多语言翻译”赛道的冠军。该模型基于微软亚洲研究院机器翻译研究团队打造的能支持上百种语言的多语言预训练模型 DeltaLM,在微软 ZCode 的多任务学习框架下进行训练生成。研究员们希望能够借助该多语言翻译模型,有效支持更多低资源和零资源的语言翻译,终有一日实现重建巴别塔的愿景。

发布时间:2021-12-22 类型:深度文章