排序方式

成为机器学习大神,你不能不懂数学

如何自学机器学习?需要哪些数理基础?怎样从入门到进阶,成就大神之路?对于这些问题,作为毕业后投身机器学习研究的数学博士、微软亚洲研究院机器学习组主管研究员陈薇无疑是最有发言权的。在这篇书单推荐中,她从机器学习综述、算法优化、理论延展、数学基础四大方面入手,为大家提供一份机器学习的“完全指南”。

发布时间:2021-09-06 类型:深度文章

微软翻译又添新语言 —— 文言文

每当面对美好的时节、迷人的风景、优美的事物时,或许你也禁不住想借古抒怀,然而却发现自己的古文词库有些匮乏。尽管上学时大家都曾学习过文言文,但古文的晦涩难懂,让每一词每一句都在挑战记忆力极限。不过,最近微软亚洲研究院的研究员们将 AI 技术应用在文言文/古文与现代汉语之间的双向互译,并已集成于微软 Azure 认知服务以及多个微软产品中,用户可以一键将文言文翻译成现代汉语,以及微软翻译服务支持的其他90多种语言和方言。

发布时间:2021-08-26 类型:深度文章

IJCAI 2021 | 一文了解微软亚洲研究院机器学习方向前沿进展

第30届国际人工智能联合大会 IJCAI 2021 于8月19日-26日在线上正式召开。此次大会共收到4204篇投稿,其中587篇论文被接收,接收率为13.9%。在本届会议中,微软亚洲研究院也有多篇论文入选,今天我们精选了其中的5篇来为大家进行简要介绍。

发布时间:2021-08-24 类型:深度文章

IJCAI 2021 | 不确定性感知小样本图像分类模型,实现SOTA性能

小样本图像分类是小样本学习研究领域中的一个热点问题,对其展开应用和研究,有十分重大的现实意义。基于度量学习的方法在该领域中得到了广泛应用,并且取得了显著效果。但是在应用这种方法时,由于观测噪声的存在,所以网络模型对于不同输入对应的特征表达具有不同的置信度。对不确定度的建模和利用,对于提升优化效率十分重要。因此,微软亚洲研究院的研究员们提出了不确定性感知小样本图像分类方法。相关研究论文“Uncertainty-Aware Few-Shot Image Classification”已被国际人工智能联合会议 IJCAI 2021 收录。

发布时间:2021-08-19 类型:深度文章

KDD 2021 | 用NAS实现任务无关且可动态调整尺寸的BERT压缩

如今,基于 Transformer 的大规模预训练语言模型,如 BERT、XLNE、RoBERTa 和 GPT-3 等,已经在很多自然语言处理任务中都取得了十分惊人的效果。但是巨大的模型尺寸,使其在众多不同的下游任务中进行部署时非常困难。而且由于存在大量复杂的场景以及不同的下游任务,单独为不同场景设计一种压缩过的 BERT 模型既耗时又耗力。因此,微软亚洲研究院的研究员们针对这些问题展开了研究,并提出了 NAS-BERT 技术。相关研究论文“NAS-BERT:Task-Agnostic and Adaptive-Size BERT Compression with Neural Architechture Search”已被跨学科数据科学会议 KDD 2021 收录。

发布时间:2021-08-11 类型:深度文章

系统调研450篇文献,微软亚洲研究院推出超详尽语音合成综述

语音合成一直以来是语言、语音、深度学习及人工智能等领域的热门研究方向,受到了学术界和工业界广泛的关注。尽管语音合成技术的研究已有几十年的历史,基于神经网络的语音合成技术也有近十年历史,且已产出了大量的优质研究成果,但针对神经语音合成不同研究方向的整合型综述论文却十分匮乏。近日,微软亚洲研究院的研究员们通过调研了450余篇语音合成领域的文献,发表了迄今为止语音合成领域几乎最详尽的综述论文 “A Survey on Neural Speech Synthesis”。在文中,研究员们还整理收集了语音合成领域的相关资源如数据集、开源实现、演讲教程等,同时也对语音合成领域未来的研究方向进行了探讨和展望。希望本文能对相关工作的研究人员提供具有价值的参考。

发布时间:2021-08-10 类型:深度文章

ICML 2021 | 微软亚洲研究院精选论文一览

第三十八届机器学习国际会议 ICML 2021 于7月18日在线上举行,今年的 ICML 会议一共接收了1184篇论文,接收率接近21.5%。其中微软亚洲研究院有多篇论文入选,今天我们精选了5篇为大家进行介绍。这5个工作的研究主题关键词包括数据采样、Transformer、序列学习、神经网络、语音识别等。欢迎感兴趣的读者阅读论文原文。

发布时间:2021-07-23 类型:深度文章

R-Drop:填补Dropout缺陷,简单又有效的正则方法

深度神经网络是深度学习的基础,但其在训练模型时会出现过拟合的问题,而简单易用的 Dropout 正则化技术可以防止这种问题的发生。然而 Dropout 的操作在一定程度上会使得训练后的模型成为一种多个子模型的组合约束。基于此,微软亚洲研究院与苏州大学提出了更加简单有效的正则方法 R-Drop(Regularized Dropout)。实验表明,R-Drop 在5个常用的包含 NLP(自然语言处理) 和 CV(计算机视觉) 的任务中都取得了当前最优的结果。本文将介绍 R-Drop 的实施方法、作用与效果,让大家一窥 R-Drop 的玄机。

发布时间:2021-07-21 类型:深度文章

谭旭:AI音乐,技术与艺术的碰撞

日前,在2021全球人工智能技术大会(GAITC)的“当 AI 与艺术相遇”专题论坛上,微软亚洲研究院主管研究员谭旭发表了题为《基于深度学习的流行音乐创作》的演讲。该分享从分析流行音乐的工业化制作流程切入,介绍了深度学习是如何辅助流行音乐的创作,微软亚洲研究院在 AI 音乐创作领域的一系列研究成果,以及当前AI音乐生成所面临的研究挑战等。本文为此次演讲内容的完整整理,希望可以给大家在AI与艺术相互结合的研究方向上带来更多启发。

发布时间:2021-07-20 类型:深度文章

KDD Cup 2021 | 微软亚洲研究院Graphormer模型荣登OGB-LSC图预测赛道榜首

在刚刚结束的由 KDD Cup 2021 和 Open Graph Benchmark 官方联合举办的第一届 OGB Large-Scale Challenge 中,来自微软亚洲研究院的研究员和大连理工大学等高校的实习生们通过借鉴 Transformer 模型的思路,创新性地提出了可应用于图结构数据的 Graphormer 模型,在大规模分子性质预测任务中击败了全球包括 DeepMind 在内的多个技术实力强劲的公司和研究机构,取得了第一名的佳绩。

发布时间:2021-06-20 类型:深度文章