新闻中心

排序方式

LightRNN:深度学习之以小见大

循环神经网络(RNN)是深度学习绝招之一,但其超大模型却阻碍了它的实际应用。常见的解决思路阵法会加剧对计算资源的需求,微软亚洲研究院主管研究员秦涛博士另辟蹊径,将标准RNN提升到LightRNN,以此改进RNN这一深度学习的绝招。

发布时间:2016-12-27 类型:深度文章

刘铁岩:对偶学习推动人工智能的新浪潮

12 月 17日,中国人工智能学会、中国工程院战略咨询中心主办,今日头条、IEEE《计算科学评论》协办的2016机器智能前沿论坛暨2016 BYTE CUP 国际机器学习竞赛颁奖仪式在中国工程院举办,论坛邀请到今日头条、微软、IBM 等业界科学家以及清华大学、北京大学、Santa Fe 研究所、Georgia Institute of Technology(佐治亚理工)等国内外知名院校学者共同探讨了机器学习的研究现状、前沿创新及应用发展等问题。微软亚洲研究院首席研究员刘铁岩博士受邀发表演讲。本文由机器之心授权转载。

发布时间:2016-12-23 类型:深度文章

对偶学习:一种新的机器学习范式

深度学习近年来的重大成功,离不开大数据的支持。然而大规模标注数据的获取成本高昂。为了解决这个问题,微软亚洲研究院在本周NIPS大会提交的其中一篇论文便仔细阐述了一项新的机器学习范式——对偶学习。

发布时间:2016-12-07 类型:深度文章

刘铁岩:博弈机器学习是什么?

目前人类对人工智能的研究还停留在初级的个体智能阶段,即计算机智能完成某些单一的特定任务。博弈机器学习是微软亚洲研究院首席研究员刘铁岩博士提出的概念,他将博弈论的思想引入机器学习,对人的动态策略进行建模,从而解决很多实际问题。

发布时间:2016-08-05 类型:深度文章

鱼与熊掌如何兼得:微软科学家解决并行训练困境

近日,ICASSP 2016国际会议在上海召开,这是电气电子工程师学会(IEEE)组织的信号处理领域最权威的国际会议,会议吸引了众多从业人员的目光。微软亚洲研究院首席研究员霍强博士和他的研究团队在此次大会上提交的论文Scalable Training of Deep Learning Machines by Incremental Block Training with Intra-Block Parallel Optimization and Blockwise Model-Update Filtering首次较好地解决了大数据机器学习并行训练中经典的两难问题,在保证训练模型的性能的同时,让训练速度在增加GPU的条件下几乎实现了线性增长,这一突破对大数据机器学习的效率提升意义重大。霍强博士和他的研究团队将于3月25号就该技术的细节在上海国际会议中心进行讲解。

发布时间:2016-03-22 类型:深度文章

当机器学习遇到计算机视觉--下篇

本文中,我们将着眼于最近十分风靡的深层神经网络(deep neural networks)问题,并介绍其在计算机视觉领域内的成功运用,最后我们将带大家一起放眼计算机视觉和机器学习的未来。

发布时间:2015-04-24 类型:深度文章

当机器学习遇到计算机视觉--上篇

本系列文章的上篇将主要介绍在探索计算机视觉的道路上所面临的挑战,并会谈到一个机器学习技术中非常重要的--像素级分类决策森林算法。

发布时间:2015-04-21 类型:深度文章