新闻中心

排序方式

AAAI 2021 | 微软与上交大最新研究,强化学习助力AI+金融

随着近年来深度强化学习技术的发展,学术界提出了一些利用深度强化学习解决订单执行问题的方法。微软亚洲研究院与上海交通大学合作在 AI+ 金融领域的最新研究工作《Universal Trading for Order Execution with Oracle Policy Distillation》就是利用了强化学习技术,来尝试优化金融市场交易中订单执行(Order Execution)的问题。该工作已被 AAAI 2021 接收。

发布时间:2021-01-29 类型:深度文章

快速上手微软 “群策 MARO” 平台,打造简易的共享单车场景

2020年9月,微软亚洲研究院发布了多智能体资源优化平台“群策 MARO”,并在 Github 上开源。近日,MARO 更新了0.2版本,新版本进一步完善了多项功能,提升了使用体验。作为一个面向多行业横截面上的全链条资源优化 AI 解决方案,MARO 平台可支持多种预设定的资源优化任务,例如航运网络中的空集装箱调度问题、共享单车服务中的单车调度问题、云平台上的虚拟机分配问题等,同时也支持用户利用核心组件,快速地定义高效的场景。不仅如此,MARO 还提供了全栈的强化学习支持,包含常用算法以及相关的分布式训练。本文将通过构造一个简单的共享单车场景,来帮助大家理解 MARO 的核心功能和逻辑,以及其与环境交互所实现的优化策略。

发布时间:2021-01-27 类型:深度文章

AAAI 2021 | 不依赖文本也能做翻译?UWSpeech语音翻译系统了解一下

语音到语音翻译已经被越来越多地应用在人们的日常生活和工作中。但是目前的语音翻译系统高度依赖于语音对应的文本,不能应用于如方言、少数民族语言等没有文字的语言。为此,微软亚洲研究院提出了语音翻译系统 UWSpeech,该系统可针对没有文字的语言进行语音系统构建。相关工作已被 AAAI 2021 接收。

发布时间:2021-01-26 类型:深度文章

GitHub 8.7K星背后,是跨“圈”的融合与碰撞

微软亚洲研究院自动机器学习(AutoML)工具 NNI 自发布以来好评如潮,全新升级的2.0版本也备受关注。它的成功是跨领域、跨 Lab、开源社区内外通力合作的成果。本文将带领大家了解 NNI 背后的故事,讲述 NNI 是如何做到开源合作与跨界创新的。

发布时间:2021-01-22 类型:深度文章

上新了! 热门开源 AutoML 工具 NNI 2.0 来袭!

近期,微软亚洲研究院发布了 NNI 2.0 版本,其中加入了对“探索性训练”框架 Retiarii、基于掩码的模型压缩加速工具的支持,提供了利用 Python 发起实验 (预览功能) 与多种算力混合训练的能力,并简化了自定义算法的安装方法。本文将全方位解读 NNI 2.0 最新版本中的各项功能,让大家了解这个简单、易用的自动机器学习工具。

发布时间:2021-01-21 类型:深度文章

四两拨千斤,如何做到自然语言预训练加速十倍

随着自然语言处理中的预训练成为研究领域的热点,预训练的成本与计算代价也成为了大家在研究过程中必须考虑的现实问题。本文将会介绍多种在训练模型过程中提高效率,降低成本的方法,希望能对大家的研究有所帮助。

发布时间:2021-01-19 类型:深度文章

新一代多模态文档理解预训练模型LayoutLM 2.0,多项任务取得新突破!

近年来,预训练模型是深度学习领域中被广泛应用的一项技术,对于自然语言处理和计算机视觉等领域的发展影响深远。2020年初,微软亚洲研究院的研究人员提出并开源了通用文档理解预训练模型 LayoutLM 1.0,受到了广泛关注和认可。如今,研究人员又提出了新一代的文档理解预训练模型 LayoutLM 2.0,该模型在一系列文档理解任务中都表现出色,并在多项任务中取得了新的突破,登顶 SROIE 和 DocVQA 两项文档理解任务的排行榜(Leaderboard)。未来,以多模态预训练为代表的智能文档理解技术将在更多的实际应用场景中扮演更为重要的角色。

发布时间:2021-01-13 类型:深度文章

带你读论文 | 值分布强化学习

值分布强化学习(Distributional Reinforcement Learning)是一类基于价值的强化学习算法,也是一类新兴的强化学习方法。该方法达到了非分布式强化学习方法上新的基准性能,也与神经科学有着内在联系,因此具有很高的研究价值。本文将带大家一起选读多个近期值分布强化学习相关的研究工作,这些工作的发展脉络清晰、研究动机明确,为后续的进一步研究提供了重要参考。

发布时间:2021-01-08 类型:深度文章

GLGE:业界首个通用语言生成评估基准

最近,除了针对自然语言理解(NLU)任务设计的预训练语言模型,许多针对自然语言生成(NLG)任务而设计的预训练语言模型也被不断提出。然而,这些模型往往通过不同的任务、数据集、和评测指标进行评估,目前还没有一个统一的通用评测基准。为了填补 NLG 通用评测基准这一空缺,微软亚洲研究院提出了业内首个通用的语言生成评测基准 GLGE (General Language Generation Evaluation benchmark)。GLGE 提供了三种不同难度的的评测基准,以方便研究者们更全面或更有选择性地对模型进行评估。

发布时间:2021-01-06 类型:深度文章