新闻中心

排序方式

Swin Transformer迎来30亿参数的v2.0,我们应该拥抱视觉大模型吗?

编者按:2021年,获得 ICCV 最佳论文奖的 Swin Transformer,通过在广泛的视觉问题上证明 Transformer 架构的有效性,加速了计算机视觉领域基本模型架构的变革。2021年末,微软亚洲研究院的研究员们又进一步提出了 Swin Transformer v2.0 版本,新版本训练了迄今为止最大的稠密视觉模型,并在多个主流视觉任务上大大刷新了记录,相关论文也已被 CVPR 2022 接收。研究员们希望借助 Swin Transformer v2.0 展现视觉大模型的“强悍”能力,呼吁整个领域加大对视觉大模型的投入,并为之提供相应的训练“配方”,从而为视觉领域的科研人员做进一步探索提供便利。那么,Swin Transformer v2.0 有哪些不同?今天就让我们来一探究竟吧!

发布时间:2022-03-17 类型:深度文章

微软亚洲研究院多模态模型NÜWA:以自然语言创造视觉内容

编者按:此前我们曾提出了一个问题:从文字脚本生成创意视频一共分几步?微软亚洲研究院的开放领域视频生成预训练模型给出了答案:只需一步。现在,我们追问:除了文字生成视频之外,还有哪些途径可以生成视频?我们能否使用自然语言对视觉内容进行编辑?微软亚洲研究院最新推出的多模态模型 NÜWA,不仅让视觉内容创造多了一条路,甚至还让 Windows 经典桌面有了更多的打开方式。

发布时间:2022-03-03 类型:深度文章

NeurIPS 2021 | 物体检测与分割的零标签视觉学习

编者按:随着自监督学习的研究逐步深入,迁移学习的范式已经广泛应用于视觉学习的各个领域,大量的视觉任务都通过使用自监督预训练和有监督微调的方式来部署任务。而微软亚洲研究院的研究员们希望打破这一范式,在 NeurIPS 2021 发表的论文中,研究员们提出了一个可以从无标签视频中学习物体检测和分割的模型,使得自监督预训练模型可以直接服务于应用,而不需要任何有监督微调,实现了零标签的学习。

发布时间:2021-12-01 类型:深度文章

ICCV 2021 | 带你了解微软亚洲研究院CV领域前沿进展

2021年计算机视觉领域顶级会议 ICCV 于10月11日至17日在线上正式召开。此次大会共收到6236篇投稿,其中1617篇论文被接收,接收率为25.9%。在本届会议中,来自微软亚洲研究院的论文“Swin Transformer: Hierarchical Vision Transformer using Shifted Windows”荣获最佳论文奖(Marr Prize)。此外,微软亚洲研究院还有多篇优秀论文入选,今天我们精选了其中的6篇来为大家进行简要介绍。

发布时间:2021-10-13 类型:深度文章

为何Transformer在计算机视觉中如此受欢迎?

近一年来,Transformer 在计算机视觉领域所带来的革命性提升,引起了学术界的广泛关注,有越来越多的研究人员投入其中。Transformer 的特点和优势是什么?为什么在计算机领域中 Transformer 可以频频出圈?让我们通过今天的文章来一探究竟吧!

发布时间:2021-09-24 类型:深度文章

IJCAI 2021 | 不确定性感知小样本图像分类模型,实现SOTA性能

小样本图像分类是小样本学习研究领域中的一个热点问题,对其展开应用和研究,有十分重大的现实意义。基于度量学习的方法在该领域中得到了广泛应用,并且取得了显著效果。但是在应用这种方法时,由于观测噪声的存在,所以网络模型对于不同输入对应的特征表达具有不同的置信度。对不确定度的建模和利用,对于提升优化效率十分重要。因此,微软亚洲研究院的研究员们提出了不确定性感知小样本图像分类方法。相关研究论文“Uncertainty-Aware Few-Shot Image Classification”已被国际人工智能联合会议 IJCAI 2021 收录。

发布时间:2021-08-19 类型:深度文章

CVPR 2021 | 微软提出"解构式关键点回归", 刷新COCO自底向上多人姿态检测记录!

在拥挤的人群的场景下,由于人群过于密集,重合程度太高,所以每个人的位置难以用人体检测框表示,而传统的一些自下而上的人体姿态估计算法也很难检测到人物的关键点。因此,微软亚洲研究院提出了用直接回归坐标的方法设计多人姿态检测模型,其结果超过了此前的关键点热度图检测并组合的方法,并且在 COCO 和 CrowdPose 两个数据集上达到了目前自底向上姿态检测的最好结果。相关工作“DEKR: Bottom-Up Human Pose Estimation Via Disentangled Keypoint Regression”已被 CVPR 2021 收录。

发布时间:2021-06-25 类型:深度文章

CVPR 2021 | 9篇精选论文,一览微软亚洲研究院视觉研究前沿进展

作为世界顶级的 AI 会议,CVPR 一直引领着计算机视觉与模式识别技术领域的学术与工业潮流。今年的 CVPR 于6月19日至25日在线上举办。在此,为大家精选了9篇微软亚洲研究院被 CVPR 2021 收录的论文,一览计算机视觉领域的前沿研究。

发布时间:2021-06-22 类型:深度文章

CVPR 2021 | CoCosNet v2解锁“高配版”图像翻译

针对图像翻译(image translation)任务,微软亚洲研究院的研究员们曾在 CVPR 2020 发表的论文中提出了 CoCosNet 算法,解决了图像生成过程中风格精细控制的难题。目前这一基于样例的图像翻译技术再升级!借鉴 PatchMatch 的思想,研究员们提出了 CoCosNet v2 算法,实现了在原高清分辨率下高效近似注意力(attention)机制。相比第一代算法,CoCosNet v2 能够应用到高清大图的生成过程中,同时也能节省大量的计算内存开销。目前,相关工作论文“Full-resolution Correspondence Learning for Image Translation”已被收录为 CVPR 2021 oral,并入围 Best Paper 候选名单。

发布时间:2021-06-18 类型:深度文章

CVPR 2021 | 神经网络如何进行深度估计?

与深度神经网络相比,人类的视觉拥有更强的泛化能力,所以能够胜任各项视觉任务。结合人类视觉系统“通过观察结构信息获得感知能力”的特点,微软亚洲研究院的研究员们提出了一种新的深度估计方法,能够赋予神经网络强大的深度估计的泛化能力。目前,相关工作的论文已被 CVPR 2021 收录。

发布时间:2021-06-03 类型:深度文章