新闻中心

排序方式

渣画质视频秒变清晰,“达芬奇”工具集帮你自动搞定

编者按:是否时常“考古”一些老电影、老动漫来回忆旧日时光?你是否也有一些珍贵的录像,带你重温过去的美好?然而,我们已经习惯了高清体验,回头再看曾经的旧影像,画质或许“渣”的让人不忍直视。在这个多媒体内容爆发的时代,人们对视频内容的需求愈加强烈,视频素材的创作、增强及再创作技术也有了大幅提升。尽管利用现有的视频修复工具,视频编辑者也能让视频变得更高清,但其前提条件是需要有超高性能配置的电脑,并付出视频时长几倍甚至几十倍的时间成本,即便如此,结果可能仍不尽如人意。

发布时间:2022-06-23 类型:深度文章

CVPR 2022 | 一键解锁微软亚洲研究院计算机视觉领域前沿进展!

编者按:国际计算机视觉与模式识别会议(CVPR)是人工智能领域最具学术影响力的顶级会议之一。微软亚洲研究院也在4月成功举办了 CVPR 2022 论文分享会。今天,我们为大家精选了8篇微软亚洲研究院被 CVPR 2022 收录的优秀论文,带你探索计算机视觉领域的热点前沿!欢迎感兴趣的读者阅读论文原文。

发布时间:2022-06-22 类型:深度文章

Swin Transformer迎来30亿参数的v2.0,我们应该拥抱视觉大模型吗?

编者按:2021年,获得 ICCV 最佳论文奖的 Swin Transformer,通过在广泛的视觉问题上证明 Transformer 架构的有效性,加速了计算机视觉领域基本模型架构的变革。2021年末,微软亚洲研究院的研究员们又进一步提出了 Swin Transformer v2.0 版本,新版本训练了迄今为止最大的稠密视觉模型,并在多个主流视觉任务上大大刷新了记录,相关论文也已被 CVPR 2022 接收。研究员们希望借助 Swin Transformer v2.0 展现视觉大模型的“强悍”能力,呼吁整个领域加大对视觉大模型的投入,并为之提供相应的训练“配方”,从而为视觉领域的科研人员做进一步探索提供便利。那么,Swin Transformer v2.0 有哪些不同?今天就让我们来一探究竟吧!

发布时间:2022-03-17 类型:深度文章

微软亚洲研究院多模态模型NÜWA:以自然语言创造视觉内容

编者按:此前我们曾提出了一个问题:从文字脚本生成创意视频一共分几步?微软亚洲研究院的开放领域视频生成预训练模型给出了答案:只需一步。现在,我们追问:除了文字生成视频之外,还有哪些途径可以生成视频?我们能否使用自然语言对视觉内容进行编辑?微软亚洲研究院最新推出的多模态模型 NÜWA,不仅让视觉内容创造多了一条路,甚至还让 Windows 经典桌面有了更多的打开方式。

发布时间:2022-03-03 类型:深度文章

NeurIPS 2021 | 物体检测与分割的零标签视觉学习

编者按:随着自监督学习的研究逐步深入,迁移学习的范式已经广泛应用于视觉学习的各个领域,大量的视觉任务都通过使用自监督预训练和有监督微调的方式来部署任务。而微软亚洲研究院的研究员们希望打破这一范式,在 NeurIPS 2021 发表的论文中,研究员们提出了一个可以从无标签视频中学习物体检测和分割的模型,使得自监督预训练模型可以直接服务于应用,而不需要任何有监督微调,实现了零标签的学习。

发布时间:2021-12-01 类型:深度文章

ICCV 2021 | 带你了解微软亚洲研究院CV领域前沿进展

2021年计算机视觉领域顶级会议 ICCV 于10月11日至17日在线上正式召开。此次大会共收到6236篇投稿,其中1617篇论文被接收,接收率为25.9%。在本届会议中,来自微软亚洲研究院的论文“Swin Transformer: Hierarchical Vision Transformer using Shifted Windows”荣获最佳论文奖(Marr Prize)。此外,微软亚洲研究院还有多篇优秀论文入选,今天我们精选了其中的6篇来为大家进行简要介绍。

发布时间:2021-10-13 类型:深度文章

为何Transformer在计算机视觉中如此受欢迎?

近一年来,Transformer 在计算机视觉领域所带来的革命性提升,引起了学术界的广泛关注,有越来越多的研究人员投入其中。Transformer 的特点和优势是什么?为什么在计算机领域中 Transformer 可以频频出圈?让我们通过今天的文章来一探究竟吧!

发布时间:2021-09-24 类型:深度文章

IJCAI 2021 | 不确定性感知小样本图像分类模型,实现SOTA性能

小样本图像分类是小样本学习研究领域中的一个热点问题,对其展开应用和研究,有十分重大的现实意义。基于度量学习的方法在该领域中得到了广泛应用,并且取得了显著效果。但是在应用这种方法时,由于观测噪声的存在,所以网络模型对于不同输入对应的特征表达具有不同的置信度。对不确定度的建模和利用,对于提升优化效率十分重要。因此,微软亚洲研究院的研究员们提出了不确定性感知小样本图像分类方法。相关研究论文“Uncertainty-Aware Few-Shot Image Classification”已被国际人工智能联合会议 IJCAI 2021 收录。

发布时间:2021-08-19 类型:深度文章

CVPR 2021 | 微软提出"解构式关键点回归", 刷新COCO自底向上多人姿态检测记录!

在拥挤的人群的场景下,由于人群过于密集,重合程度太高,所以每个人的位置难以用人体检测框表示,而传统的一些自下而上的人体姿态估计算法也很难检测到人物的关键点。因此,微软亚洲研究院提出了用直接回归坐标的方法设计多人姿态检测模型,其结果超过了此前的关键点热度图检测并组合的方法,并且在 COCO 和 CrowdPose 两个数据集上达到了目前自底向上姿态检测的最好结果。相关工作“DEKR: Bottom-Up Human Pose Estimation Via Disentangled Keypoint Regression”已被 CVPR 2021 收录。

发布时间:2021-06-25 类型:深度文章

CVPR 2021 | 9篇精选论文,一览微软亚洲研究院视觉研究前沿进展

作为世界顶级的 AI 会议,CVPR 一直引领着计算机视觉与模式识别技术领域的学术与工业潮流。今年的 CVPR 于6月19日至25日在线上举办。在此,为大家精选了9篇微软亚洲研究院被 CVPR 2021 收录的论文,一览计算机视觉领域的前沿研究。

发布时间:2021-06-22 类型:深度文章