概述

  • 日期: 2022年01月06日
  • 位置: 上海市徐汇区云锦路701号上海西岸国际人工智能中心(西岸智塔AI Tower)东塔43楼

活动类型:线上+线下

首页

在深度学习时代,人工智能进化的速度已经超过了摩尔定律。高效的AI系统,包括全栈算法、软件框架、编译和硬件加速,是保持AI高速发展的关键保障之一。微软亚洲研究院人工智能与系统专题讨论系列旨在联合学界和业界的专家学者,促进人工智能与系统领域多样的学术交流,营造更加开放的研究氛围,并推动人工智能与系统领域学术研究与发展。

 

研讨会筹委会

  • 杨玉庆(微软亚洲研究院高级研发经理)
  • 李东胜(微软亚洲研究院高级研究员)
  • 孙丽君(微软亚洲研究院资深学术合作经理)
  • 陈   昊(微软亚洲研究院学术合作经理)
  • 马   歆(微软亚合作研究院学术合作总监)

日程

时间 主题 主讲人
13:30 – 14:00 Registration & Office Tour
14:00 – 14:10 Opening Yuqing Yang
MSR Asia
14:10 – 14:30 Talk: Efficient AI Chips: opportunities and challenges Ningyi Xu
Shanghai Jiao Tong University
14:30 – 14:50 Talk: Communication-Aware Cross-Layer Codesign Strategy for Energy Efficient Machine Learning SoC Chixiao Chen
Fudan University
14:50 – 15:10 Talk: Compiler Design and Optimization for DNN Model Serving Jingwen Leng
Shanghai Jiao Tong University
15:10 – 15:30 Talk: Holistic and Scalable Compiler Optimization for Deep Learning Jilong Xue
MSR Asia
15:30 – 15:50 Talk: Hybrid Evaluation for Distributed Iterative Matrix Computation Chen Xu
East China Normal University
15:50 – 16:10 Talk: Deep-Learning Model Sparsity via Tensor-with-Sparsity-Attribute Ningxin Zheng
MSR Asia
16:10 – 16:40 Student Poster Session & Coffee Break
16:40 – 17:00 Discussion
17:00 Closing (Group photo & gifting)

嘉宾

徐宁仪
上海交通大学

主题与摘要

AI在过去几年中在互联网、媒体娱乐、医学和生物学、安全以及自动驾驶等各个应用领域引发了突飞猛进的进展。新应用,新算法,以及5G和边缘计算带来了大量数据,进对AI计算的算力、灵活性、存储以及互联提出了更高的要求。在摩尔定律减速的背景下,计算业界从通用架构向领域专用架构(DSA – Domain Specific Architecture)以及相应的编程框架演进。通过算法、系统、架构以及电路等各个层次的联合优化,DSA可以取得超过通用架构的10x~100x的性能优势。不过,DSA也面临着应用范围窄、无法应对算法灵活升级、先进工艺开发费用高昂、依赖传统CPU进行调度、应用和开发生态弱等挑战。所以,为了应对集成电路技术趋势和深度学习等计算应用带来的挑战,需要重新思考现行的计算系统、计算架构以及编程框架,结合深度学习算法以及芯片技术进展,提出创新性的“芯片+算法”的计算架构,满足编程生态、能量效率、伸缩性等方面的要求。本次报告会针对高效AI芯片设计的研究进展和挑战问题进行深入分析。

嘉宾简介

徐宁仪,上海交通大学清源研究院长聘教授。清华大学学士、硕士、博士。研究方向为领域专用计算、计算机体系结构、并行计算、机器学习系统。曾任微软亚洲研究院硬件计算组主任研究员、百度智能芯片部技术委员会主席、主任架构师等职。主导的微软数据中心定制加速系统是世界首次应用于超大规模数据中心、应用在价值数十亿美元的产品和服务中,主导的百度昆仑AI芯片(2017 - 2018)是中国第一款云端全功能人工智能芯片、首次在工业领域大规模应用的中国自研AI芯片,主持科研经费超过3亿元,在顶会及期刊发表相关论文50余篇,近五年引用1600余次,获得相关专利8项。

 

陈迟晓
复旦大学

主题与摘要

Communication-Aware Cross-Layer Codesign Strategy for Energy Efficient Machine Learning SoC

As the great success of artificial intelligence algorithms, machine learning SoC are becoming a significant type of high-performance processors recently. However, the limited power budget of edge devices cannot support GPUs and intensive DRAM access. The talk will discuss two energy efficient codesign examples to avoid power hungry hardware. First, on-chip incremental learning is performed on an SoC without dedicated backpropagation computing, where algorithm-architecture codesign is involved. Second, low bit-width quantization schemes are applied to computing-in-memory based SoC, where algorithm-circuit codesign is investigated.

嘉宾简介

2010年毕业于复旦大学微电子学与固体电子学专业,获理学学士学位,期间于美国加州大学戴维斯大学交流;2016年毕业于复旦大学微电子学院集成电路设计、测试与CAD专业,从事高性能数模混合集成电路设计研究,获理学博士学位。2016年至2018年于美国华盛顿大学电子工程系任博士后研究员,从事高能效数模混合集成电路与人工智能处理器芯片研究。2019年1月加入复旦大学工程与应用技术研究院任青年副研究员。

陈迟晓博士参与项目包括国家科技重大专项“面向IMT-Advanced宽带无线通信系统的数模混合集成电路研发”、科技部863计划(现更名为国家重点研发计划)“下一代光传输系统中的高速模数转换器/数模转换器芯片和关键技术研究”,国家自然科学基金面上项目“适用于20-80MHz的高频超声相控阵的MEMS压电换能器与高能效模数转换器研究”,上海市科委基础研究项目“类脑芯片与片上系统研究”等。陈迟晓博士已发表论文40余篇,授权专利10余项。 陈迟晓博士于2014年获得ISSCC STGA奖,并任IEEE JSSC/TCAS-I/TCAS-II/JETCAS审稿人。

陈迟晓博士也是知名半导体公众号“矽说”的共同创始人与主笔。

 

Jingwen Leng
上海交通大学

主题与摘要

Compiler Design and Optimization for DNN Model Serving

Deep neural network has achieved enormous success in many tasks including computer vision and natural language processing. Despite of their high accuracies, DNN models have significant computational cost, as evident by the recent enormous large NLP models such as GPT-3. Thus, it is crucial to provide high-performance serving for these DNN models. In this talk, we will present our work on optimizing the DNN serving from the compiler’s perspective. In particular, we will demonstrate how to compile the interference and conflict tolerant codes in the multi-model serving scenario. Meanwhile, we will also present our thoughts on extending the current DNN system with the instrumentation interface, which opens up the new opportunities for analyzing and optimizing DNN models.

嘉宾简介

Jingwen Leng is a tenure-track Associate Professor in the CS Department and John Hopcroft CS Center at Shanghai Jiao Tong University. He is currently interested at taking a holistic approach to optimizing the performance, efficiency, and reliability for computer systems, with a focus on the deep learning application. He received his Ph.D. from the University of Texas at Austin, where he focused on improving the efficiency and resiliency of general-purpose GPUs.

 

徐辰
华东师范大学

主题与摘要

面向分布式迭代矩阵运算的混合计算策略

矩阵计算广泛存在于机器学习等应用中,在ALS、GNMF等迭代式矩阵运算中,矩阵中各个元素的收敛速度往往不同。现有系统通常利用增量计算的方式提升性能,即在运行过程中仅计算数值发生变化的元素。然而,增量计算需要额外的操作(如提取增量),导致在部分情况下增量计算会慢于全量计算。本报告将介绍一种混合计算策略,在迭代计算过程中交替使用全量计算和增量计算。为了验证策略的有效性,我们通过修改SystemDS实现了HyMac原型系统,HyMac执行迭代计算与SystemDS,、ScaLAPACK和SciDB相比可达显著的性能提升。

嘉宾简介

徐辰,华东师范大学数据科学与工程学院副教授。2014年-2018年担任德国柏林工业大学高级研究助理,在Volker Markl教授课题组从事博士后研究,参与Apache Flink系统的研发。2014年获华东师范大学计算机应用技术博士学位,曾于2011年赴澳大利亚昆士兰大学短期访问。主要研究兴趣是大规模分布式数据处理系统。