活动预告 | 2023 Meet TVM · 深圳站定档 ,邀您共赴一场最前沿的 AI 编译器技术之旅!
By 超神经
内容一览:2023 Meet TVM 线下聚会第 3 站将于 9 月 16 日在深圳腾讯大厦举办!本次 Meetup 包含 5 个关于 AI 编译器的精彩 talk,期待与大家在深圳相聚!
关键词:编译器 线下活动 2023MeetTVM
今年 3 月和 6 月,2023 Meet TVM 系列活动分别在上海和北京成功举办,300 余位来自各大厂商、科研院所的伙伴们齐聚一堂,线上线下进了充分的交流和讨论。
阅读往期文章:
北京站:活动回顾 | 汇聚行业技术大咖,共享思维碰撞时刻,2023 Meet TVM · 北京站圆满落幕
上海站:活动回顾 | 2023 Meet TVM 首聚上海,百余位工程师共话机器学习编译的现在和未来
9 月中旬,TVM Meetup 第 3 站线下聚会定档深圳,这次我们邀请到了 5 位资深 AI 编译器专家,他们将在深圳腾讯大楼,为在场的朋友们带来精彩分享。
本次活动由 MLC.AI 及 HyperAI超神经主办,同时得到了 OpenBayes贝式计算和腾讯 AI Lab 的倾情赞助,现场也为大家准备了精美的周边礼品和茶歇,欢迎大家来玩!
2023 Meet TVM 深圳站活动信息
⏰ 时间:9 月 16 日(周六)13:30-17:30
📍 地点:深圳市南山区深南大道 10000 号腾讯大厦 2F 多功能厅
👬 人数:200(现场座位有限,请尽早报名)
🙌🏻 报名:扫描下方二维码报名
温馨提示:进入腾讯大厦须提供访客信息,请务必准确填写个人信息,以免影响入场,感谢大家的合作。
扫码备注「TVM 深圳」加入活动群:
📝 日程:
分享嘉宾及内容简介
13:40-14:20
朱文熙
腾讯 AI Lab
开悟平台工程经理
分享主题:基于 TVM 的动态形状编译优化
内容简介:传统的深度学习编译器(包括 TVM)缺少动态形状支持,在处理大语言模型(动态序列长度)和检测模型(动态宽/高)等情况时比较乏力。基于此现状,我们设计实现了一套基于 TVM 的 CPU 端动态形状算子优化方案,性能超过现有的静态形状方案,且几乎不需要搜索时间。
观看本场分享,你将了解:
1. 动态形状优化带来的挑战
2. TVM 社区的 dlight 相关工作
3. CPU 端动态形状优化的难点和解法
14:20-15:00
解磊
MachineTime
创始人
分享主题:Design an AI Processor: Compiler is Dominant
内容简介:随着以大语言模型为代表的 AIGC 的发展和普及,算力需求呈指数式增长。因此,AI 处理器芯片的设计以及相应的编程变得更加复杂。
如何让两者变得更加简单高效,自动化的编译器---计算架构联合设计了一个潜在的解决方案。
观看本场分享,你将了解:
1. AI 处理器的产品格局
2. 自动化 AI 处理器设计的研究近况
3. AI 处理器自动化设计的基础编译框架
15:00-15:40
苏刚
燧原科技
资深主任工程师
分享主题:MLIR 及其 AI 图编译实践
内容简介:随着 AI 芯片和 AI 框架的蓬勃发展,AI 编译器也随之发展起来,如 XLA, TVM 等。MLIR 作为通用和可复用的编译器框架,由于能够帮助各硬件厂商快速构建 DS AI 编译器,目前在 AI 编译系统中得到了广泛的利用。
本次分享主要介绍 MLIR 的一些基本知识要素、MLIR 的 Codegen 流程以及构建 AI 编译器的实践步骤,另外也将和大家讨论一下 MLIR 解决 AI 编译器关键问题的思路。
观看本场分享,你将了解:
1. AI 编译器的构建元素
2. MLIR 的基本知识和用途
3. MLIR 构建 AI 编译器的基本步骤
16:00-16:40
张峰
腾讯
高级工程师
分享主题:基于 MLIR 的 AI 编译器的设计与实现
内容简介:AI 和机器学习领域有许多不同的软件框架(如 TensorFlow、PyTorch 等),硬件设备也日益多样化(CPU、GPU、TPU 等),AI 编译器作为连接二者的桥梁,存在着诸多挑战。
MLIR 作为一套编译器基础设施,它提供一系列可复用的易扩展的基础组件,用来搭建领域专用编译器。腾讯在 MLIR 的基础上搭建了一套端到端的 AI 编译器,为用户的 AI 模型提供编译优化,从而简化模型在多种 AI 芯片上的部署,发挥极致性能。
观看本场分享,你将了解:
1. 腾讯 AI 编译器的整体流程
2. MLIR 的一些基础设施介绍及其提供的便利性
3. Linalg dialect 为基础的 tiling 和 fusion 介绍
16:40-17:20
冯思远
Apache TVM PMC
上海交通大学博士生
分享主题:大模型时代机器学习系统的机遇与挑战
内容简介:生成式人工智能和大型语言模型 (LLM) 领域取得了重大进展,它们具有卓越的能力和从根本上改变许多领域的潜力。与此同时,他对于机器学习系统带来了全新的机遇和挑战。一方面,巨大的算力需求导致对于系统优化的需求提升;另一方面,单一的模型结构和高性能硬件需求,使得原本开放的机器学习生态开始收敛。
观看本场分享,你将了解:
1. 大模型时代的机器学习系统现状
2. MLC-LLM 最近的进展与更新
3. 后大模型时代的机器学习系统展望
主办方及合作伙伴简介
作为本次活动的主办方,MLC.AI 社区成立于 2022 年 6 月,并由 Apache TVM 主要发明者、机器学习领域著名的青年学者陈天奇,带领团队上线了 MLC 线上课程,系统介绍了机器学习编译的关键元素以及核心概念。
2022 年 11 月,在 MLC.AI 社区志愿者的共同努力下,首个完整的 TVM 中文文档上线,并成功托管至 HyperAI超神经官网,进一步为对机器学习编译感兴趣的国内开发者,提供了接触并学习一门新技术的基础设置——文档。
2023 年第四季度,「2023 Meet TVM」系列活动将在杭州举办,届时欢迎企业及社区伙伴参与共创。
MLC 线上课程:https://mlc.ai/
TVM 中文文档:https://tvm.hyper.ai/
国内领先的人工智能及高性能计算社区,致力于为广大国内开发者提供数据科学领域的优质公共资源,截至目前已为 1200+ 公开数据集提供国内下载节点,支持 300+ 人工智能及高性能计算相关的词条查询,托管了完整的 TVM 中文文档,并即将上线多个基础及流行教程。
访问官网:https://hyper.ai/
OpenBayes贝式计算是国内领先的高性能计算服务提供商,通过为新一代异构芯片嫁接经典软件生态及机器学习模型,进而为工业企业及高校科研提供更加快速、易用的数据科学计算产品,其产品已被数十家大型工业场景或头部科研院所所采用。
访问官网:https://openbayes.com/
腾讯 AI Lab 是腾讯的企业级 AI 实验室,于 2016 年 4 月在深圳成立,目前有 100 多位顶尖研究科学家及 300 多位应用工程师。借助腾讯丰富应用场景、大数据、计算力及一流人才方面的长期积累,AI Lab 立足未来,开放合作,致力于不断提升 AI 的认知、决策与创造力,向“Make AI Everywhere”的愿景迈步。
腾讯 AI Lab 强调研究与应用并重发展。基础研究关注机器学习、计算机视觉、语音技术及自然语言处理等四大方向;技术应用聚焦在游戏、数字人、内容、社交四大领域,并初探 AI 在工业、农业、医疗、医药、生命科学等领域的研究应用。
活动行:扫码跳转至活动行报名
扫码备注「TVM 深圳」加入活动群
考虑到本场活动的场地空间情况,我们仅开放了 200 个到场名额,建议大家尽早报名锁定席位。
2023 Meet TVM 系列活动现已开启,9 月 16 日 13:30-17:30,期待与大家在深圳相聚!
—— 完 ——
扫描二维码,加入讨论群
获得更多优质数据集
了解人工智能落地应用
关注顶会&论文
回复「读者」了解更多
更多精彩内容(点击图片阅读)