最近,芯片专家唐杉博士更新了“AI芯片全景图”,同时加了版本号和发布时间,介绍了现有的几乎全部深度学习处理器,可能是对AI芯片厂商做的最全面的列表了。完整下载地址:https://basicmi.github.io/AI-Chip/AI芯片全景图包含5个大类,共介绍了99家AI芯片公司,包括:接下来,我们将分五期,带来这99家芯片公司的详细介绍,以及这些芯片公司的官方白皮书下载。本文为第一期。01
小编花费九牛二虎之力,从网上搜集了上面15家集成电路供应商的官方白皮书、少量行业研究报告,覆盖产品、技术、解决方案等领域,一共245份,现在一并放送给大家,具体数量如下:
15、Ambarella:20份
方法一:集赞
将本文转发至朋友圈,集齐6个赞,截图发送到后台,小助手会在24小时之内回复。如果小助手回复慢了,也可以添加我的个人微信:zhidxcom001,备注:领资料,即可。
方法二:助力
看下面这张海报👇
第一步:在芯潮公众号回复海报上的邀请码:chip1,即可生成带有你专属头像的海报。
第二步:将你的专属海报,转发到朋友圈,邀请好友为你助力。助力满6人,你和你的朋友都可以获取资料一份。
本活动长期有效!
中国是全球芯片最重要的消费市场之一,发展速度非常快。但是,与国际先进水平相比,还有较大的差距。
我国芯片的自主研发和量产,道阻且长,但势在必行。希望用我们的一点绵薄之力,帮助更多芯片同僚、业内人士,更方便、快捷的获取想要获取的知识。
我们也建立了专门的芯片交流群,小编会在群内每天发一篇有价值的文章,不定期分享搜集到的有价值的报告;目前群内聚集了一大批芯片半导体行业人士,以及我们专业、懂行的原创记者。
我们希望建立一个简单活跃、零广告的交流氛围,如果你也是芯片行业从业者,欢迎你的加入。(在公众号回复社群即可)。
最后说一句,上次资料放送活动被一些公众号批量拷贝,希望这一次大家有点节操。
02
在Hot Chips大会,英特尔强调了“AI Everywhere”思想。在2019年的Hot Chips大会上,英特尔公布了即将推出的高性能AI加速器的新细节:Intel®Nervana™神经网络处理器,其中NNP-T用于训练,NNP-I用于推理。英特尔的工程师展示了混合芯片封装技术、Intel® Optane™ DC持久内存和optical I/O技术的细节。Mobileye目前正在开发其第五代SoC, 即EyeQ®5,作为一个视觉中央计算机,为将于2020年上路的全自动驾驶(5级)车辆执行传感器融合。为了满足功耗和性能目标,EyeQ®SoCs在最先进的超大规模集成电路工艺技术节点上进行了设计——第5代的FinFET达到了7nm。MYRIAD 2是一个多核、始终在线的芯片系统,支持移动、可穿戴和嵌入式应用程序的计算成像和视觉感知。视觉处理单元包含并行性、指令集体系结构和微体系结构特性,在一系列计算成像和计算机视觉应用程序(包括延迟要求低到毫秒级的应用程序)中提供高度可持续的性能效率。Myriad™X是第一个以神经计算引擎为特征的VPU,这是一个用于在设备上运行深度神经网络应用程序的专用硬件加速器。通过智能存储结构和其他关键组件,神经计算引擎能够在避免数据流瓶颈的情况下,提供行业领先的性能。英特尔的Loihi测试芯片是该公司首款自主学习芯片。Loihi测试芯片包括模拟大脑基本机制的数字电路,使机器学习更快、更高效,同时要求更低的计算能力。神经形态芯片模型的灵感来自神经元交流和学习的方式,使用的是可以根据时间来调节的spikes和plastic 突触。这可以帮助计算机自我组织,并根据模式和关联做出决策。高通最近宣布,将通过Qualcomm® Cloud AI 100将公司的AI专业知识引入云计算,以满足云计算中AI推理处理的爆炸式需求,它利用了高通公司在先进信号处理和能耗效率方面的传统优势。高通的第四代设备上AI引擎骁龙855,其AI是前一代的3倍,每秒执行超过7万亿次操作(TOPS)。NVIDIA TESLA T4张量核心GPU:为TensorRT Hyperscale推理平台提供动力。NVIDIA揭示了下一代Turing GPU架构:光线追踪,GDDR6等。在英伟达的SIGGRAPH 2018年主题演讲上,公司首席执行官黄仁勋正式公布了备受期待的Turing GPU架构。作为下一代NVIDIA GPU设计,Turing将纳入一些新功能,并将在今年推出。英伟达于今年3月推出了第二代DGX系统。为了制造半精度2 petaflops 的DGX-2,英伟达必须首先设计并制造一种新的NVLink 2.0 Switch芯片,名为NVSwitch。尽管英伟达目前只将NVSwitch作为其DGX-2系统的一个组成部分,但不排除向数据中心设备制造商销售NVSwitch芯片的可能。在边缘,Nvidia提供了用于自动驾驶的AI Car Computer:Nvidia DRIVE™PX,以及“用于自动驾驶的嵌入式平台”JETSON TX1/TX2模块。NVIDIA在GTC2017宣布开源XAVIER DLA深度学习加速器:https://github.com/nvdla/
三星为高端移动设备配备了Exynos 9系列9820处理器的设备上AI处理,第四代定制核心和2.0Gbps LTE高级调制解调器支持丰富的移动体验,包括AR和VR应用
即将发布的AMD Radeon Instinct MI25有望实现12.3 TFlops的SP或24.6 TFlops的FP16。如果你的计算符合英伟达的Tensors,那么AMD就没有竞争力了。Nvidia的带宽为900GB/s,几乎是AMD的484 GB/s的两倍。据报道,特斯拉正在与AMD合作开发自己的人工智能处理器,用于其自动驾驶系统。特斯拉与英伟达存在合作关系。英伟达的GPU为特斯拉的自动驾驶系统提供动力。Xilinx推出了世界上最快的数据中心和人工智能加速卡:Alveo,旨在大幅提高跨云和内部数据中心的行业标准服务器的性能。Xilinx提供了“从边缘到云的机器学习推理解决方案”,并且声称他们的FPGA最适合INT8。虽然FPGAs的每瓦性能令人印象深刻,但在价格和性能之间找到平衡是FPGAs的主要挑战。神经形态芯片TrueNorth:TrueNorth是IBM的神经形态CMOS ASIC与DARPA的SyNAPSE项目共同开发的。它是一个芯片设计上的多核处理器网络,有4096个核,每个核模拟256个可编程硅“神经元”,总共有100多万个神经元。反过来,每个神经元有256个可编程的“突触”来传递它们之间的信号。因此,可编程突触的总数超过2.68亿个。就基本的构建模块而言,它的晶体管数量是54亿。由于4096个神经突触核都能处理内存、计算和通信,TrueNorth绕过了von- neumann架构的瓶颈,而且非常节能,功耗70毫瓦,大约是传统微处理器功率密度的1/ 10000。IBM POWER9,人工智能的顺风车:POWER9 处理器芯片专为人工智能设计,计算速度比前代 POWER8 产品高出 1.5 倍。意法半导体正在设计神经网络技术的第二代产品,该公司在2017年2月的国际固态电路会议(ISSCC)上报告了这一技术。NXP S32汽车平台是世界上第一个可扩展的汽车计算架构。它提供了一个统一的硬件平台和一个跨应用领域的相同软件环境,以更快地将丰富的车内体验和自动驾驶功能推向市场。S32V234是一个用于前置和环绕视图相机、机器学习和传感器融合应用的视觉处理器。Marvell展示了人工智能SSD控制器体系结构解决方案,通过将英伟达的深度学习加速器(NVDLA)技术整合到其数据中心和客户端SSD控制器家族中,为广泛的行业提供AI能力。麒麟980,是世界上第一个7nm移动智能芯片。麒麟980创造了多项“全球第一”,是全球首款7nm制程手机SoC芯片组,全球首款cortex-A76架构芯片组,全球首款双NPU设计,全球首款支持LTE cat21的芯片组。麒麟980融合多种技术,引领AI流,为用户提供令人印象深刻的移动性能,创造更便捷、更智能的生活。海思也开发移动相机SoC,如双核 CNN@700 MHz 神经网络加速器。Rockchip发布了其首款AI处理器RK3399Pro - NPU,性能最高可达2.4 TOPs。Renesas为下一代人工智能芯片开发了新的内存处理技术,使人工智能处理性能达到8.8 TOPS/W。以下芯片半导体热文也值得一看:
1、华为事件解读:
《华为之迷思》
《华为芯片28年发家史》
《华为芯片大阅兵》
2、重要历史回顾
《中芯国际:无奈的内讧》
《EDA战争:一个硅谷丛林的故事》
《阿斯麦封神记》
3、关键技术解读
《光刻机之战》
《光刻机详解:“恐怖”的光源系统》
《推动IC设计革命的七大EDA技术工具》
在芯潮公众号对话页回复“芯片”查看。
「芯片社群」正在招募,加入将获得:行业分析解读、报告资料分享、认识业内大V后台回复“社群”加入