其他
一行代码,炼丹2倍速!PyTorch 2.0惊喜问世
新智元报道
新智元报道
【新智元导读】现在,只需添加一行代码,PyTorch2.0就能让你在训练Transformer模型时,实现1.5倍-2倍的速度提升!
PyTorch 2.x:更快、更Python!
更多的技术支持
TorchDynamo
AOTAutograd
PrimTorch
TorchInductor
更快的训练速度
来自HuggingFace Transformers的46个模型
来自TIMM的61个模型:Ross Wightman收集的最先进的PyTorch图像模型
来自TorchBench的56个模型:github的一组流行代码库
技术概述
图的获取
图的降低
图的编译
TorchDynamo
TorchInductor
AOTAutograd
PrimTorch
Prim ops有大约~250个运算符,适合于编译器。由于足够低级,因此只需将它们融合在一起以获得良好的性能。
ATen ops有大约~750个典型的运算符,适合于按原样输出。这些适合于已经在ATen级别上集成的后端,或者没有编译的后端,从而恢复像Prim ops这样的低级别运算符集的性能。
动态形状
1、这玩意也太猛了!朋友们。我在此严正呼吁大家:端好饭碗,谨防 AI!
点分享
点点赞
点在看