问国家卫健委和国务院联防联控机制四个问题

这样的标准上海市疫情防控工作领导小组也好意思发布出来?

伊朗著名美女明星、奥斯卡影后被捕!

母子乱伦:和儿子做了,我该怎么办?

阳了后,14亿人民才发现集体被忽悠了!

生成图片,分享到微信朋友圈

自由微信安卓APP发布,立即下载! | 提交文章网址
查看原文

【AAAI2023】FacT:视觉Transformer上轻量级自适应的因子精调

专知 2022-12-12

最近的工作探索了通过更新少数参数来自适应预训练视觉transformer (ViT)的潜力,以提高存储效率,称为参数高效迁移学习(PETL)。目前的PETL方法表明,通过调整0.5%的参数,ViT可以适应下游任务,性能甚至比完全微调更好。本文旨在进一步提升PETL的效率,以满足现实应用中的极端存储约束。为此,提出一种张量-分解框架来存储权重增量,将每个ViT的权重张量化为单个3D张量,并将其增量分解为轻量化因子。在微调过程中,只需要更新和存储因子,称为FactorTuning (FacT)。在VTAB-1K基准上,所提出方法的表现与最先进的PETL方法NOAH相当,同时参数效率提高了5倍。本文还提出了一个小版本,只使用8K (ViT参数的0.01%)可训练参数,但性能优于完全微调和许多其他PETL方法,如VPT和BitFit。在少样本设置中,FacT也使用最少的参数击败了所有PETL基线,证明了它在低数据环境下的强大能力。

https://www.zhuanzhi.ai/paper/28a49e1b68f4e738621001090150cd44


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“FACT” 就可以获取【AAAI2023】FacT:视觉Transformer上轻量级自适应的因子精调》专知下载链接

                       
专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看获取100000+AI主题知识资料

文章有问题?点此查看未经处理的缓存