小样本学习下的Transformer:基于谱聚类层和标签代理学习
©作者 | 知乎用户Alicia
研究方向 | 小样本学习
论文标题:
Attribute Surrogates Learning and Spectral Tokens Pooling in Transformers for few-shot learning
论文链接:
https://arxiv.org/pdf/2203.09064.pdf
代码链接:
https://github.com/StomachCold/HCTransformers
Abstract & Conclusion
1.1 Abstract
目的:通过提高数据的有效性来解决 Transformer “数据饥渴”的问题,从而能够使用 Transformer 解决小样本问题。
创新点(如何提高数据的有效性):主要有两个工作,一个是提出了 token 谱聚类层,作用是获取并利用图像内部结构来降低目标前景区域和背景噪声区域分界的模糊性(也就是让目标和噪声的边界更清晰);第二个则是提出了一个标签代理学习方案,作用是充分利用图像-标签对的视觉信息而不是单一的标签视觉概念。
模型:HCTransformer,基于自监督学习框架 DINO,使用三组 Transformer 进行串联,两个 transformer 之间有一个 token 下采样层,同时采取标签代理学习方案来优化学习参数。
结果:在 4 个小样本的基准数据集上做了测试,在 5-way 1-shot 和 5-way 5-shot 上都以明显的优势超过了 DINO 基准模型,同时也超过了目前的 SOTA 模型。
1.2 conclusion
Introduction & Related work
2.1 Introduction
2.2 Related work
Model & Method
3.1 preliminary
由于 HCT 是基于 DINO 架构的,所以首先来看看 DINO 的架构以及其中的 Multi- crop 策略。图 2 是自监督学习框架 DINO 的简单表示。 和 是输入图像的不同视图。teacher 网络和 student 网络架构相同但是参数不同。其中 student 网络的参数通过反向传播进行更新,而 teacher 网络的参数并不通过反向传播更新,(sg 表示 stop gradient,截断梯度的传播了)而是由 student 网络的参数通过指数移动平均得到。
3.2 Attribute Surrogates Learning
假设共有 C 个类,对于每一类标签 y,学习一个语义标签代理 :,标签代理描述子 。(这里就是说我把标签变成一个可学习的向量即标签代理)训练过程中通过代理来监督 student 网络的参数学习,同时代理的参数也需要更新。假设 student 网络的的目标函数为 ,其参数 以及关联的标签代理的更新公式为:
3.3 Supervise the Class Token
本文使用代理损失来监督每个类的概率分布,类 y 的代理描述子 ,使用 softmax 函数获得 的分布。(这里论文就是直接说 要取一个很大的数,他们将其设为 8192,没有具体说为什么设这个数)。
3.4 Supervise Patch Tokens
3.5 Spectral Tokens Pooling
本文提出一个基于谱聚类的 token 池化方法。对于 ViT 中的 N 个 patch,检索这 N 个 patch 的注意力矩阵 ,再计算一个 token 的临界矩阵 来反映邻接关系。每个中心 token 周围有 8 个邻接的 token。利用以下公式计算得到一个对称矩阵 S:
对对称矩阵 S 的每一行做 Softmax 操作,得到最终的邻接权重矩阵 ,作为 token 谱聚类算法的输入。Token 谱聚类对 patch token 进行下采样,得到新的 patch token。
▲ figure 3. visualized tokens pooling results
Experiments
4.1 Training Strategy of HCTransformers
每个 transformer 输出的 token 数量分别为 784,392,196。
没有采用端到端的训练,而是将训练分成两个阶段。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧