其他
【源头活水】从对比链接中蒸馏自知识:非消息传递的图节点分类
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
01
分叉 MLP
边蒸馏(Link Distillation)
随机点对的对比蒸馏
02
03
04
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
深度强化学习点云配准——ReAgent技术详解
DynamicViT: 动态Token稀疏化的高效视觉 Transformer
地表最强图神经网络竟然是transformer
ICME21 你的检测器还安全吗? RPATTACK:YOLO和Faster R-CNN的攻击利器
松弛Transformer:实现直接出框的时序动作检测
Synthesizer-其实我们还不够了解Self-Attention
预训练卷积超越预训练Transformer?
SegFormer: 简单有效的语义分割新思路
ACL2021 | 把关键词生成看成集合预测问题
将预训练BERT用于Task-Oriented对话系统
文本相似:Sentence-BERT 原理与实践
代码层面解读3D点云目标检测算法TANet
BERT Attack: 基于BERT的文本对抗技术
ConTNet:在视觉任务中同时使用Transformer和Convolution
热点讨论:MLP,RepMLP,全连接与“内卷”
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!