其他
【源头活水】地表最强图神经网络竟然是transformer
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
01
02
03
自注意力机制:令输入
04
self.in_degree_encoder = nn.Embedding(512, hidden_dim, padding_idx=0)
self.out_degree_encoder = nn.Embedding(512, hidden_dim, padding_idx=0)
node_feature = node_feature + self.in_degree_encoder(in_degree) + self.out_degree_encoder(out_degree)
05
# Scaled Dot-Product Attention.
# Attention(Q, K, V) = softmax((QK^T)/sqrt(d_k))V
q = q * self.scale
x = torch.matmul(q, k) # [b, h, q_len, k_len]
x = x + attn_bias
x = torch.softmax(x, dim=3)
x = self.att_dropout(x)
x = x.matmul(v) # [b, h, q_len, attn]
06
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
ICME21 你的检测器还安全吗? RPATTACK:YOLO和Faster R-CNN的攻击利器
松弛Transformer:实现直接出框的时序动作检测
Synthesizer-其实我们还不够了解Self-Attention
预训练卷积超越预训练Transformer?
SegFormer: 简单有效的语义分割新思路
ACL2021 | 把关键词生成看成集合预测问题
将预训练BERT用于Task-Oriented对话系统
文本相似:Sentence-BERT 原理与实践
代码层面解读3D点云目标检测算法TANet
BERT Attack: 基于BERT的文本对抗技术
ConTNet:在视觉任务中同时使用Transformer和Convolution
热点讨论:MLP,RepMLP,全连接与“内卷”
CVPR2021|如何估计代表性的原型是少样本学习的关键挑战-利用原语知识补全原型
SphereFace(A-softmax)论文解读:人脸识别的深度超球嵌入
ICLR 2021 | 如何减少深度学习模型的偏见?
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!