其他
【源头活水】图神经网络预训练模型
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://www.zhihu.com/people/jie-yan-93-4
文献原文:https://arxiv.org/abs/2006.09963
文献代码:https://github.com/THUDM/GCC
01
02
特定域节点属性的带标签图上的预训练 INfoGraph:学习特定域的图级表示,特别是图分类任务 定义集中图学习任务,以在合成图上预训练GCN模型
将跨多个图的图神经网络预训练问题形式化,并确定其设计挑战 将预训练任务设计为子图实例判别,以从多个输入图捕获通用和可转移的结构模式 提出了图对比编码(GCC)框架来学习结构图表示,它利用对比学习来指导预训练 进行了广泛的实验,以证明对于域外任务,GCC可以提供比专用图形特定模型更高的性能
03
3.1 节点相似度
邻域相似度 结构相似度,具有相似局部结构的节点视为相似 属性相似度,例如GCN、GAT等
3.2 对比学习
3.3 图预训练
04
4.1 GNN预训练问题
结构相似性,在向量空间中,具有相似拓扑结构的中心节点距离更近; 可转移性
4.2 GCC预训练
怎么定义子图实例?
怎么定义图内、跨图的相似实体对?
怎么选取合适的GNN?
4.3 GCC Fine-tuning
05
节点分类任务
图分类任务
相似性搜索
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
Rethinking Self-Attention in Transformer Models
测试集没标签,可以拿来测模型吗?
图神经网络GraphSage:远亲不如近邻
图神经网络笔记-GraphSage的采样聚合
用概率分布评估检测框质量的 Generalized Focal Loss V2
YOLO之外的另一选择,手机端97FPS的Anchor-Free目标检测模型NanoDet现已开源~
大白话 Generalized Focal Loss V2
impersonator-你的舞蹈我来跳
Mixtext 半监督分类
“她”教你从失败中学习
丢弃Transformer,FCN也可以实现E2E检测
目标检测新范式!港大同济伯克利提出Sparse R-CNN
Meta Transfer Learning for Few Shot Learning
浅谈多任务与联邦学习
Stacked Capsule AutoEncoder-堆叠的胶囊自编码器
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!