其他
论文分享 | NIPS2022 | 图对比学习的新范式和增广方法
引言
文章概览
论文细节
论文细节
1
1、面向的主要问题
2、相关背景知识介绍
2.1 什么是对比学习?为什么要使用对比学习?
代理任务+目标函数 更好地利用没有label的数据
2.2 DGI(Deep Graph Infomax)
图表示学习领域里对比学习的开山之作,通过基于互信息(变量间相互依赖性)的量度进行对比学习。
2.2.1 设置
为节点特征集合, 为邻接矩阵。
2.2.2 目标
训练一个编码器 (GCN),使得 为节点的表示向量。
2.2.3 方法
通过邻接矩阵不变,重组目标子图特征得到负样本实例。
通过编码器获得正例子图和负例子图的节点表示。
通过 Readout 函数得到正样例图级别的summary vector:
在本文中,使用的Readout函数是所有节点特征的简单平均值。定义一个 discriminator ,用来计算 patch-summary 对的得分。若patch被summary包含,则得分高。
通过对比学习对编码器进行训练。
3、DGI方法的缺陷
4、DGI方法的改进
4.1 Augmentation(图的增广)
4.2 Corruption(图的破坏)
4.3 The Siamese GNN (GNN投影网络)
4.4 Group Discrimination (群体区分)
5、模型推断
固定 GNN encoder、MLP predict 的参数,获得初步的节点表示 MVGRL 多视图的方法引入多跳子图的全局信息 , 其中是邻接矩阵 得到局部表示和全局表示的聚合
6、实验
6.1 实验数据集
6.2 节点分类任务
6.3 节点分类效率
7、模型拓展
8、未来的工作
2
1、面向的主要问题
在理论层面:
图对比学习(GCL)学习到的表示中基本上编码了什么信息? 在不同的增广之后,是否有一些通用的图增广规则?如果是,它们是什么?它们能带来什么见解?
应该在增广图中保留或者丢弃哪些信息? 不同的图增强策略之间是否有一些一般规则? 如何使用这些一般规则来验证和改进当前的GCL方法?
2、问题引入:再论图对比学习
3、一些预备知识
3.1 图的拉普拉斯矩阵和低频/高频分量
3.2 InfoNCE损失
4、理论证明
4.1 从谱域角度看,什么样的信息应该被保留?
4.2 结论的正确性分析
5、模型改进
5.1 解方程
首先求 对 的偏导,有 一番证明后,我们得到了 能取到极值的条件: 因为4b是个超越方程,没有解析解,所以我们转向4a,在迭代过程中,我们认为会趋向于稳定,所以可以用上一轮的加入下一轮的迭代中,即写成 便解得: 因为,,未知,所以我们将其建模成一个matrix scaling 问题,并利用 Sinkhorn's Iteration 进行求解,得到每次迭代的差别上界 同理,可以建模出边的删减和新的图增广矩阵: