【源头活水】图对抗攻击防御技术--RGCN,Pro-GNN,Vaccinated GCN
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://www.zhihu.com/people/xyz-92-84-9
在机器学习领域,早在2014年Ian Goodfellow提出的对抗生成网络中,对抗样本和对抗训练的概念第一次出现。早期的对抗训练方法主要被应用在图像,语音和文本等连续数据。因为数据的连续性,对抗的样本和噪音比较容易产生。
最近两年,随着深度学习的思想被应用到图数据中,并在节点分类、连接预测等问题上取得了很好的表现。GNNs模型也被广泛运用于金融、推荐、社交网络等领域。随之而来的,GNNs的鲁棒性面临着巨大的挑战,例如:金融系统中,黑客可以轻易通过修改图数据来提升自身信用评级等等。
因此,把对抗思想迁移到图数据来研究GNNs的鲁棒性也是一个自然的过程。自从KDD'18 best paper[1]开始,越来越多图对抗攻击的工作开始涌现,相应的图对抗攻击的防御工作也成为了近年来研究的热点问题。https://zhuanlan.zhihu.com/p/88934914在上一篇文章中, @Ron Chen 介绍了几种图对抗攻击方法,这些攻击方法表明GNNs(图神经网络)缺乏鲁棒性,易于收到攻击。为了提高GNNs的鲁棒性,下面本文将介绍三种图对抗攻击的防御技术:
1. Robust Graph Convolutional Networks Against Adversarial Attacks[2]
2. Graph Structure Learning for Robust Graph Neural Networks[3]
3. All You Need Is Low (Rank): Defending Against Adversarial Attacks on Graph[4]
01
RGCN(Robust Graph Convolutional Network)是最早的有关于图数据集上对抗攻击防御的工作之一。本文对GCN作出的改进主要体现在以下两点:
基于高斯分布的图卷积层(Gaussian-based Graph Convolution Layer)
采用attention机制为聚合的邻居特征分配权重
RGCN模型结构如下所示:
在本文中,给定一张属性图
基于高斯分布的图卷积层定义如下所示:
RGCN假定每个节点
接下来在做邻居特征聚合时,需要用到以下定理:
简单来说,邻居特征聚合的本质就是对n个服从独立的高斯分布的变量做加权求和,而这个定理告诉我们:这些随机变量加权求和后的变量也服从高斯分布,
此外,本文认为高斯分布的
其中,
但由于RGCN每个隐藏层中学到的节点表示是一个高斯分布,所以需要对最后一个隐藏层的分布进行采样:
将采样后的结果
02
在本文中,现实世界的图通常都具备一定的特性(例如,图是低秩或者是稀疏的,相邻节点往往有着相似的特征等等),而对抗攻击很可能会将这些特性破坏。所以,本文希望通过保持图上这些特性来对对抗攻击进行防御(本质是过滤图中的对抗攻击带来的noise)。
本文对全局攻击metattack[5]的特性进行了一定的探究,如Figure 1a-d所示。在Figure 1a中,metattack增大了邻接矩阵的奇异值;Figure 1b说明metattack快速增加了邻接矩阵的秩;在Figure 1c中,相比于正常边,移除对抗边会使得邻接矩阵的秩下降的更快;Figure 1d表明metattack更倾向连接两个特征差异较大的节点。
下面本文就针对对抗攻击的这些特性,提出了Pro-GNN来增强GNN模型的鲁棒性。具体来说, Pro-GNN是一种通用GNN框架,它能够从基于这些特性的扰动图中同时学到一个新的结构图和一个鲁棒的图神经网络。Pro-GNN的整体框架如下图所示:
Poisoned Graph中红色的边是对抗边,攻击者插入对抗边用于降低节点分类模型的表现。为了防御这种对抗攻击,Pro-GNN对Poisoned Graph进行重构来保持图数据上的低秩、稀疏以及属性特征的平滑性。
为了保持图低秩和稀疏的性质,本文给出了上述优化目标。
Pro-GNN通过下式来评估图中属性的平滑性:
其中
结合低秩、稀疏和属性平滑的综合优化目标为:
其中,
Pro-GNN可以在几乎不损失原来分类准确率的前提下,增强模型的鲁棒性,实验结果如下表所示:
03
Vaccinated GCN的核心思路在于:本文作者发现Nettack[1]是一种高秩攻击,这是因为Nettack带来的对抗扰动只会影响图中少量的节点,攻击给图结构谱域带来的影响较小,故主要反映在rank较高的奇异值上。
文中的实验也验证了上述猜想。在上图中,clean graph和被Nettack攻击后的graph的奇异值区别主要集中在rank较高的奇异值上,而rank低的奇异值基本没有发生改变。基于这个观察,作者提出对图数据采用低秩近似(Low-Rank Approximation)来过滤图中的对抗攻击所带来的noise。
示意图很好懂,先通过SVD对邻接矩阵进行矩阵分解,然后低秩近似重构矩阵,得到Vaccinated Graph。但问题在于:给定一张图
其中
其中,
换句话说, 最小奇异值为
其中,
再将其带入到我们的问题定义中,我们得到图自适应的节点度数概率计算结果:
接下来,本文作者在GCN和t-PINE[9]两个模型上对Vaccinated Graph的鲁棒性进行了评估。实验结果表明:Vaccinated Graph对高秩攻击Nettack取得了不错的防御效果,但对低秩攻击的防御效果较差。其中,LowBlow是本文提出的一种低秩攻击,因为本次的主要内容为对抗攻击的防御工作,故在处不再赘述,感兴趣的读者可以自行阅读原文[4]。
实验结果如下所示:
04
回顾这三篇工作,RGCN采用高斯分布来平滑节点特性表示,以期来吸收对抗攻击造成的noise,但在实验中的准确率提升并不明显且效率不高;而Pro-GNN和Vaccinated GCN,前者通过保持图数据的固有特性,而后者借助低秩近似,都抓住了对抗攻击的特点,进而有效的过滤图中的noise,达到防御对抗攻击的目的,增强了GNNs模型的鲁棒性。
参考
[1]abZügner D, Akbarnejad A, Günnemann S. Adversarial attacks on neural networks for graph data[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2018: 2847-2856.
[2]Zhu D, Zhang Z, Cui P, et al. Robust graph convolutional networks against adversarial attacks[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2019: 1399-1407.
[3]Jin W, Ma Y, Liu X, et al. Graph structure learning for robust graph neural networks[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2020: 66-74.
[4]abEntezari N, Al-Sayouri S A, Darvishzadeh A, et al. All you need is low (rank) defending against adversarial attacks on graphs[C]//Proceedings of the 13th International Conference on Web Search and Data Mining. 2020: 169-177.
[5]Zügner D, Günnemann S. Adversarial attacks on graph neural networks via meta learning[J]. arXiv preprint arXiv:1902.08412, 2019.
[6]Richard E, Savalle P A, Vayatis N. Estimation of simultaneously sparse and low rank matrices[J]. arXiv preprint arXiv:1206.6474, 2012.
[7]Shah N, Beutel A, Gallagher B, et al. Spotting suspicious link behavior with fbox: An adversarial perspective[C]//2014 IEEE International Conference on Data Mining. IEEE, 2014: 959-964.
[8]Clauset A, Shalizi C R, Newman M E J. Power-law distributions in empirical data[J]. SIAM review, 2009, 51(4): 661-703.
[9]Al-Sayouri S, Gujral E, Koutra D, et al. t-pine: Tensor-based predictable and interpretable node embeddings[J]. Social Network Analysis and Mining, 2020, 10(1): 1-11.
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
强化学习中的奇怪概念:On-policy与off-policy
机器学习:多任务学习之MMOE模型
通过对抗性训练和数据增强改进常识因果推理
简单不过图卷积-Spatial Graph ConvNets
SCUT-FBP5500 人脸美学预测
Attention Is All You Need (Transformer模型)
从双层优化视角理解对抗网络GAN
EF-Net一种适用于双流SOD的有效检测模型(Pattern Recognition)
从傅立叶变换到炒股:基于多频率分析的递归神经网络
从样本对抗到模型对抗:Worst-Case Perturbations (WCP) 对抗模型
T-PAMI 2021:换个损失函数就能实现数据扩增?
Transformer in CV—— Vision Transformer
Inductive Biases for Deep Learning By Bengio
OneNet: End-to-End One-Stage Object Detection
基于认知图谱实现多跳阅读
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!