ICLR 2022|基于子图到节点转换的子图表示学习
The following article is from AI in Graph Author AI in Graph
作者 | 李万相
审核 | 付海涛
今天给大家介绍韩国科学技术研究所Alice Oh教授团队发布在ICLR上的文章,《EFFICIENT REPRESENTATION LEARNING OF
SUBGRAPHS BY SUBGRAPH-TO-NODE TRANSLATION》。本文提出了子图到节点(S2N)转换,这是一种有效学习子图表示的新方法。具体来说,给定全局图中的一组子图,通过将子图粗略地转换为节点来构造一个新图,并通过这种转换将子图级任务作为节点级任务执行,可以显著降低训练和推理中的内存和计算成本。实验表明,具有 S2N 转换模型更有效,而且不会显著降低性能。
1.摘要
目前已经开发了图神经网络(GNN)来学习节点、边和图的表示,最近提出的SubGNN是一种用于学习子图表示的专门架构,这种架构优于以前的模型;然而,它需要大量的内存和计算来学习子图中的结构和各种属性。本文对四个真实世界的数据集进行了实验,以评估S2N转换的性能和效率,证明了具有S2N转换的模型比现有方法更有效率,而没有显著的性能下降,甚至某些模型在四个数据集中的三个数据集中的表现都优于基线。
2.模型介绍
2.1 S2N转换概述
S2N转换通过构建一个将原始子图概括为节点的新图来降低模型训练和推理中的内存和计算成本。如上图a所示,对于全局图G中的每个子图,在转换后的图
对于
3.实验
3.1 数据集
本文使用了四个真实数据集,PPI-BP、HPO-Neuro、HPO-Metab和EM-User。任务是子图分类,其中节点V、边A和子图S在数据集中给出。
3.2 基线模型
本文使用当前最先进的子图分类模型作为基线:Sub2Vec、Graph-level GIN和SubGNN。
3.3 实验结果
上表总结了S2N转换前后的数据集统计数据,包括节点和边的同质性。除了HPO-Neuro,转换后的图的节点数和边数比原始图少。对于HPO-Neuro,它的边数是原始图的两倍,但节点数减少了。作者还发现它们是非同质的(低同质性),这意味着有许多不同类的连接节点。
上图中展示了S2N模型和SubGNN在HPO-Neuro、HPO-Metab和EM-User上的参数数量、吞吐量(每秒子图)和延迟(每次前向传递的秒数)。首先,S2N 模型使用更少的参数并且比SubGNN更快地处理更多样本(即更高的吞吐量和更低的延迟),特别是在吞吐量方面,S2N模型在相同的时间内可以处理比 SubGNN多8到300倍的样本。其次,训练吞吐量高于S2N模型中的推理吞吐量,通常,与在SubGNN中一样,在推理步骤中吞吐量会增加,这不需要梯度计算,这是因为S2N模型在训练和推理样本之间使用消息传递,因此,他们计算训练和推理样本,推理阶段需要更多计算。最后,作为一般趋势的一个例外,GAT在HPO-Metab上的训练延迟高于SubGNN。
4.总结
本文提出了子图到节点(S2N)转换,这是一种有效学习子图表示的新方法。使用S2N创建了一个新图,其中节点是原始子图,边是子图之间的关系,并将子图级任务作为节点级任务执行。S2N转换显著降低了内存和计算成本,而不会降低性能。
--------- End ---------
感兴趣的读者,可以添加小邦微信(zhiyaobang2020)加入读者实名讨论微信群。添加时请主动注明姓名-企业-职位/岗位 或
姓名-学校-职务/研究方向。
- 历史文章推荐 -
【分子生成】
●Nat Mach Intel|一种用于分子相互作用和分子性质预测的自动图学习方法
●深度学习在分子生成和分子性质预测中的应用
●J Comput Chem|应用于多参数优化的基于配体的从头设计深度生成模型
●Curr Opin Struc Biol|蛋白质设计的深度生成建模
●ICLR 2021|一种端到端的基于双重优化的分子构象生成框架ConfVAE
●JCIM|用Transformer-decoder模型进行分子生成
●Dr. X | 冲破传统药物发现瓶颈,深度学习指导下的分子生成