2019年,异质图神经网络领域有哪些值得读的顶会论文?
作者丨纪厚业
学校丨北京邮电大学博士生
研究方向丨异质图神经网络及其应用
然⽽,⽬前的图神经网络主要针对同质图(节点类型和边类型单⼀)设计。同质图中只有⼀种类型的节点和边(例如,只有朋友关系的社交网络),网络结构较为简单。因此,同质图神经网络通常只需要聚合单⼀类型的邻居来更新节点的表示即可(例如,通过在朋友关系下的邻居来更新节点表示)。
但真实世界中的图大部分都可以被自然地建模为异质图(多种类型的节点和边,如下图所示,IMDB 数据中包含三种类型的节点 Actor、Movie 和 Director,两种类型的边 Actor-Moive 和 Movie Director)。多种类型的节点和丰富的语义信息给异质图神经网络设计带来了巨大挑战。
与同质图不同,异质图通常需要需要考虑不同关系下邻居信息的差异。因此,异质图神经网络通常采用层次聚合的⽅式:1) 节点级别(下图 (a))。针对节点,找到其在某种关系下的邻居并聚合邻居信息来得到节点在某种关系下的表示;2) 语义级别(下图 (b))。对多种关系(不同的边类型/元路径)下的节点表示进⾏融合,得到⼀个较为全⾯的节点表示。元路径是⼀种节点间的连接模式,如上图中的 Movie-Actor-Movie 和 Movie-Director-Moive。注意,不同类型的边关系(如 Movie Actor)可以认为是⻓度为 1 的元路径。
接下来的章节,我们首先梳理了⼏种异质图神经网络的架构设计,然后介绍了异质图神经网络在的实际应用(NLP/推荐/恶意评论检测)。最后,附上了异质图分析的相关导师/论文/资料/数据集。
模型
WWW 2019
本文由北京邮电大学联合清华大学和西弗吉尼亚大学发表在 WWW 2019 上。 本文首次提出了基于注意力机制的异质图神经网络 Heterogeneous Graph Attention Network (HAN),可以⼴泛地应用于异质图分析。作者也开源了相关的代码和数据:
https://github.com/Jhy1993/HAN
HAN 也遵循经典的异质图神经网络架构(节点级别聚合与语义级别聚合)。为了更好的实现层次聚合函数,HAN 利用语义级别注意力和节点级别注意力来同时学习元路径与节点邻居的重要性,并通过相应地聚合操作得到最终的节点表示。这是⼀个很自然的想法,因为节点邻居的重要性或者是元路径的重要性肯定是有所差异的。如果能捕获这种差异性应该能带来⼀定的提升。模型整体架构如下图所示:
HAN 中节点级别的聚合:
这里设计了节点级别的注意力旨在学习在给定元路径 Φ 下不同邻居 j 的重要性,然后通过加权平均来学习节点在某个语义下的表示。
HAN 中语义级别的聚合:
这里涉及了语义级别注意力旨在学习多个元路径下的节点表示的重要性,并进⾏加权融合。
KDD 2019
模型整体框架如下如所示:
与 HAN 不同,本文的 HetGNN 没有考虑节点级别的注意力,⽽是用了 LSTM 作为聚合器来聚合某种关系下的节点邻居并更新节点表示。这里的邻居选择也有所不同:通过 random walk with restart 来选择固定数量的邻居。
HetGNN 中的节点级别的聚合:
其中,
HetGNN 中的语义级别的聚合:
这里,
可以看出,HetGNN 也是经典的层次聚合,只不过节点级别的聚合器选取了 LSTM。
NeurIPS 2019
本文所提出的 Graph Transformer Networks 也遵循异质图神经网络的层次聚合。但是本文的重点并不在于聚合器的设计,⽽是解决异质图分析中的另⼀个重要问题:如何选取合适元路径?
异质图分析的很多文章都需要预先指定元路径(包括上述两篇文章),但是这需要很强的先验知识。元路径选的好不好会极大的影响模型的效果。GTN 可以自动的逐步⽣成对任务有用的元路径,省去了⼈⼯指定带来的偏差。数据集和代码⻅:
https://github.com/seongjunyun/Graph_Transformer_Networks
整个模型架构⻅下图:
GTN 中节点级别的聚合:
这里采用经典 GCN 的聚合⽅式。针对第 i 条元路径,通过聚合得到的节点表示为
其中,
GTN 中语义级别的聚合:
给定 C 条元路径, 这里是简单的将多条元路径下的节点表示拼接起来。
其中,Z 代表最终的节点表示。
应用
EMNLP 2019
本文由北京邮电大学联合南洋理⼯大学发表在 EMNLP 2019,是异质图神经网络在 NLP 中的应用。 数据集和代码⻅:
http://www.shichuan.org/dataset/HGAT.7z
针对短文本分类的稀疏/歧义和标签稀缺问题,通过将其建模为异质图来解决数据稀疏和歧义带来的挑战。下图是作者在 AG-News 数据上建⽴的异质图。
同时,本文提出了⼀种异质图注意力 HGAT 来学习短文本的表示并进⾏分类。HGAT 也遵循异质图神经网络的层次聚合,并且利用层次注意力机制来实现更好的信息聚合。模型架构⻅:
HGAT 中的节点级别的聚合:
首先将节点及其邻居的表示拼接起来,然后通过单层 MLP 和注意力向量将其转化为注意力分数。
其中,
HGAT 中的语义级别的聚合:
这里作者首先定义了节点 v 在关系 τ 下的表示
KDD 2019
本文由北京邮电大学联合阿里巴巴发表在 KDD 2019, 是异质图神经网络在推荐中的应用。针对淘宝业务的实际需求,本文将 Intent Recommendation 场景建模为⼀个大规模异质图,并提出了⼀种基于异质图神经网络的推荐算法 MEIRec。作者也给出了⼀个 Intent Recommendation 的例⼦,⻅下图:
本文所提出的 MEIRec 的核⼼思想是:设计⼀个异质图神经网络来学习 user 和 query 的表示。这里的异质图神经网络也遵循经典的层次聚合⽅式。下图展示了 MEIRec 的整个算法框架。
可以看出,作者选择了 QIU 和 IQU 两条元路径来学习 User 的表示,选择了 QIU 和 IUQ 来学习 Query 的表示。这里将异质图神经网络应用于推荐时⽐较自然的:淘宝的实际业务场景是天然的异质图,多条元路径可以更好地对节点进⾏描述。
MEIRec 中的节点级别的聚合:
以针对 User 的元路径 UIQ 为例,首先聚合 Query 的新来更新 I 的表示。
这里,g 是简单的平均操作。然后聚合 I 的表示来更新 User 的表示:
这里,g 是用了 LSTM。
MEIRec 中的语义级别的聚合:
以针对 User 的多条元路径
最后,基于所学习的 User 和 Query 的表示进⾏ Intent Recommendation。将异质图神经网络应用于推荐时⾮常自然的。很多推荐问题都与图上的链路预测息息相关。
CIKM 2019
本文由阿里巴巴发表在 CIKM 2019 上,是异质图神经网络在垃圾评论中的应用。本文也获得了 CIKM 的最佳应用论文奖。
GAS 的节点级别的聚合:
这里与上⾯⼏篇的聚合都所不同,作者引⼊了 User-Item 边上的评论信息作为边的特征。首先,聚合邻居信息更新边的表示
然后,更新 User/Item 的表示。 这里以 User 为例:
总结
图神经网络已经成为深度学习领域的热⻔研究⽅向之⼀。作为真实⽣活中⼴泛存在的异质图,其相应的异质图神经网络具有更⾼的实际研究价值。下⾯通过⼀个表格来对⽐本文所整理所有算法。
相关信息(导师/资料/论文/数据)
国内外相关大⽜⽼师:
Philip S.Yu(俞⼠纶),UIC 教授兼清华数据科学研究院院⻓, ACM 和 IEEE 院⼠,异质图分析倡导者,名列全球计算机科学领域⾼引作者前⼗的华⼈。主⻚:
https://www.cs.uic.edu/~psyu/
http://www.shichuan.org/ShiChuan_ch.html
http://www.ccs.neu.edu/home/yzsun/Publications.htm
Yangqiu Song(宋阳秋), WeChat-HKUST联合实验室副主任,其关于异质图分析的论文 HinDroid 获得了 ACM SIGKDD 2017 Best Student Paper Award (Applied Data Science Track)。个⼈主⻚:
http://www.cse.ust.hk/~yqsong/
Yanfang Ye(叶艳芳),凯斯西储大学副教授,曾任科摩多安全首席科学家,其关于异质图分析的论文 HinDroid 获得了 ACM SIGKDD 2017 Best Student Paper Award (Applied Data Science Track)。个⼈主⻚:
https://cse.nd.edu/seminars/cse-seminar-series-fanny-ye
相关资料/论文整理:
https://github.com/Jhy1993/Representation-Learning-on-Heterogeneous-Graph
相关数据集整理:
https://github.com/Jhy1993/Datasets-for-Heterogeneous-Graph
点击以下标题查看更多往期内容:
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 获取更多论文推荐