从三篇经典论文看时空数据挖掘任务中的自适应图学习
©PaperWeekly 原创 · 作者 | 西南交一枝花
单位 | 西南交通大学CCIT实验室
研究方向 | NLP、时空数据挖掘
引言
图结构表示,如邻接矩阵,可以表示节点之间的相邻关系。在时空挖掘场景中,如交通流任务中可以通过路网拓扑表示传感器之间的相邻关系,可以通过欧氏距离度量;地铁交通流任务中可以通过地铁线路图表示站点之间的相邻关系。此类图结构表示可以看作是预定义图(Pre-defined graph)或者说固定图(Fixed graph),即通过先验知识定义的图结构或者说是既定图结构。
方法
本小节将着重介绍模型如何通过端到端方式学习邻接矩阵。目前常用的方法可以概括为:初始化的节点嵌入表示,通过节点之间向量计算表示节点之间的关联关系,得到一个参数化后的邻接 矩阵,基于梯度下降优化在后向传播中不断“调整”节点表示,进而改变邻接矩阵,最终使其收敛到稳定状态。
3.2 AGCRN 2020 NeurIPS
Comparing with the self-adaptive adjacent matrix in [5], DAGG module is simpler and the learned EA has better interpret-ability. AGCRN unifies all the embedding matrix to be E instead of learning separate node embedding matrix in different NAPL-GCN layers and DAGG. This gives a strong regularizer to ensure the nodes embedding consistent among all GCN blocks and gives our model better interpretability.
3.3 MTGNN 2020 KDD
作者对自适应图进一步进行了“升级”(单向图)。主要是作者考虑了节点之间的单向关系,单向不同于有向,举个例子说明:有向图中 A 到 B 有边 A→B,B 可以到 A 有边。但是在单向图中,A→B,不存在 B→A。提出单向关系,原文作者的解释为多变量预测中一个变量状态变化引起另一个变量状态变化,但笔者认为这个解释不足以说明单向关系必要性,因为有向图也可以表示这种变化关系。
x = gconv1(x, adp)+gconv2(x, adp^{T})
结语
参考文献
[Kipf GCN] Semi-supervised classification with graph convolutional networks
[Wu, Graph WaveNet, 2019 IJCAI] Graph WaveNet for Deep Spatial-Temporal Graph Modeling
[Bai, AGCRN, 2020 NeurIPS] Adaptive Graph Convolutional Recurrent Network for Traffic Forecasting
[Wu, MTGNN, 2020 KDD] Connecting the Dots Multivariate Time Series Forecasting with Graph Neural Networks
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧