其他
【综述专栏】2022年最新动态图神经网络(Dynamic GNN)综述
在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。
作者:https://zhuanlan.zhihu.com/p/489640605
麦吉尔大学CS巨佬刘学教授团队2022年3月发表在arxiv的一篇综述,3月27日更新了第二个版本,链接为
01
提出了一个动态图神经网络的范式:Three Stages Recurrent Temporal Learning Framework 包括属性自更新(Attribute Self-Updating)、联系过程(Association Process)和消息传递(Message Passing) 列出不同的动态图学习目标,包括下一时间状态、缺失标签和事件发生间隔 调研了离散时间动态图(DTDG)和连续时间动态图(CTDG)两种主流的动态图场景
02
Extrapolation Learning:预测下一个时间点的点或边的状态 Interpolation Learning:预测缺失的标签 Time Prediction:预测下一个事件(点或边的变化)的发生时间
03
更新下一个snapshot的图上点和边的状态 根据task设置output函数
属性自更新(Attribute Self-Updating):外界因素影响图上点和边的属性 联系过程(Association Process):针对图上边的操作,包括生成、去除和修改 消息传递(Message Passing):和之前的工作定义相同,对邻居进行聚合
TGN和APAN使用了node memory来完成Attribute Self-Updating Know-Evolve、DyRep和TGAT在Attribute Self-Updating中继承观测状态里最后一个(点和边的)状态
04
静态图encoder+序列decoder 动态图encoder+简单decoder
Static Graph Encoder
Sequential Decoder
时间序列分析方法:EMA、ARIMA RNN家族 1-D卷积 Temporal Self-Attention
Dynamic Graph Encoder
Kalman Filter Based Encoder,又称Linear Quadratic Estimation EvolveGCN:经典模型之一,将GNN的参数进行时序学习,分别和GRU、LSTM结合为EGCU-H和EGCU-O ST-GCN:经典模型之一,被应用到人体姿势识别中,同时进行空间和时序的卷积操作
05
隐式时间Encoder
显式时间Encoder
基于时序注意力:比如TGAT 基于RNN:比如TGN
显式时间Decoder
Temporal Point Process Based Decoder(TPP):相比于建模观测序列,时序点操作建模为一个随机过程,比如TGN和TDIG-MPNN采用了该操作
06
隐式时间学习如何拓展到显式时间学习 大规模动态图学习 时序模式的重要性?(动态图是否更多内涵随机过程) 动态图学习Library
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“综述专栏”历史文章
上海交大&华为:“非完全监督下基于深度学习的图像分割方法”最新综述
自动驾驶轨迹预测
重磅发布 | 图像图形学发展年度报告综述专刊《中国图象图形学报》2022年第6期
IoU、GIoU、DIoU、CIoU损失函数的那点事儿
Transformers中稀疏自注意力综述,及其在视觉跟踪中应用(IJCAI2022)
Tesla AI DAY 深度分析 硬核!EP1 Tesla Vision
针对深度学习的GPU共享
从2022年的这几篇论文看推荐系统序列建模的趋势
CNN调优总结
大规模图神经网络系统综述
港科+清华+中科院+微软等——视觉-语言智能最新综述
元宇宙技术综述
中国医学影像人工智能20年回顾和展望
基于深度学习的深度图补全
回顾6年深度学习的算法实践和演进
基于图神经网络的推荐系统
更多综述专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!