除了用于Google地图的ETA预测,GNN还可以做什么?
摘要
近年来,新兴起的图神经网络在很多应用领域都取得了非常出色的表现,如今年用于Google 地图的到达时间估计(Estimated Time of Arrival,ETA),在纽约、洛杉矶、东京、新加坡等国际大都市都获得了很大的提升,该结果对其他地区也具有通用性[1]。图神经网络以图结构为核心组成部分,这与结构因果模型有着相似的结构形式。鉴于此,DeepMind最新的研究工作[2]以图神经网络为网络结构,设计了一种基于图神经网络的变分图自编码器,用于近似Pearl因果层次结构中的因果计算问题。与以往用因果推断思想提升深度学习性能不同的是,该研究工作在图神经结构与结构因果模型之间建立了转换机制,为Pearl因果层次结构中的因果计算提供了一种新型计算方法和思路,是深度学习在因果推断领域应用的一项开创性的尝试性工作。
结构因果模型(Structural Causal Model,SCM)用于描述现实世界关联特征及其相互作用,是一种能够形式化表述数据背后因果假设的方法。结构因果模型含有两个变量集
即函数
图1:SCM实例和Pearl Causal Hierarchy
每一个结构因果模型都对应一个图模型
Example:考虑饮食(D)对血压(B)的影响,
其中⊕是XOR逻辑操作,该SCM相对应的图结构
此外,因为所有变量都取二元值,因此我们也可以枚举推演出其真值表,如表1所示。
现在我们对变量D进行干预,设置为
图结构是SCM模型的一个重要组成部分,能直观地表达变量之间的交互信息。但是在实际问题中,这种交互关系的确定往往严重依赖于领域专家知识,无可避免地引入了人为误差。个人认为,GNN作为深度学习方法的衍生体,能有效地近似任何函数,是模拟SCM中概率分布的一个可行方法。
Do-演算也可在图上以更直观的方式呈现。当对变量进行干预时,意味着削弱了该变量响应其他变量而变化的自然趋势。在SCM对应的图结构表示上,就需要删除指向该变量的所有边,如图3中右边红色锤子对应的边。
按照上述思想,文[2]对GNN也定义了类似的干预操作,主要体现在GNN的消息传递(message-passing)中。在标准的GNN信息聚合操作中,图中节点
在上述图神经网络(Graph Neural Networks, GNN)的do-演算基础上,文[2]定义了用于近似PCH因果推断的干预变分图自编码器(Interventional Variational Graph Auto-Encoder, iVGAE),如图4所示。
乍一看,图4上部分描述的是标准变分图自编码器模型结构。但为了能近似SCM在L2层次的因果推断,文[2]将编码器
与以往用因果推断改进深度学习方法效果不同的是,文[2]侧重于用基于GNN的深度学习来完成SCM中的PCH因果计算,侧重于基于观察数据(L1)、干预的推断(L2)。由于图神经网络与SCM都是基于图结构,一种简单、直接的方法就是在给定SCM图结构上,设计一种合适参数转化机制,以确保SCM和深度学习模型表达同个分布,这也是文[2]的主要设计思路。同时,文[2]也指出,SCM需要对每个变量都定义各自相应的映射函数。相反的,在iVGAE中,可以找到单个共享聚合函数,用于聚合图中所有节点的消息。然而将单个聚合函数转换成多个结构方程的优化过程是异常困难,而这也是实现反事实推理需要解决的问题,这也是文[2]没有考虑L3层次推理的一个原因。
虽然文[2]、[3]都试图在SCM与深度学习之间建立联系,目前主要侧重于将深度学习看成一种近似方法来完成PCH中的因果计算。当然,对PCH因果计算的支持是实现因果推断的重要内容,也可以看成深度学习在因果表达上迈出了重要的一步。不同方法有不同程度的兼容性,如文[2]不支持L3层次的计算。这些研究也引出了更深层次的问题,如基于神经网络的因果计算优势体现在哪里,例如,推理计算是否更高效?文中尚未提供明确的答案。
除了近似分布,也有将深度学习用于因果发现中的研究工作,如文[4]中提出了连续优化(continuous optimization)的思想,重新定义了因果图发现的一种求解方式。与其在图空间进行搜索,转化为寻找一个包含图结构的邻接矩阵的函数,从而可以使用深度学习方法进行梯度下降求解。当然,这与文[2]有着不同的研究目标。不可否认,如何使得深度学习和因果推断相得益彰,是一个非常值得探索的方向,相信在不久的将来两者能碰触更多的火花。
最后,个人觉得文[2]的亮点在于采用现流行的GNN模型来模拟SCM的数据生成机制,虽然这种数据生成过程是一种黑盒子方法(这也是深度学习广为争议的一个特征),但如果仅从数据模拟效果的角度来看,未尝不可?
由于水平有限,文中存在不足的地方,请各位读者批评指正,也欢迎大家参与我们的讨论。
[1] Austin Derrow-Pinion, Jennifer She, David Wong, et al. ETA Predictionwith Graph Neural Networks in Google Maps. 2021
[2] Matej Zecevi,Devendra Singh Dhami, Petar Velickovi,Kristian Kersting. Relating Graph Neural Networks to Structural Causal Models. 2021
[3] Kevin Xia, Kai-Zhan Lee, Yoshua Bengio, Elias Bareinboim. The Causal-Neural Connection: Expressiveness, Learnability, and inference. 2021
[4] Xun Zheng, Bryon Aragam, Pradeep Ravikumar, Eric P Xing. Dags with no tears: continuous optimization for structure learning. 2018
往期推荐
壁仞科技研究院作为壁仞科技的前沿研究部门,旨在研究新型智能计算系统的关键技术,重点关注新型架构,先进编译技术和设计方法学,并将逐渐拓展研究方向,探索未来智能系统的各种可能。壁仞科技研究院秉持开放的原则,将积极投入各类产学研合作并参与开源社区的建设,为相关领域的技术进步做出自己的贡献。