查看原文
其他

【论文速递 && IJCAI论文干货下载】图神经网络(GNN)(多行为推荐、多模态食谱表示学习、同质图表示学习)

ShuYini AINLPer 2023-07-10

引言

前几天分享了一篇关于图神经网络分析的文章[【NLP论文分享&&语言表示】有望颠覆Transformer的图循环神经网络(GNN)],那么今天论文速递再和大家分享几篇关于图神经网络(GNN)的应用「用户多行为推荐模型S-MBRec、多模态食谱表示学习模型Recipe2Vec、同质图的表示学习模型RAW-GNN」,希望能加深大家对GNN的理解。另外这三篇文章均都来自IJCAI2022,作者顺便整理了近几年的论文列表供大家查阅下载(今天分享的文章都可以在IJCAI2022进行搜索下载)。

后台回复:IJCAI2022  获取下载资源。

一、S-MBRec多行为推荐模型

  传统推荐通常侧重于仅利用一种目标用户行为(例如购买),而忽略其他辅助行为(例如点击、添加到购物车)。多行为推荐的早期努力往往强调多种行为之间的差异,即它们旨在通过区分不同的行为来提取有用的信息。然而,「不同行为之间的共性,反映了用户对相关物品的共同偏好,这一关键点却被大大忽略了」

  基于以上问题,「本文提出了一种新的多行为推荐模型S-MBRec」,如下图所示:它从两类任务的角度考虑了多种行为的差异和共性,并且可以有效缓解稀疏监督信号的问题。总体来说:

(1)基于多行为推荐场景,不同于以往区分每种行为类型差异的工作,「首先研究如何保留它们的共性,并解决同时存在数据稀疏问题」

(2)「提出了一种名为S-MBRec 的新型多行为推荐模型,由监督和自监督学习任务组成」。特别是,本文设计了一种星型对比学习策略,分别为目标和每个辅助行为子图构建对比视图对。

(3)本文「S-MBRec模型」的有效性在三个真实世界的数据集上得到验证,这证明了「模型与其它基线相比提升了推荐性能」

实验快照

在Beibei、Taobao和Yelp数据集上的整体模型性能结果如下所示:

二、Recipe2Vec食谱嵌入模型

  在食品研究中,学习有效的配方表示是必不可少的。「与基于图像的食谱检索或学习结构文本嵌入所开发的方法不同,多模态信息(即食谱图像、文本和关系数据)的组合效果受到的关注较少」。为此在本文中提出了多模态食谱表示学习的问题,它利用不同的模式,如图像、文本和关系来学习食谱嵌入。为了解决这个问题:

(1)首先,「创建并发布一个新的食谱图Large-RG,它包含超过50万个节点,是迄今为止最大的食谱图」。如下图1所示,提取每个食谱的视觉信息、文本信息和关系信息来构建Large-RG,它由三种类型的节点和四种类型的边组成。(2)然后,「提出了一个新的基于图神经网络(GNN)的多模态食谱表示学习模型Recipe2Vec」。具体来说,首先使用各种预训练的神经网络对节点属性进行编码,包括用于指令的两阶段LSTM和用于图像的ResNet。(3)最后,引入一个多视图邻居采样器,分别从基于图模式和基于元路径的邻居中捕获本地和高阶信息,「设计了几个基于神经网络的模块来融合来自不同节点、模式和关系的信息」。此外,引入了一种基于特征的对抗攻击策略,以确保稳定的学习和提高模型性能,「设计了一个新的结合节点分类和对抗学习的目标函数来优化模型」。整个Recipe2Vec模型图如上所示。

实验结果

1、菜品分类结果2、区域预测结果

三、同质图的表示学习(RAW-GNN)

  基于图卷积的方法已成功应用于同质图的表示学习,其中具有相同标签或相似属性的节点倾向于相互连接。由于这些方法使用的「图卷积网络 (GCN) 的同质性假设,它们不适用于具有不同标签或不同属性的节点往往相邻的异质性图」。有几种方法试图解决这个异质性问题,但它们并没有改变 GCN 的基本聚合机制,因为它们依赖求和算子来聚合来自相邻节点的信息,但这可能会受到同质性假设的影响。  为了解决这些问题,「本文引入了一种新的聚合机制,并提出了一种基于RAndom Walk聚合的图神经网络,简称RAW-GNN」(如上图所示),其主要内容如下:

(1)首先,「本文将随机游走抽样集成到图神经网络中,并将传统的邻域扩展到基于k-hop路径的邻域」。由随机漫步形成的k-hop路径保留了这k个节点上的原始属性以及这些节点在随机漫步序列中的原始结构连接。这样,基于路径的邻域比传统的邻域更能表示目标节点的邻域分布。

(2))此外,「本文利用广度优先搜索随机游走(BFS)捕获同质性信息,利用深度优先搜索(DFS)收集异质性信息」。为了超越现有的GCNs聚合机制,并充分利用基于路径的邻域,采用了一种基于顺序循环神经网络(RNN)的聚合器,该聚合器考虑了随机行走保留的相邻节点的顺序信息。rnn的优点是可以处理相邻节点的不同属性,适应了异构网络的需要。

(3)最后,「利用注意机制从DFS通道(和BFS通道分别)中学习不同路径的重要性」,可以在信息混合最小的情况下更好地提取异质(和同质)邻域分布,并使模型能够根据不同的网络特征自动在同质和异质之间进行权衡。

实验快照

1、具有平均值和标准差的分类结果:2、Cora 数据集上的可视化结果

推荐阅读

[1]必看!!【AINLPer】自然语言处理(NLP)领域知识&&资料大分享

[2]【NLP论文分享&&机器翻译】多语言标记训练中NMT对语言失衡的鲁棒性

[3]【NLP论文分享&&语言表示】有望颠覆Transformer的图循环神经网络(GNN)

[4]【NLP论文分享&&中文命名实体识别】如何构建一个优秀的Gazetteer/地名词典(浙大&含源码)

[5]一文看懂线性回归【比较详细】(内含源码)

[6]一文看懂逻辑回归【比较详细】(含源码)

点击下方链接🔗关注我们

「创作实属不易,点个再看吧」

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存