TKDE 2020 | 面向严格冷启动推荐的属性图神经网络
©PaperWeekly 原创 · 作者|梁贻乐
学校|武汉大学硕士生
研究方向|推荐系统
本文的主要贡献在于区分了推荐系统中的一般冷启动和严格冷启动,并提出了属性图神经网络方法有效应对严格冷启动的场景。基于属性或内容的推荐方法是应对新物品冷启动问题的经典手段,图神经网络可加强对邻居信息的利用,合适的网络结构使两者的效用得以充分发挥。大量实验证明该文方法为解决严格冷启动问题提供了一种可行的途径。
本文还对常用的 MovieLens 公开数据集进行了拓展,从 IMDb 网站为每部电影补充了导演、编剧、演员、国家等属性信息,拓展后的新数据集公布在下方链接,论文代码也已同时公布,可为后续研究基于属性的推荐方法提供参考。
论文标题:
Attribute Graph Neural Networks for Strict Cold Start Recommendation
论文作者:
钱铁云(武汉大学)、梁贻乐(武汉大学)、李青(香港理工大学)、熊辉(新泽西州罗格斯大学)
论文链接:
https://ieeexplore.ieee.org/document/9261110
代码及数据链接:
https://github.com/NLPWM-WHU/AGNN
摘要:评分预测是推荐系统的经典问题,近年来,基于深度学习的方法,特别是图神经网络在该问题上取得了显著进展。然而现有方法主要利用用户-商品的交互关系建模,其模型性能取决于交互的稠密度,而用户-商品的交互通常都是高度稀疏的。更严重的是,对于训练和测试阶段均无交互的严格冷启动用户/商品,已知方法很难获知该用户/商品的偏好表示。
针对上述挑战,我们提出了一个新框架 Attribute Graph Neural Networks(AGNN),利用属性图而不是交互图为严格冷启动用户/商品提供了学习表示的能力。AGNN 通过扩展的变分自编码器(eVAE)学习属性的分布,并为严格冷用户/商品生成偏好表示。
此外,我们设计了一个图神经网络变体 gated-GNN,用来有效聚合邻居中不同模态的各类属性。论文在三个真实数据集上进行实验,结果表明 AGNN 对严格冷启动推荐有显著的提升作用,其性能胜出已知常规方法、归纳式学习方法、元学习方法,以及图神经网络方法,在暖启动场景下也具有比现有方法更优或一致的性能。
引言
评分预测的目标是预测用户对商品的打分,常规的矩阵分解为每个用户/商品学习偏好表示,但在数据稀疏以及更极端的冷启动条件下(即严格冷启动:指新的用户/商品没有出现在任何训练数据中,且测试阶段也没有任何已知交互),其性能会迅速下降。
近年来,图神经网络(GNN)的发展为经典的评分预测问题提供了新的思路。然而,现有 GNN 类方法几乎都建立在用户-商品二部图上,其中节点表示用户/商品,边表示二者之间的交互,因此在没有交互边存在的严格冷启动场景下,上述 GNN 类方法难以奏效。
我们提出利用属性图来代替用户-商品交互图,并设计了一个新的框架—属性图神经网络(AGNN),使得对于严格的冷启动用户/商品也可以利用自身属性产生图结构。我们用图 1 的例子来阐述模型动机。
图 1 展示了用户对不同电影的历史评分行为。当一部新电影“Avengers”上映时,由于其没有包含在训练集中、且没有任何交互信息,属于严格的冷启动商品,预测用户对该电影的评分非常困难。幸运的是,电影存在诸如导演、类别等属性信息,此外具有相似属性的电影可以形成一个图结构,用于传递偏好信息,例如从“Captain America”到“Avengers”。用户的属性也可类似处理。
在属性图的框架下,如何将属性表示转换为偏好表示、以及如何在邻居节点中聚合不同模态的各类属性是亟待解决的关键问题。为此我们提出了 eVAE 结构,用于从冷启动节点的属性分布中推断其偏好表示,我们还设计了 gated-GNN 结构,用于聚合不同属性的邻居节点时获取更精准的权重分配。
问题定义
给出用户-商品评分矩阵 ,三种场景的评分预测设置如图 2 所示。
暖启动:为用户-商品预测未知的打分,其中用户/商品存在于交互矩阵 R 中,并且用户/商品包含交互历史。 一般冷启动:为用户-商品预测未知的打分,其中用户/商品不在交互矩阵 R 中,但测试时可得到用户/商品交互信息。 严格冷启动:为用户-商品预测未知的打分,其中用户/商品不在交互矩阵 R 中,并且测试时用户/商品也不包含任何交互,但其存在属性信息,我们尤其关注于该场景。
方法-AGNN
我们提出的 AGNN 框架如图 3(a) 所示,模型总体分为四部分:
1)Input layer,构造属性图;
2)Attribute interaction layer,学习节点中的属性交互得到统一表示,并通过 eVAE 为冷启动节点生成偏好表示;
3)Gated GNN layer,在邻居间聚合复杂的节点表示;
4)Prediction layer,计算用户-商品的预测分数。
3.1 Input layer
我们按照相似度的方式构造属性图,包含偏好相似度和属性相似度。偏好相似度用节点的历史打分记录计算,属性相似度由节点的多种属性计算,其中相似度由余弦相似度衡量:
3.2 Attribute Interaction Layer
3.3 Gated-GNN Layer
对一个节点而言,不同的邻居具备不同的影响力,此外邻居节点由多种属性组成,因此有必要对邻居节点的不同维度给予特定关注。我们设计了如图 4 所示的 gated-GNN 结构以精准聚合细粒度的邻居信息。
3.4 Prediction Layer
实验与分析
论文在三个真实数据集上进行了实验,数据集统计如表1所示:
4.1 总体结果
论文分别在商品冷启动、用户冷启动、暖启动的不同场景设置下进行实验,与 12 个经典或性能最好的方法进行了比较,采用 RMSE、MAE 作为评价指标。我们将 baseline 根据原论文所应用于的场景划分为三类:
暖启动(包含 NFM、DiffNet、DANSER、sRMGCNN、GC-MC);
一般冷启动(包含 STAR-GCN、MetaHIN、IGMC);
严格冷启动(包含 DropoutNet、LLAE、HERS、MetaEmb)。
4.2 参数分析
论文分别对隐因子个数(D)、损失函数权重系数(λ)、候选邻居集合比例(p)进行了参数变换,结果如图 5、6、7 所示。
4.3 消融与替换实验
4.4 冷启动比例对比
总结
更多阅读
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。