2013年 Bengio 在「Representation Learning: A Review and New Perspectives」一文中首次提出关于Disentangled Representation的观点:表征向量中某些维度的取值,只会随着与之对应的隐因子的变化而变化,并不会受其他隐因子的影响。
Single latent units are sensitive to changes in single generative factors, while being relatively invariant to changes in other factors.
2019 年 Locatello 在「Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations」一文中提出观点:数据或模型不具备归纳偏置时,无监督解耦表征无法很好地学习,需要进一步通过监督信号来引导表征的解耦。
异质图能够对user和item交互行为中丰富的上下文信息进行建模,现已被广泛用于缓解推荐系统汇总的稀疏性和冷启动问题。然而,现有的异质图神经网络模型存在如下局限性:交互行为的产生往往受多个角度的影响,现有的方法未能进行解耦;现有的方法将元路径简化为辅助信息或连接路径,忽略了其对不同角度关系建模的贡献度。上述两个问题,导致学习出的表征鲁棒性和解释性上存在不足,即它们不能明确地建模user对具有特定特征的item的偏好。因此,适合在 HIN 中学习解开的表示进行推荐。特别地,可以同时对user和item进行解耦表征,通过计算目标user和item在不同隐因子上的匹配分数,可以明确建模user对具有特定特征的item的偏好。本文提出一种解耦异质图注意力网络模型,可以迭代地识别每个元关系的子空间权重,该权重可以被视为节点之间的语义相关性。对于每一层,我们结合一跳邻居信息。通过堆叠多个层,以捕获高阶连通性中的语义信息。所提出的注意力机制能够在多跳之外自动聚集相应的子空间信息,这可以被视为选择元路径的一种软方法。
user与item产生交互行为的背后存在2个原因:interest(兴趣偏好)和conformity(从众心理)。现有的解决此类流行度有偏的方法包括:1. 根据item的流行度给样本设计权重2. 利用一小部分无偏数据辅助学习然而,这些方法并未将interest和conformity解耦,且忽视了用户的从众心理是各不相同的。此外,item流行度会随时间变化,所以上述的方法在可解释性和鲁棒性都存在缺陷。文章提出一个通用的框架:DICE(Disentangling Interest and Conformity with Causal Embedding)。特点:从结构上将interest和conformity表征学习解耦,即各自用特定的数据集训练;任意表征学习模型都可以集成。
其中,int和con为因,click为果。特别地,也可通过将Xcon修改成某个特定值去人为干预,来实现用户群体的从众心理conformity。将f函数严格定义为内积,得到右边公式。Disentangled Representation Learning(1)首先,拆分数据集。interest和conformity的分离意味着每一个embs只捕获一个因素,并将第二个因素挤出另一个embs。为了达到这个目标,一个合理的想法是用特定因素的数据来训练不同的嵌入。但是,当两个加数没有基本真值且只有求和可用时,它有无穷多个解。本文基于因果推理将等式扩展为不等式,利用不等式的相对关系学习int 和con的相对值而不是绝对值,这使得将int和con解耦变得可行。举例来说,学生通过考试=聪明+勤奋。A通过考试,但是并不聪明,那说明他勤奋的概率增加。B虽然很聪明但是未通过考试,那说明他很有可能不够勤奋。在我们解耦interest和conformity的任务中,可以利用碰撞效应来获得主要由一个原因引起的样本。根据正负样本的流行度拆分数据集O1 、O2。case 1 (O1):The negative item is less popular than the positive item在O1数据集,有理由相信用户出于流行度消费,学con和clickcase 2 (O2): The negative item is more popular than the positive item在O2数据集,有理由相信用户出于兴趣消费,学 int、con和click其中, 和 分别是兴趣驱动分和流行度驱动分。(2)其次,拆分训练任务。我们将解耦interest和conformity问题分解为Conformity Modeling、Interest Modeling、Estimating Clicks和Discrepancy Task四个任务。利用BPR对成对样本关系进行建模。每个正样本与一定数量的负样本配对,每个训练实例是一个包含用户ID、正样本itemID和负样本itemID的三元组。下面我们依次介绍这四个任务。Conformity ModelingInterest ModelingEstimating ClicksDiscrepancy Task. 利用 一阶范数,二阶范数和协方差这三种计算方式约束con emb 和int emb要尽可能不相关。实验结果表示,协方差的效果最好但计算速度慢,不适合用于大规模的数据场景。Multi-task Curriculum Learning 多任务课程学习
考虑到“正负样本的流行度差别越大,则结论可行度越高。”举例,如果正样本a比负样本b流行度低得多,则a更能体现用户兴趣。因此,文章设计PNSM(Popularity based Negative Sampling with Margin )控制正负样本的流行度差很多,即负样本流行度的区间是: 利用课程学习让模型学习过程由易到难。模型训练早期,让模型在可信度高的样本上训练, , 和 衰减因子为0.9。
4.4 Conclusion
文章出于鲁棒性和可解释性,论证在推荐任务中将用户的interest和conformity解耦的重要性,并且提出了一种模型无关的框架DICE,将user、item emb独立建模成两段 interest part 和 conformity part;基于因果推断,每段用特定的数据集训练。通过多任务学习和课程学习,平衡这两部分emb。