我们采用了一个简单的做法,对目标用户(target user),我们标注为0,对目标商品(target item),我们标注为1;对i-hop的背景用户我们标注为2i,对i-hop的背景商品我们标注为2i+1 。之后,我们将这些标注转化为one-hot encoding vector,作为每个节点的初始特征输入给图神经网络 。
在图神经网络(GNN)中,我们采用relational graph convolutional operator (R-GCN)作为卷积层,因为R-GCN可以从边类型中学习 。

【矩阵补全的算法 矩阵补全原理】其中,代表节点在第层的特征向量, 和 为可学习的参数,代表rating(一般从 中选择,代表与节点以类型边相连的邻居节点 。
多层卷积后,我们将每一层结果相连得到每个节点的最终表示:

最后,我们取目标用户和目标商品的相连的表示作为这个包含子图的最终表示:

并训练一个两层神经网络(MLP)从子图表示回归到目标评分(rating) 。
4 实验结果

我们仅使用一阶包含子图训练IGMC 。首先,在Table 2中我们展示了在Flixster, Douban和YahooMusic上的RMSE性能 。我们的IGMC模型取得了state-of-the-art性能,超过了近期的其他基于图神经网络的模型 。

在Table 3中我们展示IGMC在ML-100K 和 ML-1M上的性能 。在ML-100K上,IGMC取得了最好的性能,和之前领先的一种转导模型GC-MC性能相同 。但是注意,GC-MC使用了额外的内容(content)特征,而IGMC完全依靠子图结构 。GC-MC在不使用content的情况下RMSE为0.910 。在ML-1M上,IGMC仍落后于其他一些转导推理的方法 。我们接下来深入研究这一问题 。

对于ML-1M数据集,我们分别将训练矩阵稀疏为0.2, 0.1, 0.05, 0.01和0.001倍 。Figure 2比较了GC-MC和IGMC在不同稀疏程度下的性能对比 。我们发现,虽然IGMC在sparsity=1时落后于GC-MC,但是此后IGMC在不同sparsity下都优于GC-MC,而且矩阵越稀疏,性能优势越明显 。我们猜测,基于子图特征学习的IGMC对稀疏矩阵更鲁棒;而基于矩阵分解等的转导模型需要矩阵较为致密(dense)才能有好的性能 。这也暗示了IGMC在数据稀疏的推荐系统中的潜力 。

最后,我们测试IGMC的迁移学习性能 。我们直接将ML-100K上训练的IGMC模型用于预测Flixster, Douban和YahooMusic 。出人意料,迁移的IGMC模型取得了极强的性能,甚至好于一些专门在这三个数据集上训练的模型 。这说明,不同推荐任务共享了大量相同的子图模式 。

为验证这点,我们可视化了一些真实的包含子图,见Figure 3 。可以发现,高评分和低评分对应的包含子图确实有着明显的不同;且不同数据集之间共享许多相似的子图模式 。
5 总 结
本文提出了一种通过子图特征进行归纳推理(inductive reasoning)的矩阵补全模型,IGMC 。
通过本文我们证明了仅从一阶包含子图学习图特征即可在许多数据集上达到领先的性能,这似乎暗示更高阶的连接关系并没有特别多的额外价值 。
此外,我们也证明了不借助于内容(content)的inductive matrix completion (IMC)方法是同样可行的且大大超越了传统的借助内容的IMC方法 。IGMC的许多特性,比如迁移性、稀疏鲁棒性等都暗示了它的强大潜力 。我们希望IGMC能为矩阵补全和推荐系统领域带来新的想法和启发 。
推荐阅读
- 哪个电脑管家软件好用 最干净的电脑管理软件
- ececl表格常用的公式 新手入门excel表格制作
- 修复u盘的方法 修复u盘的cmd命令
- 最强手机杀毒软件 手机最彻底的杀毒方法
- 怎么root安卓手机 手机root的最简单方法
- 买什么手机性价比最高 目前为止性价比最高的手机
- 我的世界信标怎么用教程 信标激活最高级攻略
- 带水印的图片怎么做 带水印的图片素材
- 云餐饮管理系统哪个好 餐饮店的管理系统操作步骤
- 全境封锁2奇特武器掉落位置 三把奇特武器的获取方法_网
