• Neural Collaborative Filtering论文笔记


    ABSTRACT

    1f3b8f7f157a43ab8e4d65efcdc56bb6.png

            深度神经网络在语音识别、计算机视觉和自然语言处理等方面取得了巨大的成果,但是对于推荐系统尚且缺少。虽然即使有用深度学习作为推荐,但是都是对建模起辅助作用。当涉及到用户和项目之间的交互,都会选择流行的矩阵分解(MF),因此基于上面的情况这篇论文的作者提出了一个基于协同过滤的神经网络通用框架——NCF,其中选择使用MLP来学习用户-项目的交互函数。

    1. INTRODUCTION

            个性化推荐主要使用矩阵因子分解,通过用户过去与项目的互动来建模从而得出用户对项目的偏好,同时对于后续的研究也基本都是致力于增强MF,但是提升效果并不是很大。基于此论文做出的主要三点贡献

    821e58b95c3b4e8ea03252a9b799efae.jpeg

             (1)提出了一种神经网络结构来建模用户和项目的潜在特征,并设计了一个基于神经网络的协同过滤的通用框架NCF。

            (2)表明,MF可以被解释为NCF的一个专门化,并利用一个多层感知器来赋予NCF模型一个高水平的非线性。

            (3)在两个真实世界的数据集上进行了广泛的实验,证明NCF方法的有效性和对协作过滤的深度学习的前景。

    2.PRELIMINARIES

            主要讲述了隐式反馈进行协同过滤的解决方案,简要概括MF

    2.1 Learning from Implicit Data

            定义Y是一个M*N的用户-项目交互矩阵,矩阵中的元素根据用户和项目之间是否存在交互关系来定义,即:

    a68d18fb65b944e499db7e1f0fb4b653.jpeg

            如下图所示:

    c6852747c2cc41c1819c3411338a1149.jpeg

             注意:这里用户i对应项目i的1并不一定是喜欢,同时用户i对应项目i的0不一定是不喜欢,有可能是因为用户完全还不知道有这个项目,从而导致数据的缺失形成的情况,这也是隐式数据的一个特点。

    2.2 Matrix Factorization

           将每个用户和物品和一个潜在特征的实值向量联系起来,用gif.latex?p_ugif.latex?q_i分别表示用户和项目,通过内积的方法来预测用户对该项目的爱好程度:

    11544a84870946fb87be2ea9b6b07fd3.jpeg

            这里通过Jaccard作为两两用户相似性的计算方法:

    gif.latex?S_ij%3D%5Cfrac%7Bp_i%20%5Ccup%20p_j%7D%7Bp_i%5Ccap%20p_j%7D

            这样通过简单的计算内积计算得到复杂的用户与项目直接的关系,可能会使MF存在一定的局限性,同时也很容易导致结果过拟合。

     3. NCF model

     3.1 模型架构图

    cd60f6a5bc494d52bfba7be1e15e9f03.jpeg

    3.2 模型架构公式

            (1)NCF预测模型

    9ac6ca20be4f4e7cbb50b8a65f9ce9e0.png

            (2)上面公式中f()函数定义的多层神经网络,它表示如下:

    2a881a2b9e024a509c5070f3a9014156.jpeg

    3.3  网络层描述

    3.3.1 输入层

             输入的是过了一层one-hot用户矩阵向量和项目矩阵向量

    3.3.2 embedding层

             因为经过one-hot出来的用户矩阵和项目矩阵是稀疏矩阵,这里经过embedding层将稀疏矩阵映射成稠密矩阵

    3.3.3 Neutral CF层

             网络模型架构这里是经过多层的全连接进行映射,不断的进行维度变化,使得来逼近训练数据的真实概率分布。

          (这里也有点困惑,后面的由Neutral CF的模型架构与这又是否有区别,我的认识是这里就是多层的下面的模型架构堆叠,当然这只是我自己的理解。)

    3.3.4 输出层

             通过sigmoid函数将结果映射到输出的维度,得到最后的预测结果。

    3.4 损失函数

          (1)一般常用的损失函数是平方损失回归:

    81da38f2000740edafe6fcc8fb2d5db0.jpg

           (2)论文中提出来一个新关注于隐式数据的损失函数

    4f5e68e0fc5e49f3bdb1577bdd3008c0.jpg

    3.5 Neutral CF

    3.5.1 模型架构图

    f69dafe9caa14ea9aa645ee75d045e0b.jpg

    3.5.2 GMF

          (1)模型架构在上面就是将用户和项目矩阵做内积,然后通过一层激活函数,进行维度映射。(激活函数选择为sigmoid函数)

          (2)模型公式

    ba352b3d88dc48ef9ee270f6c6c63754.jpg

    3.5.3 MLP

          (1)和我们平常理解的MLP模型相同,这里主要是对用户和项目做交互,更换了以前的MF的简单不足,当然这里的模型架构也是在上面图中,用户和项目经过多层MLP进行不同维度的全连接,网络层级为塔型,逐级减半,提取更多的隐式特征。(选择的激活函数是ReLU)

          (2)模型公式(n层MLP)

    710ff0001bea47ffae510b3a6874e4a9.jpg

    3.5.4 GMF和n层MLP的fusion

          (1) 一种简单的方法

    b06c80090b504d6ca79a24d493bcd606.jpg

           (2)分开训练,最后连接隐藏层h。

    770d91e2cc86401baf67db30168969a5.jpg

     3.4 Pre-training

          将GMF和MLP单独分开训练,然后加载预训练好的权重,通过给出不同的权重值进行组合,从而实现Pre-training(个人理解,不是很清楚)

    cd3a56518a804bfe8d92d5bd00f18578.jpg

    4.具体案例代码

    4.1 NCF实例代码模型架构

            此代码来自Datawhale推荐系统论文组队学习task1中的代码实现,以下主要展示模型的架构。

    1. class NCF(nn.Module):
    2. def __init__(self,
    3. # 经过embedding层之后的维度
    4. embedding_dim = 16,
    5. # 映射层
    6. vocab_map = None,
    7. # 损失函数
    8. loss_fun = 'torch.nn.BCELoss()'):
    9. super(NCF, self).__init__()
    10. # 定义各个层的维度变化
    11. # embedding层
    12. self.embedding_dim = embedding_dim
    13. # 映射层
    14. self.vocab_map = vocab_map
    15. # 损失函数
    16. self.loss_fun = eval(loss_fun) # self.loss_fun = torch.nn.BCELoss()
    17. # 用户矩阵过embedding层
    18. self.user_emb_layer = nn.Embedding(self.vocab_map['user_id'],
    19. self.embedding_dim)
    20. # 项目矩阵过embedding层
    21. self.item_emb_layer = nn.Embedding(self.vocab_map['item_id'],
    22. self.embedding_dim)
    23. # MLP层
    24. self.mlp = nn.Sequential(
    25. nn.Linear(2*self.embedding_dim,self.embedding_dim),
    26. nn.ReLU(inplace=True),
    27. nn.BatchNorm1d(self.embedding_dim),
    28. nn.Linear(self.embedding_dim,1),
    29. nn.Sigmoid()
    30. )
    31. def forward(self,data):
    32. # embedding层
    33. user_emb = self.user_emb_layer(data['user_id']) # [batch,emb]
    34. item_emb = self.item_emb_layer(data['item_id']) # [batch,emb]
    35. # 进行全连接
    36. mlp_input = torch.cat([user_emb, item_emb],axis=-1)
    37. # 过n层MLP
    38. y_pred = self.mlp(mlp_input)
    39. if 'label' in data.keys():
    40. loss = self.loss_fun(y_pred.squeeze(),data['label'])
    41. output_dict = {'pred':y_pred,'loss':loss}
    42. else:
    43. output_dict = {'pred':y_pred}
    44. return output_dict

    4.2 Neural MF实例代码模型架构

            此代码经过自己修改上面的模型架构得到的Neural MF模型,当然各个网络层的映射与上面原论文中的参数设置并不相同。

    1. class NeuralMF(nn.Module):
    2. def __init__(self,
    3. embedding_dim = 32,
    4. vocab_map = None,
    5. loss_fun = 'torch.nn.MSELoss()'):
    6. super(NeuralMF, self).__init__()
    7. self.dim_mlp = [64, 256, 128, 64, 32]
    8. self.embedding_dim = embedding_dim
    9. self.vocab_map = vocab_map
    10. self.loss_fun = eval(loss_fun) # self.loss_fun = torch.nn.BCELoss()
    11. # gmf对用户id和项目id进行编码(输出为16)
    12. self.user_emb_layer_gmf = nn.Embedding(self.vocab_map['uid'], 32)
    13. self.item_emb_layer_gmf = nn.Embedding(self.vocab_map['iid'], 32)
    14. # mlp对用户id和项目id进行编码(输出为16)
    15. self.user_emb_layer_mlp = nn.Embedding(self.vocab_map['uid'], 32)
    16. self.item_emb_layer_mlp = nn.Embedding(self.vocab_map['iid'], 32)
    17. # 过一个线性+激活函数+归一化+(这里线性先不进行)
    18. self.fc_layers = torch.nn.ModuleList()
    19. for idx, (in_size, out_size) in enumerate(zip(self.dim_mlp[:-1], self.dim_mlp[1:])):
    20. self.fc_layers.append(torch.nn.Linear(in_size, out_size))
    21. # 最后过一个线性
    22. self.affine_output = nn.Linear(2 * 32, 1)
    23. self.logistic = torch.nn.Sigmoid()
    24. def forward(self,data):
    25. # gmf_vector进行矩阵相乘
    26. user_emb_gmf = self.user_emb_layer_gmf(data['uid']) # [batch,emb]
    27. item_emb_gmf = self.item_emb_layer_gmf(data['iid']) # [batch,emb]
    28. mf_vector = torch.mul(user_emb_gmf, item_emb_gmf)
    29. # 进行连接并过一层mlp
    30. user_emb_mlp = self.user_emb_layer_mlp(data['uid']) # [batch,emb]
    31. item_emb_mlp = self.item_emb_layer_mlp(data['iid']) # [batch,emb]
    32. mlp_vector = torch.cat([user_emb_mlp, item_emb_mlp], dim=-1)
    33. for idx, _ in enumerate(range(len(self.fc_layers))):
    34. mlp_vector = self.fc_layers[idx](mlp_vector)
    35. mlp_vector = torch.nn.Dropout(0.8)(mlp_vector)
    36. mlp_vector = torch.nn.ReLU()(mlp_vector)
    37. # 将上面gmf和mlp进行组合
    38. vector = torch.cat([mlp_vector, mf_vector], dim=-1)
    39. y_pred = self.affine_output(vector)
    40. if 'label' in data.keys():
    41. loss = self.loss_fun(y_pred.squeeze(),data['label'])
    42. output_dict = {'pred':y_pred,'loss':loss}
    43. else:
    44. output_dict = {'pred':y_pred}
    45. return output_dict
  • 相关阅读:
    Plink数据管理, 筛选个体和变异,合并不同的遗传文件,并附加一个表型
    SNMP简单网络管理协议总结
    【python debug】python常见编译问题解决方法_1
    iOS开发 - 线程间的通信方式
    3.0 设计模式汇总
    将DataFrame中符合指定条件的数据替换为指定的值:mask()函数
    Linux内存管理(二十二):页面回收简介和 kswapd(1)
    【基础篇】五、基于SpringBoot来整合SSM的案例(上)
    win7系统c盘满了笔记
    python强化学习--gym安装与使用
  • 原文地址:https://blog.csdn.net/qq_51167531/article/details/127886522