• 《深度学习推荐系统》读书笔记


    读本书的目的,是想了解推荐系统主流算法的发展过程。其中关于CF的知识与之前读过的《推荐系统实践》、吴恩达Coursera教程有重合,且当时记录的更为详细,这里不再重复。

    第一章 互联网的增长引擎——推荐系统

    第二章 前深度学习时代——推荐系统的进化之路

    理解传统模型是后续看深度学习的基础

    2.1 传统推荐模型的演化关系图

    2.2 协同过滤——经典的推荐算法

    协同过滤仅仅利用用户与物品的交互,不能引入上下文信息等特征。且其头部效应较明显,处理稀疏向量的能力弱。

    2.3 矩阵分解算法——协同过滤的进化

    即隐语义模型。

    2.3.2 求解过程

    书中在这里解释了为什么选用梯度下降来得到用户和物品的隐类矩阵。问题可以简化为已知一个矩阵M=U*I^{T},求U和I。矩阵分解主要求解方法有:特征值分解(Eigen Decomposition)、奇异值分解(Singular Value Decomposition SVD)和梯度下降(Gradient Descent)。

    特征值分解只能用于方阵;奇异值分解可以求解,但在互联网场景下矩阵过于稀疏庞大;因而用梯度下降法。

    2.3.4 优点和局限性

    优点:是全局生成的推荐结果,与CF中取前K位相比保存了更多数据精度。一定程度上解决了数据稀疏问题,且空间复杂度低。

    缺点:没能利用上下文特征,不方便新增用户和物品。

    2.4 逻辑回归——融合多种特征的推荐模型

    逻辑回归引入了上下文,生成更为全面的推荐结果。同时逻辑回归的另一种表现形式“感知机”也是神经网络的最基础神经元。CF和矩阵分解是求解与当前用户最相似的Top K个用户或物品,逻辑回归则把推荐问题转为点击率(Click Through Rate CTR)预估问题,即用户会对某物品进行正交互的概率。

    2.4.1 基于逻辑回归模型的推荐流程

    详见《机器学习-吴恩达》课程笔记week3

    2.4.4 逻辑回归模型的优势

    1. 数学含义的支撑:线性回归假设y符合高斯分布,逻辑回归假设y符合伯努利分布,与典型掷偏心硬币问题的预测点击率相符合。

    2. 可解释性强:用权重判断特征的重要性

    3. 工程化的需要:益于并行化、模型简单、训练开销小

    2.4.5 逻辑回归的局限性

    表达能力不强,无法进行特征交叉、特征筛选等高级操作,造成信息的损失。

    2.5 从FM到FFM——自动特征交叉的解决方案

    多维度特征交叉的重要性:辛普森悖论。

    2.5.1 POLY2模型——特征交叉的开始

    数学表达式为:\phi POLY2(\mathbf{w},\mathbf{x}) =\sum^{n-1}_{j_{1}=1}\sum^{n}_{j_{2}=j_{1}+1}w_{h(j_{1},j_{2})x_{j_{1}}x_{j_{2}}}

    该模型对于所有的特征进行了两两交叉组合并权重,在一定程度上解决了特征组合的问题。但是存在以下缺陷:

    ① 当遇到one-hot编码时会导致特征向量极度稀疏,缺少有效数据,无法收敛

    ② 参数规模由n到n^2,增加了训练复杂度

    2.5.2 FM模型——隐向量特征交叉·

    2.5.3 FFM模型——引入特征域的概念

  • 相关阅读:
    如何利用python来提取SQL语句中的表名称
    基于kubernetes平台微服务的部署
    c++出现[Error] conflicting declaration ***之类的问题怎么办?
    这些不知道,别说你熟悉 Nacos,深度源码解析!
    MySQL-1(12000字详解)
    深度学习笔记--权重文件、模型参数和预训练模型的使用
    【正点原子STM32连载】第二十一章 通用定时器实验 摘自【正点原子】MiniPro STM32H750 开发指南_V1.1
    vue本地开发设置代理连接本地后台服务
    MySQL MHA
    超声波清洗机有没有平价又好用的推荐、平价好用超声波清洗机总结
  • 原文地址:https://blog.csdn.net/SofiaT/article/details/126240598