WWW 2022已公布录用论文,接收323篇/投稿1822篇,录用率为17.7%,完整录用论文列表见
Accepted Papers – TheWebConf 2022
[1] [2]已对推荐系统和计算广告相关论文进行梳理,本文选择序列推荐方向个人感兴趣的论文进行进一步解读,对于已有人解读的论文,本文会给出相应链接。
第6篇为杰哥新作,力推!
1.【WWW 2022】Disentangling Long and Short-Term Interests for Recommendation
论文链接: https://arxiv.org/abs/2202.13090
代码链接: https://github.com/tsinghua-fib-lab/CLSR
论文机构: 清华、快手
论文分类: 序列推荐,长短期兴趣,对比学习,自监督
论文总结: 用户的长短期兴趣存在差异,长期兴趣相对稳定,短期兴趣动态变化,但是缺乏长短期兴趣的标签。如果采用无监督长短期兴趣建模,则容易将两个方面混杂在一起,导致性能更差。本文提出对比学习框架 CLSR ,首先采用两个独立的编码器分别捕获长期和短期兴趣;然后基于长短期兴趣的差异,采用整个交互历史的平均表征和最近k次交互的平均表征分别为长短期兴趣构造伪标签,通过自监督解耦长短期兴趣;最后,基于注意力模型动态融合长短期兴趣。
相关解读: [3] [4]
2.【WWW 2022】Filter-enhanced MLP is All You Need for Sequential Recommendation
论文链接: https://arxiv.org/pdf/2202.13556.pdf
代码链接: https://github.com/RUCAIBox/FMLP-Rec
论文机构: 人大、中科院
论文分类: 序列推荐、MLP、滤波
论文总结: RNN、CNN 和 Transformer 等深度神经网络广泛应用于序列推荐任务,旨在从记录的用户行为数据中捕获动态偏好特征以进行准确的推荐。然而,在线平台中,记录的用户行为数据不可避免地包含噪声,深度推荐模型很容易在这些数据上过拟合。为解决该问题,作者从信号处理中借鉴了滤波算法的思想,以衰减频域中的噪声。在经验实验中,作者发现滤波算法可以显着改进代表性的序列推荐模型,并且将简单的滤波算法(例如,带阻滤波器)与全 MLP 架构相结合甚至可以胜过基于 Transformer 的竞争模型。受此启发,本文提出了 FMLP-Rec,这是一种具有可学习滤波器的全 MLP 模型,基于Transformer架构,使用频域下的MLP层替换multi-head attention结构,模拟滤波机制,用于序列推荐任务。全 MLP 架构使模型具有较低的时间复杂度,可学习的滤波器可以自适应地衰减频域中的噪声信息。在八个真实世界数据集上进行的大量实验证明了本文提出的方法优于基于 RNN、CNN、GNN 和Transformer 的方法。
解读链接: [5] [6]
3.【WWW 2022】Intent Contrastive Learning for Sequential Recommendation
论文链接: https://arxiv.org/pdf/2202.02519
代码链接: https://github.com/salesforce/ICLRec
论文机构: Salesforce、UC San Diego
论文分类: 序列推荐、(意图)对比学习、多任务学习、聚类应用
论文总结: 用户与物品的交互由各种意图驱动 (例如准备节日礼物、购买钓鱼设备等)。然而,用户的潜在意图通常是难以被观察到的,这使得利用潜在意图进行序列推荐 (SR) 非常具有挑战性。为了研究潜在意图并有效地利用它们进行推荐,本文提出了意图对比学习 (ICL),这是一种将潜在意图变量利用到序列推荐任务中的通用学习范式,其核心思想是从未标记的用户行为序列中学习用户的意图分布函数,并通过在对比自监督学习 (SSL)中考虑学习到的意图来优化序列推荐模型。具体来说,作者引入了一个潜在变量来表示用户的意图,并通过聚类学习潜在变量的分布函数。作者通过对比自监督学习将学习到的意图用到序列推荐模型中,从而最大化序列视图与相应意图之间的互信息。训练在广义期望最大化 (EM)框架内的意图表示学习和序列推荐模型优化步骤之间交替进行。将用户意图信息融合到序列推荐中也提高了模型的鲁棒性。在四个真实世界数据集上进行的实验证明了所提出的学习范式的优越性,它提高了性能以及对数据稀疏和嘈杂交互问题的鲁棒性。
解读链接: [7] [8] [9]
4.【WWW 2022】Learn over Past, Evolve for Future: Search-based Time-aware Recommendation with Sequential Behavior Data
论文链接: https://arxiv.org/pdf/2202.03097
代码链接: https://github.com/Jinjiarui/STARec
论文机构: 上交、招行卡中心
论文分类: 序列推荐、时间感知
论文总结: 个性化推荐是现代电子商务的重要组成部分,用户的需求不仅取决于他们的个人资料,还取决于他们最近的浏览行为以及一段时间前的定期购买。在本文中,作者提出了基于搜索的时间感知推荐新框架 (STARec),它通过统一的基于搜索的时间感知模型来捕捉用户随时间不断变化的需求。具体来说,作者首先设计了一个基于搜索的模块来检索用户的相关历史行为,然后将其与她最近的记录混合起来,输入到时间感知序列网络中,以捕捉她的时间敏感需求。除了从她的个人历史中检索相关信息外,作者还建议搜索和检索类似用户的记录作为附加参考。所有这些顺序记录进一步融合以做出最终推荐。除了这个框架,本文还提出了一种新颖的标签技巧,它使用即用户的反馈作为输入来更好地捕捉用户的浏览模式。本文针对最先进的方法对点击率预测任务的三个真实商业数据集进行了广泛的实验,实验结果证明了提出框架和技术的优越性和效率。此外,在 X 公司日常项目推荐平台上的在线实验结果表明,STARec 在其两个主要项目推荐场景的 CTR 指标上分别获得了约 6% 和 1.5% 的平均性能提升。总之,这篇论文的贡献有三方面:提出了一个名为 STARec 的新框架,它通过结合基于搜索的模块和时间感知模块来捕捉用户对时间敏感的不断变化的需求;将用户之前的反馈作为输入,并揭示此标签信息可以提高性能;设计了一种新的自适应搜索机制,逐渐从硬搜索策略转移到软搜索策略。
5.【WWW 2022】Sequential Recommendation via Stochastic Self-Attention
论文链接: https://arxiv.org/abs/2201.06035
代码链接: https://github.com/zfan20/STOSA
论文机构: UIC、Spotify等
论文分类: 序列推荐,自注意力,Transformer
论文总结: 基于Transformer的方法将商品表征为向量,并通过点积方式的自注意力机制来衡量商品之间的相似程度,在现有的序列推荐方法中展示了卓越的性能。然而,用户在真实世界中的行为是不确定的,基于点积的方法不能完全捕捉协同传递性。本文提出了一种新颖的 STOchastic Self-Attention (STOSA)方法来克服这些问题,STOSA将每个商品表示为随机高斯分布,其协方差编码了不确定性,并设计了一种新颖的 Wasserstein自注意力模块来表征序列中的商品关系,将衡量向量之间的距离转变为衡量分布之间的距离,它有效地将不确定性纳入模型训练。此外,本文在BPR损失中引入了一个新的正则化项,确保了正项和负项之间的差异。对五个真实世界基准数据集的广泛实验证明了所提出的模型优于最先进的基准,尤其是在冷启动项目上。
解读链接: [10] [11]
6.【WWW 2022】Deep Interest Highlight Network for Click-Through Rate Prediction in Trigger-Induced Recommendation
论文链接: https://arxiv.org/abs/2202.08959
代码链接: https://github.com/EzailShen/WWW-22-DIHN
论文机构: 阿里、悉尼大学、浙大
论文分类: 序列推荐、相关推荐
论文总结: 在众多电商平台中,个性化推荐已被证明具有巨大的商业价值,可以提高用户满意度,增加平台收入。在本文中,作者提出了一个新的推荐问题,即触发引导推荐 (Trigger-Induced Recommendation, TIR,可以参考淘宝的跨店推荐和MIniDetail等场景),其中用户的即时兴趣可以通过触发商品显式引导,并相应地推荐后续相关的目标商品。 在本文中,作者发现虽然现有推荐模型在传统推荐场景中通过基于用户大量历史行为挖掘用户兴趣是有效的,但由于场景之间的差异,它们在发现用户在 TIR 场景中的即时兴趣方面存在困难,导致性能下降。为了解决这个问题,本文提出了一种新的推荐方法,名为 Deep Interest Highlight Network (DIHN),用于 TIR 场景中的点击率预测。DIHN包含三个核心模块:1) 用户意图网络 (UIN),预测用户对触发商品的意图; 2)融合嵌入模块(FEM),它基于来自UIN的预测自适应地融合触发商品和目标商品的embedding; 3)混合兴趣提取模块(HIEM),基于FEM模块的结果,利用注意力机制结合触发商品和目标商品发掘用户兴趣。在现实世界电子商务平台上进行的广泛离线和在线评估证明了 DIHN 优于最先进的方法。解读链接: [12]
[3] 用户长短期兴趣 Disentangling Long and Short-Term Interests for Recommendation 详解
[4] WWW'22「快手」序列推荐:解耦长短期兴趣Disentangling Long and Short-Term Interests for Recommendation
[5] Filter-enhanced MLP is All You Need for Sequential Recommendation
[6] WWW 2022 | 弯道超车:基于纯MLP架构的序列推荐模型
[7] [WWW][2022]Intent Contrastive Learning for Sequential Recommendation
[8] Intent Contrastive Learning for Sequential Recommendation阅读笔记
[9] WWW'22 用户意图发掘:序列推荐中的意图对比学习Intent Contrastive Learning for Sequential Recommendation
[10] WWW'22「Spotify」通过随机自注意力进行序列推荐Sequential Recommendation via Stochastic Self-Attention
[11] Sequential Recommendation via Stochastic Self-Attention阅读笔记