当前位置:   article > 正文

来看看 “基于卷积神经网络的推荐系统“是怎样的_rnn选址

rnn选址

上一篇字节李航书中的深度匹配模型演化图谱【详解】介绍了RNN-based 的基础方法,这篇文章讨论CNN 是如何处理用户有序行为序列的,具体涉及到 Caser 和 NextItNet 两个算法。

由于卷积单元的引入,卷积神经网络带来了局部感知和参数共享的效果。网络部分连通的思想,也是受启发于生物学里面的视觉系统结构,视觉皮层的神经元就是局部接受信息的(即这些神经元只响应某些特定区域的刺激)。CNN在处理 NLP 任务时通常卷积的宽度和embedding_map 的维度是相同的。

一. Caser

Personalized Top-N Sequential Recommendation via Convolutional Sequence Embedding是2018年发表在 WSDM 的会议论文,文章提出了 Caser 模型,通过卷积神经网络对短期 session 序列进行信息提取。

  • 1.1 CNN 相比RNN的优势

虽然RNN有强大的序列建模能力,但是通常当包含很强的序列模式时才能表现较好。而在推荐系统中,用户历史相邻的行为之间并没有很强的关联关系,比如用户在看完 A 之后看了 B,只是因为用户喜欢 B,而 A 和 B 之间本身并没有关系。所以作者不采用 RNN 来建模相邻行为的序列模式(sequential pattern), 而是使用 CNN 来抽取point-level, union-level no skip 和 union-level skip once 的 pattern,建模这三种pattern 对于 target 的影响。

如上图,point-level 是指先前的每一个动作(蓝色矩形框) 都是单独地而不是集体地影响目标动作。而union-leve, no skip 是一种联合的序列模式,同时考虑三个蓝色行为对下一个行为的影响,比如当同时购买牛奶、黄油时比单独购买了牛奶或黄油,对接下来将要购买面粉的指示作用更强。

no skip vs skip once, 过去的行为可能并不会直接影响下一个邻接行为,而是对后面的某个行为有较强的指示作用。例如,游客依次去过了机场、酒店、餐厅、酒吧和景点,虽然机场、酒店并不是在景点之前邻接访问的,但有却很强的关联关系。

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号