向量召回在阿里躺平 APP 的实践

star2017 1年前 ⋅ 7700 阅读

作者:陈雷慧(豆苗)

背景

躺平 APP 是“躺平”这个大生态中生活记录社区,记录生活记录家。

该业务场景中,个性化推荐在充分利用流量实现精细化运营、促进信息流动方面有着不可或缺的地位。在业务成长初期,其内容推荐也面临着如下两个问题:

  • 用户冷启动: 对于无任何行为或行为稀疏的用户,难以有效的捕捉到用户的兴趣偏好,进行个性化推荐;
  • 内容冷启动: 受限于有限的流量,也存在一定程度的内容冷启动,小众内容得不到推荐展示机会;

目前,业务处在拉新促活的阶段,因此我们迫切的需要缓解上述两个问题:

  • 一方面要使得内容能够精准的触达新增和低活用户,提升留存,将其转化为平台的活跃用户;
  • 另一方面也要保障长尾小众社区用户的内容有推荐展示的机会,避免小众用户的流失。

一般来说,推荐系统采用召回-> 排序两阶段的架构。 召回阶段从海量内容池中召回数千条内容生成候选集,排序阶段利用用户、内容侧丰富的特征、上下文信息和复杂的模型对候选集中的内容进行打分排序,最终为用户返回数十条内容。

因而,召回是推荐系统的基础,很大程度决定了推荐效果的上限。 随着表征学习的发展,向量召回逐渐成为推荐系统中提高召回准确性和多样性的一种行之有效的方案。

鉴于此,我们在原有的个性化召回和热门召回的架构上,新增一路个性化向量召回。并且,考虑到躺平 APP 是一个以图片为内容主要载体的 UGC 社区,我们主要从网络表征学习多模态表征学习 两个角度进行了相关的探索。

本文旨在分享向量召回在躺平 APP 社区上的应用与实践,内容将会分为以下三个部分:

  • 第一部分为网络表征学习在召回上的落地
  • 第二部分简单介绍利用多模态信息学习内容的向量表征
  • 最后一部分对本文进行总结与展望

希望能对大家有所帮助与启发。

Graph Embedding 的实践

用户在躺平 APP 社区的行为,如发布、点击、点赞、评论和收藏等都可以抽象为网络关系图。因此 Graph Embedding 非常自然地成为学习社区中用户与内容 embedding 的一项关键技术。

目前落地的模型大致分为两类:直接优化节点的浅层网络模型和基于 GNN 的深层网络模型。

前者包括基于用户行为理解内容,学习内容向量表征的 item2vec[1],用于扩充 i2i 召回;同时学习用户与内容向量表征的异构网络表示学习模型 metapath2vec[2],用于提高内容召回的多样性;以群体行为代替个体行为的 userCluster2vec[3],缓解新用户冷启动问题。

后者包括采用邻域聚合的思想,同时融入节点属性信息,通过多层节点聚合使得网络中的拓扑结构能够有效捕获的 GraphSAGE[4],以及将 attention 机制运用邻域信息聚合阶段的 GAT[5],对用户与内容向量表征进行更加细致化学习。

本节主要介绍 GraphSAGE 和 GAT 在社区内容推荐的应用与实践。

▐ 网络构图

我们将用户与内容的交互行为构建为 user-item 二部图。考虑社区用户行为数据的稀疏性,我们在 user-item 二部图网络中加入描述 item-item 相关性的同构网络,避免孤立节点无法学习有效向量表征问题。

user-item 二部图网络

user-item 二部图网络描述用户对内容的偏好,包含两类节点:user(用户)节点U={u_1, u_2,...}和 item(内容)节点V={v_1, v_2,...},以用户近 7 天的历史行为数据为一次 session,构建网络的边。
以用户u_i与内容v_j为例,节点间边e_{ij}的权重w_{ij}的计算方式为:

w_{ij}=\frac{c_{ij}}{\sum_{j=1}^{|V|}}

其中,c_{ij}为用户u_i对内容v_j互动次数,一次点击、点赞、评论、收藏均为一次互动。

item-item 同构网络

item-item 同构网络衡量内容之间的相关性,仅包含一类节点:item(内容)节点V=\{v_1, v_2, ...\}。从全站用户互动的内容序列挖掘得到内容之间的相关性。

属性特征

本次训练主要使用的是 id 类属性特征。用户侧使用如年龄、性别、地区等特征,内容侧使用标签、挂载的圈子和话题等特征。

▐技术实现

相比较于采用浅层网络直接优化节点的 Graph Embedding 模型,如 DeepWalk、node2vec 和 metaPath2vec 等,基于 GNN 的深层网络通过卷积(GCN)、注意力机制(GAT)和门控网络(GaAN[6])等技术,对图的全局及局部拓扑结构进行更细致化的学习,并能够自然得融入节点的属性特征。

GraphSAGE

GNN 模型在向量召回应用的第一阶段,我们主要选择归纳学习——GraphSAGE 来学习用户与内容的向量表征。该模型在对邻居节点进行聚合前,先对邻居节点进行采样得到一个子图,并用该子图代替原图进行邻域聚合计算,从而有效地避免了 GCN 由于需要融合所有邻居节点而无法完成大规模数据向量表征学习的弊端。伪代码如下:

伪代码 4-5 行为邻域聚合层。以生成节点v第 k 层向量表征h_v^k为例,首先聚合采样得到的节点v所有近邻节点N(v)的第 k-1 层向量表示,从而得到节点v第 k 层的邻域聚合特征h^k_{N(v)},并与节点v的 k-1 层向量表征h^{k-1}_v拼接起来,最终通过一层全连接转换得到节点v在第 k 层的向量表征h^k_v

为了在充分学习到网络的拓扑结构信息的同时控制训练成本,我们进行了多组离线实验,最终发现仅采用二阶的邻域聚合就能获得比较理想的效果。具体地,通过聚合 2 阶邻域节点的 embedding,生成一阶邻域节点 embedding,再聚合一阶邻居 embedding,并融合自己本身 embedding,完成自身 embedding 的更新。需要注意的是,内容侧从 item-item 同构网络中采样得到邻居节点的子图,用户侧从 user-item 二部图中采样得到邻居节点。采用 Cross Entropy 的分类损失函数进行模型训练。

GAT

考虑用户行为序列中存在许多噪声,如误点击等,且用户兴趣在具有多样性同时也具有侧重性。在 GNN 模型在向量召回应用的第二阶段,我们进一步引入 attention 机制到邻域信息聚合阶段,借鉴 GAT[5]思想, 对节点邻域节点进行差异化的信息组合,从而对用户兴趣进行更准确捕捉,提升召回效果。

针对图结构数据,GAT(graph attention networks)使用 masked self-attention 层使得图中的每个节点可以根据邻节点的特征,为其分配不同的权值,聚焦在相关输入,且 GAT 无需使用预先构建好的图。

实验证明,GAT 模型可以有效地适用于(基于图的)归纳学习问题与转导学习问题。

我们基本沿用原始论文中的聚合方案,在各节点采样完成的邻居节点上进行 Attention 操作,详细原理参考[5]。

对于 user,通过的路径进行邻居采样;对于 item,则仅通过的路径进行邻居采样用于后续 embedding 聚合阶段。在正负样本采样阶段,对于 user 节点,我们沿着 path 进行随机采样;对于 item 节点,借助 item 间的相似性系数,沿着 path 按照权重高低进行采样。



效果

我们将训练得到的用户与内容 embedding 用于躺平 APP 内容推荐的召回的阶段,以用户的 embedding 作为 trigger,寻找与其相似的内容,并送入后续的精排模型,进行打分。

A/B Test

用户点击率和曝光深度均有正向提升,加入属性信息的效果比未加入的更优。

case study

随机挑选一名女性和男性用户,观察其召回效果。其中,女性用户倾向于消费美食、手工 DIY 和居家生活类内容,男性用户则偏好潮玩、摄影和居家生活类内容。两位用户召回结果如下:

基本可命中用户的兴趣偏好。

多模态表征学习的实践

利用多模态信息学习内容的向量表征,是缓解由用户行为为主导的推荐系统中内容冷启动问题行之有效的方法之一,工业界也有很多相关的落地实践。受此启发,我们也希望从内容本身所包含的信息出发,挖掘内容之间的相关性。

通过对社区内容调研发现,整体内容上存在以下两个明显的特点:

  • 短文本随意性较大,字数较少,以阐述心情、描述生活状态为主;
  • 图片质量较高,大都能清晰地展现出人、物或景,但也存在多图且内容发散的问题,即一条内容的多张图之间的关联性较弱;
  • 无论是主 feeds 双列流还详情单列流,都是以用户发布的内容首图来进行展示。

综合考虑,我们尝试通过从内容首图的图片理解角度出发,学习到腰部和长尾内容的图片向量表征,并基于向量召回的技术,提高小众内容召回效果,缓解内容冷启动问题,提升推荐效果。

▐ 技术实现

关于图片特征的提取的方法有很多种,其中最为典型的就是利于基于 ImageNet 训练的 ResNet[7]网络去提取图片特征向量。

但这种方法也有一定的局限性,首先,用于预训练的 ImageNet 图像数据的类别信息与躺平 APP 的内容类目体系存在较大差异;其次,ResNet 网络学习出的图片向量维度较高,影响向量召回的效率。

因此,利用躺平的内容类目体系对基于 ImageNet 训练的 ResNet 网络进行 fine-tuning,进而得到躺平内容的图片向量。

我们在预训练 ResNet 网络上添加了两层全连接对图片进行有监督的标签分类。该模型在产出标签的同时,也可以从中间网络层中提取出面向内容和业务理解的图片向量特征副产。

利用向量召回技术,将提取出的图片向量作为一路召回,添加进召回环节,用以缓解内容冷启动问题。

显然,标签的选择,对图片向量的效果有着至关重要的作用。

细粒度的标签,可以提高召回的准确性,但内容同质化现象较为明显,无法彰显社区的多样性。

粗粒度的标签,则无法保障召回的准确性。

我们依次从图片叶子标签、一级标签和二级标签等不同粒度的标签着手,对图片进行分类实验,最终确定以图片二级标签作为分类网络的优化目标,得以在保证产出的图片在拥有较高召回准确性的基础上兼具一定的泛化能力,对用户的兴趣偏好,能够进行发现性的探索。

▐效果

我们将训练得到的图片向量用于躺平 APP 内容推荐的召回的阶段,以用户的历史偏好以及实时点击内容的图片 embedding 作为 trigger,寻找与其相似的内容,并送入后续的精排模型,进行打分。

A/B Test

在上线环节,我们对用户近期交互的内容首图向量进行向量召回,最终点击率有正向提效。

case study

随机挑选内容,离线观测召回效果,示例 case 如下图所示。从结果上来看,一些用户行为稀疏的相似内容可以被召回,起到缓解内容冷启动的作用。

总结展望

本文对躺平 APP 拉新促活阶段所面临的用户和内容冷启动问题的缓解方案进行了讨论。在综合考虑社区内容本身特点和业务的实际需要,在原有的召回架构上增加一路向量召回,期望提高召回结果的准确性和多样性。

首先,从社区属性出发,基于用户交互行为构建图网络,并利用基于归纳学习的 GraphSAGE,对用户和内容进行表征,通过引入 attention 机制,改善向量表征学习的侧重点。相比较于传统的基于统计的召回,归纳学习的 GNN 模型在进一步提高行为稀疏用户召回内容精准性的情况下也增强了多样性。

其次,从图片内容社区角度出发,学习到腰部和长尾内容的图片向量表征,并通过向量召回的技术,提高小众内容召回效果,彰显社区的多样性,避免展示在推荐位的内容永远是热门的大众内容。期望促进信息流动,优化小众群体的生产与消费内容的体验,从而提高这部分用户的留存。

但是,在 Graph Embedding 向量召回建模方面,目前我们只利用了点击数据,在处理好数据不足和不平衡的情况下,后续可以融入对不同用户行为的建模,从而进一步挖掘用户行为的隐含兴趣偏好;也可以在保留行为顺序基础上结合 GNN 进行用户长短周期兴趣建模;在多模态内容表征学习方面,整体设计较为基础,后续会融入挂载圈子、话题和内容文本等信息,探索出更为丰富的内容表征,也欢迎大家一起交流。

参考文献:

[1] Barkan O, Koenigstein N. Item2vec: neural item embedding for collaborative filtering[C]//2016 IEEE 26th International Workshop on Machine Learning for Signal Processing (MLSP). IEEE, 2016: 1-6.

[2] Dong Y, Chawla N V, Swami A. metapath2vec: Scalable representation learning for heterogeneous networks[C]//Proceedings of the 23rd ACM SIGKDD international conference on knowledge discovery and data mining. 2017: 135-144.

[3] Grbovic M, Cheng H. Real-time personalization using embeddings for search ranking at airbnb[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2018: 311-320.

[4] William L. Hamilton, Rex Ying, and Jure Leskovec. 2017. Inductive representation learning on large graphs. In Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook, NY, USA, 1025–1035.

[5] Veli čkovi ć P, Cucurull G, Casanova A, et al. Graph attention networks[J]. arXiv preprint arXiv:1710.10903, 2017.

[6] Zhang J, Shi X, Xie J, et al. Gaan: Gated attention networks for learning on large and spatiotemporal graphs[J]. arXiv preprint arXiv:1803.07294, 2018.

[7] He K , Zhang X , Ren S , et al. Deep Residual Learning for Image Recognition[J]. 2015.


本文地址:https://www.6aiq.com/article/1600816873779
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出

更多内容请访问:IT源点

相关文章推荐

全部评论: 0

    我有话说: