干货篇 | 58 同城:向量化召回上的深度学习实践

star2017 1年前 ⋅ 9129 阅读

分享嘉宾: 彭小钰,58 同城 TEG 搜索推荐部高级算法工程师
整理出品: AICUG 人工智能社区

PPT 下载:http://www.aicug.cn/#/docs

导读: 向量化召回通过学习用户与物品低维向量化表征,将召回建模成向量空间内的近邻搜索问题,有效提升了召回的泛化能力与多样性,是推荐引擎的核心召回通道。本次议题主要介绍深度学习在向量化召回上的应用与实践,实现了从 W2V 到双塔模型的迭代升级。

分享嘉宾: 彭小钰,58 同城 TEG 搜索推荐部高级算法工程师。负责 58APP 首页猜你喜欢推荐位向量化召回通道优化。

目录

  1. 背景
  2. 首页推荐 Word2Vec 召回实践
  3. 双塔模型召回在首页推荐的落地及优化
  4. 总结与展望

01 背景介绍

图片

58 同城作为国内生活信息服务提供商,涵盖招聘、房产、车辆、兼职等海量生活服务。58 首页猜你喜欢推荐,位于 58 同城 APP 首页左下方,是 58 APP 最大规模的一个推荐场景,日常 UV 千万级,帖子候选亿级别,模型训练样本上亿级别,数据体量很大,首页推荐位的推荐结果涵盖多个类目的帖子。

图片

首页推荐的结果依赖于召回,召回的方式有多种。现在是多通道召回,分别对多种方式都进行了深入的探索。

首先是兴趣标签召回,根据用户的兴趣标签,扩展兴趣标签,召回用户感兴趣的帖子列表。然后是协同过滤召回,有基于 user 的和基于 item 的协同过滤召回。协同过滤最大限度的利用了用户之间或是物品之间的相关性,基于这些信息进行推荐。再营销召回,主要是根据用户的历史行为进行再次相关推荐。再营销的方式能够有效地激发用户的转化行为。LBS 召回,主要是基于用户当前所在的地理位置,召回附近用户感兴趣的帖子。搜索关键词召回,分析用户主动的搜索行为,形成相应的关键词画像,构建关键词框内进行召回。以上的召回方式任意一种都很难同时兼顾相关性和多样性,我们考虑引入向量化召回,将向量建模成向量空间内的近邻搜索问题,有效提升召回结果的相关性和多样性。

02 首页推荐 Word2Vec 召回实践

图片

考虑到 Word2Vec 的训练得到的向量能够快速实践且效果比较好。所以我们引入了向量化召回通道。首页推荐 Word2Vec 的向量召回实践主要分为两部分:第一部分是向量训练,第二部分是在线预测。

图片

Word2Vec 的训练方式有两种,第一种是 cbow。cbow 是根据上下文预测中心词,而 skip- gram 则是根据中心词去预测上下文,并对当前中心词的向量进行调整。

在 58 的场景下,如果词频出现较低,skip gram 能够根据上下文调整当前词的向量,虽然训练花费的时间会多于 cbow,但是词向量的表征会更加准确,所以我们选择了 skip- gram。

图片

先讲一下我们的训练流程:向量训练,首先可以从 HDFS 日志上提取出用户的点击行为,对于每个点击行为,把点击的 ItemID ,UserID 和时间戳提取出来,然后根据用户 ID 去聚合行为,并按照时间的先后顺序排列,也会对较短的序列会进行过滤。

图片

得到行为序列之后,我们就训练 Word2Vec 向量。当用 Word2Vec 的训练得到向量后,我们在离线评测阶段会有两个问题。第一个问题是会有非同城的帖子,比如北京的一个帖子,召回相似的 Top 20 个帖子,会有长沙、沈阳等非同城市的帖子出现。第二个问题是有非同业务的帖子,比如租房的帖子,它的相似帖里边可能会出现招聘的帖子。因为我们拿的是用户的点击行为序列,58 是一个多业务场景,用户可能会对多个业务感兴趣,他来回点击就会导致他的行为序列之间有同业务或者同城的在一起,所以我们会做一些优化。

首先是数据层面的,我们会做 session 切分。因为在 58 场景下,城市与城市之间,业务与业务之间,还是有比较大的区分性的。所以根据 session 切分之后,不同城市的不同业务的就会被切割成不同的序列。比如行为序列 ItemID3 和 ItemID4,它的城市或者业务不同,我们就会切分一个新的序列出来。做完行为序列切分后,就能够保证每个帖子,它的上下文是来源于同城市或者是同业务的,但是负采样的流程还是可以继续做一些优化的。

图片

原有的负采样是全局采样的过程,首页现在的量级是接近 5000 万的帖子,这个全局采样就是从 5000 万里面以一定概率选一个作为负样本,这种方式就会有一个问题,比如长沙的帖子,负样本可能是北京的,这个样本过于简单,所以我们选择的优化方式是缩小样本的采样范围,从全局缩小到同城,提高向量的表征能力。

在 Word2Vec 训练的时候,首先它会组织一个采样列表,这个列表会把每个帖子聚合在一段线段中。每个帖子在这个线段中的占比是不一样的,取决于帖子出现的频次,这个帖子如果出现的词频高,它的占比就会高一点。这样反映出它的被采样的概率。如果想缩小它的采样范围,可以采样列表不变,但对这个帖子有个聚合。意思是会把同城的所有帖子聚合在线段的某一段中。比如下标从 1 到 k+1 的帖子,它都是城市 1 的帖子,k+2 到 k+j 的都是城市 j 的帖子。这样如果我们知道了城市所在的开始位置和结束位置,在这个范围内去采样的话,就能够保证负样本一定是来自于同城的。

我们在采用过程中还会加一些业务的限制,所以我们需要记录一些信息。首先这两个列表是记录刚刚讲到的起始位置和下标结束位置,然后 local list 主要是记录每个帖子它的地域 ID,就是这个帖子是哪个地方的,然后业务 ID 也需要记录,因为要知道这个帖子是哪个业务下的,是招聘的还是租房的。

图片

举个例子,首先我们有一个行为序列是 Item1 到 Item6,如果我们拿当前的 Item3 为中心词的话,首先 Item3 我们给到它的训练参数窗口大小为 5,负采样的个数为 5,它的正样本就是 Item1、Item2、Item4、Item5。

负样本我们是这样选的,首先会拿到 Item3 的城市 ID,也就是要知道 Item3 是哪个城市的,然后查询刚刚记录的列表,就可以得到这个城市所在的起始位置和结束位置。确定好了采样范围之后,我们就可以在这个区间去采样。我们会在这个区间随机的选取其中的一个负样本。比如我选择了 ItemF,这个 ItemF 是不是一个合格的负样本,我们会对它加上一些业务上的限制。

首先负样本不能是中心词,其次这个负样本不能在当前的行为序列中。因为行为序列就是基于用户的点击行为,用户既然点了,说明用户对这个帖子是感兴趣的。虽然不在上下文的窗口内,但是如果在用户整个的行为序列中,说明帖子之间是有相关性。所以我们不认为这样的帖子是个合格的负样本。然后我们会加上第三个限制,我们要确保这是一个合格的负样本的话,会对业务和地域限制一下。比如是朝阳的租房,那至少这个不能是朝阳的,然后也不能是租房贴,但可以是招聘是没有问题的。这就是我们结合业务对负采样的样本的一些限制。

图片

我们做完这些数据和流程上的优化之后,上图是我们的训练参数。可以看到在优化前和优化后,训练时长有明显的增加。因为原有的负采样它是随机在全局随机的采,我们把范围缩小了,而且有一些限制,所以导致时长被拉长,但是从离线的评测和线上的效果来看,这个优化都是有效果的。

图片

这是我们离线评测的一个例子。中间的是来自北京朝阳酒仙桥的一个 1 室的整租。左边三个是在优化前,也就是全局负采样的时候,训练得到的最相似的三个帖子。这三个帖子分别来自朝阳、石景山和顺义。首先它的位置距离会比较远,而且在厅室和价格方面也不是太相似。右边这三个是我们优化后的效果。经过自适应负采样优化之后,这三个帖子都聚集在了酒仙桥附近,而且小区之间厅室和价格都比较相似。

图片

接下来讲下我们的在线预测流程。当接到一个推荐请求后,主体服务会调用召回服务获取召回通道的结果。其中我们有个向量化召回通道,它依赖于存储在 Redis 中的用户点击序列,我们拿到用户的点击序列之后,会去做向量检索。在向量检索过程中,首先要判断行为序列中的帖子,向量是否存。如果存在,就拿到这个向量后,对这些行为序列中的所有向量求和,再平均得到用户向量。拿着用户向量去召回 Top50 个相似的帖子,我们在 faiss 进行向量检索的时候用到的向量,也就是刚刚提到的 Word2vec 向量。

图片

我们搭建了 faiss 集群,faiss 的索引选择的是倒排索引,能够通过聚类的方式分割成若干类,查询的时候选择距离最近的类。在类中我们采取精确的方法查询,这样既能够保证性能的同时,又能够通过调整参数来确保我们的查询精度。

在倒排索引中,我们向量的个数是接近 4200 万个。其中 nlist 的参数代表向量聚类的总数,nprobe 参数代表查询类的个数。开始的时候,nlist 用 100,nprobe 用 1,我们在 Top50 的检索需要耗费 35 毫秒,这个耗时还是比较高。所以我们做了一个性能优化,就是在参数上进行了调整。把 nlist 的由 100 扩充到 1024,这样类的个数变多了之后,分到每一个类的数量就会减小,但是这样可能会影响到精度,所以我们同时又增大了 nprobe 的个数。我们每一次查询的类个数由一个变成两个,这样在线上性能有了明显的提升,由原来的 35 毫秒降到了 10 毫秒,而且 ab 测向量的效果也没有受到影响,所以我们选择了性能较优的这部分参数。

图片



这个是我们上线后的转化率效果,明显可以看出来,加了向量化召回之后,比原来的纯兴趣标签召回在转化率上提升的比较多。

图片

我们做完 Word2Vec 向量召回之后,也伴随着一些问题。第一个是用户的向量表征是受限的,因为在用 Word2Vec 的召回的时候,用户向量是通过行为序列求平均得到,在行为之间大家的权重都一样,没有区分度,而且也不能够深入的去表征用户兴趣。我们也没有用到兴趣向量、用户的标签或者是其他的一些属性特征。另一方面,Word2Vec 没有结合场景业务,因为我们使用的是用户全站的点击行为,它学习到了向量的表征,但是没有结合具体的场景拟合业务目标,所以我们尝试了双塔模型,可以从业务数据出发,对用户继续进行更深层次的建模。

03 双塔模型召回在首页推荐的落地及优化

图片

双塔模型在首页推荐的落地流程及优化,主要是以下的三部分内容。首先是模型架构,其次是模型评测,然后是在线召回。

图片

这个是我们双塔模型的架构图,由下至上是三层,第一部分是输入层,第二部分是表示层,第三部分是匹配层。输入层主要有两部分输入。第一部分输入是用户塔的输入,第二部分是 Item 塔的输入。在表示层我们会对用户和 item 的 embedding 进行建模。在匹配层,我们拿到了用户和 item 的 embedding 向量之后,会离线计算 cos 值,在线 serving 的时候,会用用户向量去调用 faiss 的向量检索,得到 Top50 个相似贴。

首先讲一下我们在输入层的一些优化,可以从图里看到,我们表征任意一个帖子是由三部分表征的,第一部分是 InfoID,第二部分是 localID,第三部分是 cateID。

图片

但这个时候就会有一些问题,首先我们的 ItemID 7 天的帖子数接近 5000 万,也就是说我们有 5000 万个 ItemID,向量维度使用 64 的话,embedding 矩阵就会非常大,得到的向量效果也不一定好。如果我们选择降低维度的话,其实也会影响向量的表征。所以我们采用预训练的方式得到 ItemID embedding 矩阵。预训练是使用的 Word2Ves 向量。上图是我们的一个离线数据生成流程。我们拿到双塔的训练数据之后,它是三部分,user 塔的输入,Item 塔的输入和最后的标签。其中 Item 塔的输入,它又包括 ItemID、LocalID、CateID。在离线的时候,我们会把 ItemID 过一遍 Word2Vec 向量,离线生成 embedding,然后再生成 TFRecord 格式的数据,给到双塔模型作为输入。

图片

我们有了预训练之后,还会对向量有一个增量的过程。因为考虑到 7 天的向量数据所覆盖的范围是有限的,但是如果加长了训练天数,比如从 7 天增加到 10 天,训练成本就会明显增加。所以我们采用了向前增量的方式更新向量。在中间是 t-1 天的向量,我们会往前推 t-2、t-3、t-4,一直到 t-7 天的向量,去融合这些向量。如果向量重合了,比如 t-1 天有 item2,t-2 也有 item2,我们就会优先保留时间更靠前的向量。但如果这个是原有的向量没有的,我们就追加在后面。这样增量的方式,我们的帖子量从 4100 万增加到了 4700 万左右。这里就可能会有个问题,因为 Word2Vec 的向量每天都是单独的去训练,每天的向量没有相关性,因为不在向量空间中。但其实在我们的双塔模型中,刚刚讲到了,我们不仅用了 ItemID,也用到了 LocalID 和 CateID,还会有 Item 塔 DNN 的结构,其实对最终的帖子表征是没什么影响的。

图片

在双塔模型中,负样本的采样也是比较重要的。比较常见的是选择 easy 的负样本,就是通过在 Batch 内随机负采样得到,然后我们也会尝试选择一些的 hard 负样本,增加模型的学习难度。Hard 负样本来自当前点击帖子的同城内,但是地域 ID 和业务 ID 都不相同。

上面表格是我们在离线做的一些实验指标。我们通过调整正负样本的组成比例,样本的总个数,做一些实验。从 AUC 上看,我们随机负采样的效果是最好的,所以在线上最终也是全量的随机负采样的方式。

图片

我们在 user 塔也会加入用户兴趣标签。用户兴趣标签其实就是基于用户的长期历史行为得到的一些统计信息。比如我们会根据每一个业务线有不同的兴趣标签。二手房这个业务下,我们会统计用户的业务 ID、地域、价格、户型和面积,这个也就是用户偏好的一些信息。比如说整租房,我们可能会拿到用户在类目下,对哪些地域、哪些房价、哪些户型、比较感兴趣,这个就是兴趣标签。

图片

有了兴趣标签后,我们会把它加到表示层去,主要的加入方式是通过和行为序列算 attention。可以看到每一个行为序列就是一个 Item。Item 的表征是通过帖子 ID、类目 ID 和地域 ID 的表征。在右侧有个用户兴趣,用户兴趣的表征就是用的类目 ID 和地域 ID。因为每个业务下的兴趣标签是不一样的,所以我们用了大家都有的类目 ID 和地域 ID 去表征每一个兴趣。用户他可能会对多个业务,多个地域都感兴趣,所以用户的兴趣我们选的是前 10 个,然后会和用户的行为序列得到的向量算一个 attention,最后得到用户最终的兴趣向量。

图片

我们在 user 塔也会加入一些特征,这个特征主要是基于用户的一些离散值特征和连续值特征。比如一些设备特征,用户的点击次数特征,用户的偏好特征,对类目的偏好,对地域的偏好以及偏好程度等等。

图片

接下来是匹配层,就是我们得到了用户向量和 Item 向量之后,应该怎么去拟合目标。在离线阶段,通过对每 1 个正样本随机采 4 个负样本,得到一个这样的样本列表,然后我们会计算向量的 cos 值,之后做 softmax,得到了每一个样本所对应的概率。训练过程中我们的正样本的概率如图所示,分子是正样本的概率,分母是正负样本的概率总和,其中有一个参数,这个是平滑因子。我们在训练的时候用的是 =5,因为 cos 值是-1~1 之间的值,如果我们适当的放大这个值,能够让正负样本最后的概率区分度更高,更精确拟合我们的目标。loss 函数用的是交叉熵函数,只拟合了正样本的损失。

图片

接下来讲下我们的模型评测。因为离线做任何一个优化都需要有个评测指标作为参考。我们在模型评测的时候,主要用到了三部分评测指标。第一部分是 AUC,第二部分是覆盖率,第三个是平均位置。我们主要讲下覆盖率和平均位置。

那覆盖率是怎么计算的?我们会把 t-1 天的数据拿出来作为测试集。训练完双塔模型之后,把测试集中的点击数据拿出来,过一遍双塔模型,这样就能得到当前点击的 user embedding,然后去调用 faiss 检索最相似的 Top50 个帖子出来。当前点击是不是在 Top50 中?如果在,认为这次是覆盖了你的点击,那就在这加 1。拿我们所有覆盖点击的次数除以总的条数,就是覆盖率指标。

平均位置,因为我们刚刚讲了,召回 Top50,点击行为在这个列表中他是否靠前,其实也是一个比较重要的参考指标。所以我们也会计算每一次点击行为在 Top50 中的平均位置。

图片

这个是我们在离线评测的时候一些评测指标,可以看到不管是加入用户兴趣,再加入用户特征,较原来的双塔模型,在 AUC 指标上,覆盖率指标和平均位置指标都有一个比较明显的提升。

图片

再讲下双塔模型在线召回的部分。在线召回的时候,其实我们使用的是 user 塔在线召回,但是它在这个过程中也使用到了 Item embedding 的向量,所以大家可以看到在这个图中上面这部分是 user 的在线召回,下面的这部分是我们怎么生成的最终的 Item embedding。

先讲下下面这部分,我们的双塔模型训练完之后,会有一个帖子索引文件,贴子索引文件中它会有我们需要检索的帖子信息,但没有最终生成 embedding 向量,所以我们需要过一遍双塔模型,输入就是 ItemID embedding,LocalID 和 CateID。这样我们就能得到最终的双塔模型对帖子的表征,也就是最终线上需要用的帖子向量库,加载过去。在 user 的时候怎么召回?收到一个召回请求之后,我们会根据当前的 user 对每一个行为生成 ItemID embedding,LocalID 和 CateID。结合用户兴趣和 session 信息,经过特征处理之后得到用户特征,这样就是 user 塔的输入,有了 user 塔的输入之后,会调用在线的服务,从双塔模型中预测得到 user embedding,然后就去帖子向量库中检索 Top50 个相似的帖子,这个就是我们双塔模型在线 serving 的部分。

图片

我们刚刚讲的是 user 塔的在线召回,其实我们有了 Item 表征之后,也可以仿照 Word2Vec 的那种召回方式。把用户的行为序列都拿出来,然后去求和平均一下,这样也可以召回一部分帖子。但是我们在这儿其实是有个优化的,首页它是一个多业务融合的场景,在用户的行为序列中,它可能包含招聘、本地服务这种多个业务的行为,所以我们做的优化是多路并行召回。我们会把用户行为序列中每一个类目的帖子聚合到一起。比如说招聘,那就招聘单独生成一个行为序列。租房,那就租房再生成一个行为序列,行为序列内部求平均得到用户向量后,去召回一定量的帖子。这样类目与类目之间就不会有冲突,用户在某个类目下的兴趣其实是更准确的,然后把多个类目的结果融合到一起,作为最终的向量化召回通道的结果。在我们线上验证也是有效果的。

图片

这个是我们转化率的优化情况,可以看到最下面的绿色的是兴趣标签召回,紫色的是向量化加了兴趣标签召回,在转化率上有提升,褐色的是在营销召回,最上面的蓝色是我们融合了再营销向量化和兴趣标签之后的融合策略,最终的转化率效果。以上就是我们在向量化召回通道的一些尝试和探索。

04 总结与展望

图片

向量化召回在点击率和转化率上较基线有一个明显的提升,但我们在这个过程中还是有很多可以优化的。首先在双塔的 user 塔部分,如果我们把用户在多个类目上的兴趣拆分开来并行召回,更能精确的表达用户的兴趣。所以我们在 user 塔是不是也可以考虑双重多个用户信息向量,来更精确的表征用户的兴趣。然后在 Item 塔方面,我们也可以加入一些业务的细化属性。我们用的是类目和地域,是不是比如租房,我们可以加入价格、厅室这种业务上更细化的一些属性,精准的去表征帖子。然后在模型训练方面,在负采样上我们还有很多可以优化的点。我们的样本选择,样本配比,还有模型是不是可以像 boost 那种方式去叠加训练,我们先用包含 hard 样本的数据训练之后再用 eaey 的样本去训练,这样是不是也会有效果。


本文地址:https://www.6aiq.com/article/1618011600160
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出

更多内容请访问:IT源点

相关文章推荐

全部评论: 0

    我有话说: