【论文解读】RALM:微信看一看中基于Attention机制的实时Look-alike推荐模型

前段时间读了来自微信团队发表在KDD2019上的一篇论文《Real-time Attention Based Look-alike Model for Recommender System》,简称是RALM,主要介绍的是一种将Attention机制与look-alike模型结合后的实时推荐模型,这个算法目前应用在了微信“看一看”模块上。

在读论文的过程中产生了许多疑问,也查找了不少资料。因为网上对这篇论文的解读不算很多,因此也把我阅读过程中的一些理解和寻找到的答案整理记录下来,希望对大家有一些帮助。在文章最后列出了论文原文与引用参考部分的链接。

背景

首先介绍一下这个算法的业务背景。

推荐系统的初衷是猜你喜欢什么,然后对你进行个性化推荐。但是目前主流的一些推荐算法(比如协同过滤),它们都非常依赖于item的历史行为特征,所以一些比较冷门、但是高质量的长尾内容,可能就会被预测出比较低的得分。也就是说,热门的文章和目标用户已经点击过的文章总是被推荐,然后变得越来越热门,造成了推荐系统中的“马太效应”。如果长时间这样,就会造成推荐疲劳,推荐系统边界收窄。所以许多模型也在致力于去消除马太效应。

业务背景:马太效应

那么,解决这个问题的一种思路就是Look-alike模型,这是广告领域流行的一类方法,其核心思想就是针对某个item,先根据历史行为圈定一部分种子用户,然后通过模型寻找与种子用户相似的人群,为他们推荐该item。

Look-alike模型主要分两个大方向:

  • Similarity based models (LSH局部敏感哈希/k-means)
  • Regression based models (LR/FM/MLP)

这些模型其实在广告系统中都得到了还不错的效果,但是在新闻资讯的推荐系统中并不适用。因为它有以下2个特点:

  1. 时效性要求非常高。一般一条新闻的生命周期比较短,我今天没看到,明天就不感兴趣了。
  2. 候选集更新频率非常高。一天可能有上百万条新内容,而传统的模型每新加入一个item就需要重新训练模型。这对于高时效性高频率更新的资讯推荐系统来说是难以接受的。
业务背景:新闻推荐系统的要求

那么RALM就是针对以上这个背景提出的一种实时Look-alike模型,所以它能够做到以下3点:

  • 实时:如果出现了新的item,它不需要重新训练模型,能够直接实时完成种子用户扩展
  • 高效:在保持CTR前提下加强对于长尾内容的挖掘和推荐,获得更准确和更具多样性的用户表达
  • 快速:降低了计算复杂度,精简预测计算,满足线上的耗时性能要求

整体框架

首先是整个算法的框架,其实就是以Look-alike模型为核心,加入实时计算

对于所有的候选内容(包括latest news和long-tail contents等),先根据每一篇内容的历史行为圈定一部分种子用户seeds,然后通过某种方式得到的user embeddinng去计算两者的look-alike score,根据得分去确定要不要推荐该item。大体流程可以看左边这张图。

论文框架:Look-alike模型及本文创新点

那么根据这张图呢,也能总体说明这篇论文在哪些部分进行了创新:

  • User-users Model:这是一个u2users的模型,它用一大群种子用户得到了种子用户群,然后使用用户群的特征代替了候选item行为特征。

  • User Representation:这一部分的学习过程是基于Youtube DNN来做的,Youtube DNN模型使用了深度网络结构来学习用户的embedding,然后将其输入concatenation层,最后输入MLP中。RALM中对其作了一些改进,使用了Attention-merge layer来代替它,希望能够保证强/弱特征都能产生效果。

  • Seeds Representation:在推荐系统中有大量的用户,那么如何使用每个用户的representation来表示种子群是一个比较关键的问题。在这里,RALM使用了global 和local 两部分的representation来保证其稳健性和自适应能力。

  • Real-time Look-alike:它是一个实时模型,那么为了减少线上计算的时间复杂度,RALM对种子用户进行了聚类,然后保存了每一类的质心,那么线上只需要计算质心的embedding和目标用户的相似度即可,将耗时从1000ms降低到了20ms

实现流程

RALM模型主要分为三个流程:离线训练、在线异步处理、在线服务。这里先简单介绍一下它们都干了啥,模型细节在后面聊。

离线训练

离线训练目的是为了得到用户的高阶特征。

  • 输入:Multi-Fields User Features
  • User Representation Learning
  • Look-alike Learning (部分)
  • 输出: Look-alike Embedding(cache)

它的输入是一些multi-fields的用户特征,训练过程主要包括两个阶段的训练:user representation learning和look alike learning。这里需要的注意的是,虽然look-alike学习在框架图中写在离线训练部分,但其实相似度计算、在线异步处理其实都是look-alike建模过程中的流程,而这里的离线训练只是look-alike学习中的一部分。

  • User Representation Learning:在user representation learning 这一步是为了去学习用户的高阶画像,得到是所有user (包括seed users和target user)共有的特征,然后将其传入look alike learning。
  • Look-alike Learning:look alike模型在离线训练的这一部分中,会对前面的user representation再次经过一次FC,然后得到look-alike user embedding,这一部分会被储存下来,以供线上服务直接拉取。
系统架构:离线训练

在线异步处理

离线训练结束后,是在线异步处理,这一步的目的是为了得到seeds的Raw Feeds Embedding。

  • 【对候选集中所有内容遍历进行以下操作】
  • 输入:最新的300万点击用户的user embedding
  • 每5分钟进行 K-means 聚类,保存簇中心
  • 输出: Raw Feeds Embedding & E_{global}

这一步虽然是叫“在线”,但其实与线上请求无关,也是离线计算的,是一种定时离线计算。

假设候选内容里可能有100篇最新的或者高质量的文章,那么对于每一篇文章,如何去获得每个候选文章的种子用户群,就是在这一步完成。种子用户就是点击过该文章的用户,那么一段时间后每篇候选的文章都会对应一个种子用户列表,这个用户列表可以从用户点击日志中获取,并且会随着时间过去越来越多。不过,如果点击用户过多,也会造成聚类效果的下降,这里只取最新的300万点击用户作为原始种子用户(可少不可多)

那么,对于这些种子用户,可以取出他们在离线训练中得到的Look-alike Embedding,进行聚类,聚类个数就是最终种子用户群的个数,论文里使用k=20。然后计算它们的K-Means 聚类中心,保存下来,作为Raw Seeds Embedding。但是这个种子用户列表与目标用户无关,也没必要实时更新,只需要隔一段时间更新一次就行,论文里使用的是5分钟。

此外,由于这里已经对种子用户进行了聚类,那么E_{global},也就是种子全局特征也可以进行离线计算并保存下来了,至于这个具体如何计算后续再细讲。所以这一步是定时输出Raw Seeds Embedding和E_{global}

系统架构:在线异步处理

在线服务

这一步才是真正的实时在线计算。这一步的目的是计算target和seeds的相似度。

  • 输入:Target User
  • 拉取 Target User Embedding,遍历每一篇候选内容,拉取raw seeds embedding
  • 计算 E_{local},得到相似度,提供曝光依据
  • 输出: Similarity score

那么,论文认为对相似度的计算应该同时考虑共性信息的相似个性信息的相似,这里的共性信息和个性信息分别就是指global embedding和local embedding,然后对它们进行加权求和。

在前面两步中,我们已经通过离线和定时离线把seeds embedding 、global embedding 和所有用户的look-alike embedding 都已缓存好。因此,当目标用户进行请求时,只需要从内存中拉取它们,然后在线上计算local embedding,然后再计算一次 cosine,就可以得到两者的相似度了。这个计算量很小,完全可以满足线上耗时的要求。

系统架构:在线服务

模型细节

接下来针对模型细节进行分析。

User Representation Learning

首先来关注离线训练部分的User Representation Learning。

这个模型是用 Youtube DNN模型演化过来的。在拼接层,Youtube DNN用的是直接concat的方式,但是这会导致一个问题:强特征过拟合、弱特征欠拟合,学习不均匀。可以看左下角的图,这是其中某个特征域使用concat层在训练过程中的参数分布变化,基本上都是0,没学到东西。

User Representation Learning:框架

也就是说,在这一步遇到了一个问题:不同特征域的学习效果不能自适应变化

因为用户的原始特征用到了很多个field,每个 field可能是每个用户在每个分布下的行为,如电商购物的行为,或者是公众号阅读的行为。如果现在训练一个模型,特征目标是在“看一看”中的阅读行为,对于某些经常使用微信公众号、或者阅读的用户来说,他们在公众号平台的阅读历史就是非常强的关联特征,能够决定再看一看中的兴趣。对于这些特征来说,这些特征是很强的,而其它电商购物或者是搜索特征就是比较弱的,但并不意味着这些特征就不重要了。如果现在有一些新用户,它们没有在公众号平台的阅读历史,但是他们有过购物或者搜索,这时候影响他下一次阅读的文章就是购物或者搜索的历史行为,但目前,显然这些用户是没有学到这些变化的。

所以为了解决这个问题呢,论文把YouTubeDNN中的concat merge层用了一个self-attention去代替。这个机制的优点是,可以针对不同用户的特征域输入来动态调整merge layer的方式。

当然,Attention也有很多类别,一部分attention模型可以简化为这样一张图。有三个矩阵Q,K,V,输入为Q,KV表示上下文信息。第一步计算点乘,然后为了防止结果过大,除以一个尺度,然后进行mask和softmax,最后将输出结果与V进行相乘得到权重求和。

User Representation Learning:Self Attention介绍

那么self-attention就是指里面的QKV三个矩阵是一样的,是输入的本身。通过这一种方式,就能够让不同的域在自己的向量空间中学习充分,再通过不同的权重组合在一起。其实是相当于让用户能有属于自己的表达,而不是被历史丰富的用户带着走,可以明显改善强弱特征训练不均衡的问题。

之前学习不到的参数在加入Attention之后就有了明显的变化。下图是加入attention merge的一个效果对比,可以看到模型在 AUC 和 Loss 上都有所优化,而且收敛速度也会快一点。

User Representation Learning:目的与效果

那么,再回到论文的结构。对感兴趣的item特征进行同样的操作,然后将user embedding和item embedding作点积后进行训练。

这里使用的损失函数是参考了Google word2vec中的NCE loss。因为普通的模型归一化部分使用的是softmax,而推荐其实是个非常多分类的问题,这里是通过负采样的方式来解决归一化项。这个好处是固定其他权重,每次只更新部分权重,减少计算量。论文中设置每个用户的最大正样本数限制为50个,正负样本比例为1/10,也就是说每次只需要更新被负采样出来的500个参数即可。

User Representation Learning:损失函数的设定

User Representation Learning部分训练的目的是预测:用户在点击了已有的item 之后下一个要点击的 item是什么,也就是得到最后能够表达用户兴趣的 embedding。

Look-alike Learning

Look-alike learning是整篇论文的核心部分。

Look-alike learning的核心目的是为了学习seed用户和目标用户之间的相关性,使用的其实是一个双塔模型。左边的是“种子塔”,右边是“目标塔”。假设一篇文章有n个种子用户,那么种子塔的输入embedding是一个n\times m的矩阵,目标塔是1\times m

Look-alike Learning:框架

首先是在离线部分,它们会再进行一层FC,然后将原来m维的矩阵转换为h维的embedding,这一部分的输出会被保存在内存中。由于考虑到过拟合的风险,所以种子塔和目标塔是共享一层参数的。(共享参数我在这里理解的是,实际上模型进行到这时还没拆分为两个塔,其实就是对所有的user embedding再加一层FC而已,不过不确定这样理解是否正确。)

那么,接下来要做的是如何表达 seeds user。

因为这里输入的还是原始的种子用户embedding,没有得到种子群的embedding,所以先对他们进行一个异步定时聚类,主要目的是减少信息损失和降低时间复杂度。在前面提到,因为种子用户是选取了最新点击的300w用户,也就是说n=3000000,那么在后续进行各种线上计算的时候对耗时的要求也很高。那么如果想减少耗时,就需要降低n如果使用减少种子用户数量的方式,可能就会造成种子用户代表性不够、信息损失大。所以论文中使用了k-means聚类的方式,然后选取每一类的质心作为这一群用户的embedding,这样就得到了种子用户群。这里根据实验k=20。也就是说,从原来的3000000\times h变为了20\times h(微信团队对耗时进行了实验,从原来的1000ms降低到了20ms)

这样就得到了种子群,那么种子群应该包含什么信息呢?论文提出:种子用户群的相对表达=个性信息+共性信息

  • 共性信息。和目标用户无关,只和用户群体自身有关。每个用户都有自己的兴趣,但对整个群体的人群信息存在不同的贡献度。

  • 个性信息。种子群体中一定存在一小部分用户和 target 用户兴趣相似,这时,当 target 人群变化时,信息会变化。

Look-alike Learning:global&local embedding

那么怎样去学习这两种信息呢,依旧是使用了 attention 机制,但是这边是两个不同的attention。

  • global embedding:依旧是一个self attention,这一部分与目标用户无关,捕捉用户群体自身内部的兴趣分布,可以离线预先计算好。
  • local embedding:这是一个乘法attention,与self attention不同的就是它是对seed和user进行了相乘,来提取种子用户群体中和 target user 相关的部分,捕获种子用户的 local info。

计算公式见PPT右上角。那么,有了这两个 embedding 之后,分别与目标用户的embedding作cosine,计算相似性,然后通过加权和的方式,得到结合了两部分信息的相似性得分。最后再去拟合 user 到 item 的 label,这就完成了种子用户的扩展。相似度得分可直接给到排序服务,做曝光依据。到这里,模型就介绍完了。

模型效果

论文也对模型的效果进行了评估。评估部分使用的数据、模型与指标如下:

  • 数据:微信看一看推荐系统中的真实流量数据
  • 特征:用户性别、年龄、感兴趣的类别和标签、历史阅读articleID。不过这里因为数据集太大,考虑的特征很少,所以AUC没有公共数据集高。
  • 对比模型:逻辑回归,雅虎的look-alike模型、YouTubeDNN和RALM但是使用userembedding的平均的模型。
  • 指标:除了AUC,还用了prec@K,表示被推荐的排名前K的结果中用户实际阅读的条目。
模型评估:数据&对比模型的选择

离线评估

首先是离线评估结果。

可以看到LR和Yahoo Look-alike模型的效果相对并不好,而相比之下深度模型效果更好而与Youtube DNN相比,RALM with平均的模型效果反而较差,这意味着简单地平均用户embedding并不像end-to-end深度模型那样有效。

RALM with attention units在所有模型中表现最好,也就是说attention机制确实有助于种子用户信息的提取,并发现种子与目标用户之间的局部关系。

模型评估:离线评估

在线A/B测试结果

为了验证RALM给推荐系统带来的真正好处,微信团队从2018年11月至2018年12月在微信“Top Stories”推荐系统中进行了在线A/B测试。

他们将在线流量按用户id进行划分,并按相同比例分配给对照组和实验组,对照组是用户画像匹配推送的策略。评估指标的定义可以参见论文。

从表中可以看出:由于受众的扩大,曝光率得到了很大的提升。在扩大曝光规模的前提下,CTR 基本取向稳定,而且有微小提升,说明扩展用户对这些内容也很感兴趣。此外,用户的兴趣面得到了扩展,类别和标签的多样性也显著增加。基尼系数增长了5.36%,马太效应得到缓解。

总的来说,RALM对种子用户进行了高质量和多样化的推广,所有推荐内容都可以到达合适的目标用户。

模型评估:在线A/B测试结果

其它补充

注:这里的内容基本来自于作者在社交平台上的分享与评论解答,具体可以参见引用中的两篇文章。

冷启动曝光

在一篇文章刚推出来时,它的种子用户为0,这里肯定还是要进行初始曝光的。微信是先使用语义特征和用户画像做了简单的MLP预估点击率,在累积了大约100个种子用户后,就可以进行look-alike算法了。

其它补充:冷启动曝光

模型调优

为了避免模型过拟合,作者也采取了比较多的方式去进行模型调优。

  • 尽量保证look-alike learning结构简单,并在全连接层加入dropout。
  • 采用 stacking model 的形式。看一看阅读、电商、新闻、音乐领域都做一次 user representation learning,这些特征用 stacking 的模式都放到 look alike model 中学习,这就是不同特征根据不同目标来训练的,更加减少了在同一个模型中过拟合的防线。
其它补充:模型调优

细节问答

  • Q:这个算法有没有在召回环节用,曝光该如何理解?

目前的策略有两种方式:

  1. 直接采用召回的方式,定一个曝光阈值,直接确定是否曝光;
  2. 把相似分数给到下游的 CTR model 作为参考。

Q:能否将两阶段学习合并成一个端到端学习?

End-to-End 方式存在两个问题:

  1. 整个模型参数量很大,结构比较复杂,采用 End-to-End 方式不一定能学习到或者学习的很充分;
  2. 刚刚讲到的 stacking 方式,我们最后需要的是尽可能全的表达用户的方式,所以右侧的 user representation learning 并不是从单一业务领域得出的结果,有可能是在多个领域得到的结果,比如在看一看训练一版 user representation learning,然后用社交或者电商上的行为,再做一版用户的表示,最后用 stacking 的方式把它们拼接起来,作为特征输入,这样达到的效果会更好。

Q:如果将第一阶段用户表征学习换成其他通用能学习表征用户向量的模型,效果会有什么影响?

我们单独用 user representation learning 和其它模型做过对比,比如 CTR 中的 user embedding,是针对当前业务比较精准化的表达,所在在泛化性上没有 user representation learning 效果好。

Q:第一个epoch的时候,如何获取聚类中心?

第一轮就可以聚类,先过随机初始化的FC层,然后聚类,后面根据网络调优。

Q:聚类部分如何迭代?

聚类的过程需要迭代,比较耗时,并非每个 batch 都去更新聚类中心,而是采取迭代更新的方式,比如把1000个 batch 一轮,训练完1000个 batch 之后,这1000个 batch 中,不更新聚类中心;到了第二轮,根据全连接参数的变化,再去更新种子用户的聚类中心,每通过一轮更新一次聚类中心,保证和核心参数是同步的。这样既保证了训练的效率,也保证了训练的准确性。聚类的优化,使线上的计算次数减小到了 k/K 中,之前 K 是万级别的数量,现在 k 是百级别的数量,耗时也下降了很多。

引用与参考

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342

推荐阅读更多精彩内容