从 KDD 2018 Best Paper 看 Airbnb 实时搜索排序中的 E
这里是 「王喆的机器学习笔记」 的第八篇文章,今天我们聊一聊 KDD 2018 的 Best Paper,Airbnb 的一篇极具工程实践价值的文章 Real-time Personalization using Embeddings for Search Ranking at Airbnb 。
相信大家已经比较熟悉我选择计算广告和推荐系统相关文章的标准:
- 工程导向的;
- 阿里、facebook、google 等一线互联网公司出品的;
- 前沿或者经典的。
Airbnb 这篇文章无疑又是一篇兼具实用性和创新性的工程导向的 paper。文章的作者 Mihajlo 发表这篇文章之前在 Recsys 2017 上做过一个 talk,其中涉及了文章中的大部分内容,我也将结合那次 talk 的 slides 来讲解这个论文。
废话不多说,我们进入文章的内容。
Airbnb 作为全世界最大的短租网站,提供了一个连接房主(host)挂出的短租房(listing)和主要是以旅游为目的的租客(guest/user)的中介平台。这样一个中介平台的交互方式比较简单,guest 输入地点,价位,关键词等等,Airbnb 会给出 listing 的搜索推荐列表:
Airbnb 的业务场景
容易想见,接下来 guest 和 host 之间的交互方式无非有这样几种:
- guest 点击 listing (click)
- guest 预定 lising (book)
- host 有可能拒绝 guest 的预定请求 (reject)
Airbnb 的交互方式
基于这样的场景,利用几种交互方式产生的数据,Airbnb 的 search 团队要构建一个 real time 的 ranking model。为了捕捉到用户 short term 以及 long term 的兴趣,Airbnb 并没有把 user history 的 clicked listing ids 或者 booked listing ids 直接输入 ranking model,而是先对 user 和 listing 进行了 embedding,进而利用 embedding 的结果构建出诸多 feature,作为 ranking model 的输入。这篇文章的核心内容就是介绍如何生成 listing 和 user 的 embedding。
具体到 embedding 上,文章通过两种方式生成了两种不同的 embedding 分别 capture 用户的 short term 和 long term 的兴趣。
- 一是通过 click session 数据生成 listing 的 embedding,生成这个 embedding 的目的是为了进行 listing 的相似推荐,以及对用户进行 session 内的实时个性化推荐。
- 二是通过 booking session 生成 user-type 和 listing-type 的 embedding,目的是捕捉不同 user-type 的 long term 喜好。由于 booking signal 过于稀疏,Airbnb 对同属性的 user 和 listing 进行了聚合,形成了 user-type 和 listing-type 这两个 embedding 的对象。
我们先讨论第一个对 listing 进行 embedding 的方法:
Airbnb 采用了 click session 数据对 listing 进行 embedding,其中 click session 指的是一个用户在一次搜索过程中,点击的 listing 的序列,这个序列需要满足两个条件,一个是只有停留时间超过 30s 的 listing page 才被算作序列中的一个数据点,二是如果用户超过 30 分钟没有动作,那么这个序列会断掉,不再是一个序列。
Click Session 的定义和条件
这么做的目的无可厚非,一是清洗噪声点和负反馈信号,二是避免非相关序列的产生。
有了由 clicked listings 组成的 sequence,就像我们在之前专栏文章中讲过的 item2vec 方法一样,我们可以把这个 sequence 当作一个“句子”样本,开始 embedding 的过程。Airbnb 不出意外的选择了 word2vec 的 skip-gram model 作为 embedding 方法的框架。通过修改 word2vec 的 objective 使其靠近 Airbnb 的业务目标。
Airbnb 的类 word2vec embedding 方法
我们在之前的专栏文章 万物皆 embedding 中详细介绍了 word2vec 的方法,不清楚的同学还是强烈建议先去弄明白 word2vec 的基本原理,特别是 objective 的形式再继续下面的阅读。
我们假设大家已经具备了基本知识,这里直接列出 word2vec 的 skip-gram model 的 objective 如下:
在采用 negative sampling 的训练方式之后,objective 转换成了如下形式:
其中σ函数代表的就是我们经常见到的 sigmoid 函数,D 是正样本集合,D’是负样本集合。我们再详细看一下上面 word2vec 这个 objective function,其中前面的部分是正样本的形式,后面的部分是负样本的形式(仅仅多了一个负号)。
为什么原始的 objective 可以转换成上面的形式,其实并不是显然的,感兴趣的同学可以参考这篇文章, Negative-Sampling Word-Embedding Method。这里,我们就以 word2vec 的 objective function 为起点,开始下面的内容。
转移到 Airbnb 这个问题上,正样本很自然的取自 click session sliding window 里的两个 listing,负样本则是在确定 central listing 后随机从语料库(这里就是 listing 的集合)中选取一个 listing 作为负样本。
因此,Airbnb 初始的 objective function 几乎与 word2vec 的 objective 一模一样,形式如下:
(给大家出个脑筋急转弯,为啥 Airbnb objective 的正样本项前面是负号,原始的 word2vec objective 反而是负样本项前面是负号,是 Airbnb 搞错了吗?)
在原始 word2vec embedding 的基础上,针对其业务特点,Airbnb 的工程师希望能够把 booking 的信息引入 embedding。这样直观上可以使 Airbnb 的搜索列表和 similar item 列表中更倾向于推荐之前 booking 成功 session 中的 listing。从这个 motivation 出发,Airbnb 把 click session 分成两类,最终产生 booking 行为的叫 booked session,没有的称做 exploratory session。
因为每个 booked session 只有最后一个 listing 是 booked listing,所以为了把这个 booking 行为引入 objective,我们不管这个 booked listing 在不在 word2vec 的滑动窗口中,我们都会假设这个 booked listing 与滑动窗口的中心 listing 相关,所以相当于引入了一个 global context 到 objective 中,因此,objective 就变成了下面的样子
其中最后一项的 lb 就是代表着 booked listing,因为 booking 是一个正样本行为,这一项前也是有负号的。
需要注意的是最后一项前是没有 sigma 符号的,前面的 sigma 符号是因为滑动窗口中的中心 listing 与所有滑动窗口中的其他 listing 都相关,最后一项没有 sigma 符号直观理解是因为 booked listing 只有一个,所以 central listing 只与这一个 listing 有关。
但这里的 objective 的形式我仍让是有疑问的,因为这个 objective 写成这种形式应该仅代表了一个滑动窗口中的 objective,并不是整体求解的 objective。如果是整体的 objective,理应是下面的形式:
其中 Db 代表了所有 booked session 中所有滑动窗口中 central listing 和 booked listing 的 pair 集合。
不知道大家有没有疑问,我们可以在这块多进行讨论。
下面这一项就比较容易理解了,为了更好的发现同一市场(marketplace)内部 listing 的差异性,Airbnb 加入了另一组 negative sample,就是在 central listing 同一市场的 listing 集合中进行随机抽样,获得一组新的 negative samples。同理,我们可以用跟之前 negative sample 同样的形式加入到 objective 中。
其中 Dmn 就是新的同一地区的 negative samples 的集合。
至此,lisitng embedding 的 objective 就定义完成了,embedding 的训练过程就是 word2vec negative sampling 模型的标准训练过程,这里不再详述。
除此之外,文章多介绍了一下 cold start 的问题。简言之,如果有 new listing 缺失 embedding vector,就找附近的 3 个同样类型、相似价格的 listing embedding 进行平均得到,不失为一个实用的工程经验。
为了对 embedding 的效果进行检验,Airbnb 还实现了一个 tool,我们简单贴一个相似 embedding listing 的结果。
Airbnb Similar Listing
从中可以看到,embedding 不仅 encode 了 price,listing-type 等信息,甚至连 listing 的风格信息都能抓住,说明即使我们不利用图片信息,也能从用户的 click session 中挖掘出相似风格的 listing。
至此我们介绍完了 Airbnb 利用 click session 信息对 listing 进行 embedding 的方法。写到这里笔者基本要断气了,下一篇我们再接着介绍利用 booking session 进行 user-type 和 listing-type embedding 的方法,以及 Airbnb 如何把这些 embedding feature 整合到最终的 search ranking model 中的方法。
最后给大家三个问题以供讨论:
- 为什么 Airbnb objective 中正负样本的正负号正好跟 word2vec objective 的正负号正好相反?
- Airbnb 加入 booked listing 作为 global context,为什么在 objective 中不加 sigma 加和符号?
- 这里我们其实只得到了 listing 的 embedding,如果是你,你会怎样在 real time search ranking 过程中使用得到的 listing embedding?
这里是 **「王喆的机器学习笔记」** 的第八篇文章,水平有限,欢迎大家拍砖、吐槽、讨论。觉得有收获的同学也欢迎点赞,谢谢。
参考资料:
- Search Ranking and Personalization at Airbnb Slides
- Real-time Personalization using Embeddings for Search Ranking at Airbnb
- Negative-Sampling Word-Embedding Method
- Recommender System Paper List
时间:2019-01-24 20:23 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
- [机器学习]深度学习推荐系统中各类流行的Embedding方法(下
- [机器学习]深度学习推荐系统中各类流行的Embedding方法(上
- [机器学习]万物皆Embedding,从经典的word2vec到深度学习基本操
- [机器学习]Transformer 在美团搜索排序中的实践
- [机器学习]阿里妈妈深度树检索技术(TDM)及应用框架的探
- [机器学习]360 搜索的百亿级网页搜索引擎架构实现
- [机器学习]ESearch: 58 搜索内核设计与实践—实时索引篇
- [机器学习]番外篇:Lucene 索引流程与倒排索引实现
- [机器学习]Lucene 倒排索引原理探秘 (2)
- [机器学习]Lucene 倒排索引原理探秘 (1)
相关推荐:
网友评论: