行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器学习 正文

美团配送交付时间轻量级预估实践

导读: 在本文中,我们介绍了交付时间预估迭代的三个版本,分别为基于地址结构的树模型、向量召回方案以及轻量级的 End-to-End 的深度学习网络。同时介绍了如何在性能和指标之间取舍,以及模型策略迭代的中间历程,希望能给从事相关工作的同学们有所启发和帮助。

1. 背景

可能很多同学都不知道,从打开美团 App 点一份外卖开始,然后在半小时内就可以从骑手小哥手中拿到温热的饭菜,这中间涉及的环节有多么复杂。而美团配送技术团队的核心任务,就是将每天来自祖国各地的数千万份订单,迅速调度几十万骑手小哥按照最优路线,并以最快的速度送到大家手中。

在这种场景下,骑手的交付时间,即骑手到达用户附近下车后多久能送到用户手中,就是一个非常重要的环节。下图是一个订单在整个配送链路的时间构成,时间轴最右部分描述了交付环节在整个配送环节中的位置。交付时间衡量的是骑手送餐时的交付难度,包括从骑手到达用户楼宇附近,到将餐品交付到用户手中的整个时间。

交付时间的衡量是非常有挑战的一件事,因为骑手在送餐交付到用户手中时会碰到不同的问题,例如:骑手一次送餐给楼宇内多个用户,骑手对于特定楼宇寻址特别困难,骑手在交付楼宇附近只能步行,老旧小区没有电梯,写字楼无法上楼,或者难以等到电梯等等。交付时间预估需要具备刻画交付难度的能力,在定价、调度等多个场景中被广泛使用。例如根据交付难度来确定是否调节骑手邮资,根据交付难度来确定是否调节配送运单的顺序,从而避免超时等等。总的来说,交付时间预估是配送业务基础服务的重要一环。

但是,交付时间预估存在如下的困难:

  • 输入信息较少,且多为非数值型数据,目前能够被用来预估的仅有如下维度特征:交付地址、交付点的经纬度、区域、城市,适配常规机器学习模型需要重新整理且容易丢失信息。

  • 计算性能要求很高。由于是基础服务,会被大量的服务调用,需要性能 TP99 保证在 10ms 以内,整个算法平均响应时间需要控制在 5ms 内,其中包括数据处理及 RPC 的时间。且该标准为 CPU 环境下的性能要求,而非 GPU 下的性能要求。

上图为部分版本所对应的性能,平响时间均在 5ms 内,TP99 基本在 10ms 内

总结起来,交付时间预估的问题,在于需要使用轻量级的解决方案来处理多种数据形式的非数值型数据,并提取有效信息量,得到相对准确的结果。在相同效果的前提下,我们更倾向于性能更优的方案。

在本文中,我们介绍了交付时间预估迭代的三个版本,分别为基于地址结构的树模型、向量召回方案以及轻量级的 End-to-End 的深度学习网络。同时介绍了如何在性能和指标之间取舍,以及模型策略迭代的中间历程,希望能给从事相关工作的同学们有所启发和帮助。

2. 技术迭代路径

首先,在交付时间预估的技术迭代上,我们主要经历了三个大版本的改动,每一版本在 5ms 计算性能的约束下,追求轻量化的解决方案,在兼顾提升效果的基础上,不显著增加性能的消耗。

本章节分别叙述了 3 个模型的迭代路径,包括技术选型、关键方案及最终效果。

2.1 树模型

技术选型

最早也是最容易被考虑到的是利用规则,核心思路是利用树结构衡量地址相似性,尽可能在相似的交付地址上积聚结构化数据,然后利用局部的回归策略,得到相对充裕的回归逻辑,而未能达到回归策略要求的则走兜底的策略。

为了快速聚积局部数据,树模型是一个较为合适的解决方案,树的规则解析能够有效地聚集数据,同时一个层级并不深的树,在计算速度上,具备足够的优势,能够在较短的时间内,得到相对不错的解决方案。

观察用户填写地址以及联系实际中地址的层级结构,不难发现,一个地址可以由四级结构组成:地址主干词(addr)、楼宇号(building)、单元号(unit)、楼层(floor)。其中的地址主干词在实际中可能对应于小区名或者学校名等地标名称。例如望京花园 1 号楼 2 单元 5 楼,解析为(望京花园,1 号楼,2 单元,5 楼)。通过分析,实际交付时长与楼层高低呈正相关关系,且不同交付地址的交付时长随楼层增加的变化幅度也有所区别,所以可以使用线性回归模型拟合楼层信息和交付时长的关系,而地址主干词、楼宇号、单元号作为其层级索引。但用户填写的地址中并不一定包含完整的四级结构,就会存在一定比例的缺失,所以利用这样的层级结构构建成一棵树,然后充分利用上一层已知的信息进行预估。预测时,只需根据结点的分支找到对应的模型即可,如果缺失,使用上一层结构进行预测。对于没有达到训练模型要求数据量的地址,使用其所在的区域平均交付时长作为交付时长的预估结果,这部分也可以看作区域信息,作为树结构的根节点。

迭代路径

整体的思路是基于离散特征训练树模型,在树的结点上基于楼层训练线性回归模型。树结点训练分裂规则:(1)数据量大于阈值;(2)分裂后 MAE(平均绝对误差)的和小于分裂前。考虑到数据的时效性,采用加权线性回归增加近期数据的权重。

2.2 树模型 + 向量召回方案

技术选型

向量召回作为主流的召回方案之一,被业界广泛使用,在使用 LSH、PQ 乘积量化等常用开源工具基础上,高维向量召回性能通常在毫秒量级。

而从算法上考虑,树模型中 NLP 地址解析结果能够达到模型使用要求的仅为 70%+,剩余 20%+ 的地址无法通过训练得到的模型从而只能走降级策略。利用高维向量来表达语义相似性,即利用向量来表达地址相似性,从而用相似数据对应的模型来替代相似但未被召回数据,将地址主干词进行 Embedding 后,摆脱主干词完全匹配的低鲁棒性。

例如,在地址上可能会出现【7 天酒店晋阳街店】数据量比较充足,但【7 天连锁酒店太原高新区晋阳街店】数据量不充足从而无法训练模型的案例,这可能是同一个交付位置。我们希望尽可能扩大地址解析的成功率。

迭代路径

整个技术路径较为清晰简单,即利用 Word2Vec 将 charLevel 字符进行 Embedding,获得该地址的向量表示,并且融入 GPS 位置信息,设计相应兜底策略。

向量召回方案决策路径

最终效果

比较大地提升了整体策略的召回率,提升了 12.20pp,对于未被上一版本树模型召回的地址,指标有了显著的提升,其中 ME 下降 87.14s,MAE 下降 38.13s,1min 绝对偏差率减小 14.01pp,2min 绝对偏差率减小 18.45pp,3min 绝对偏差率减小 15.90pp。

2.3 End-to-End 轻量化深度学习方案

技术选型

在树模型的基础上,迭代到向量召回方案,整个模型的召回率有了较大幅度的增长,但仍然不是 100%。分析发现,召回率提升的障碍在于 NLP 对于地址解析的覆盖率。

整个方案的出发点:

从模型复杂度考虑,同样仅仅使用地址信息的话,在提升模型 VC 维的基础上,使用其他的模型方案至少可以持平树模型的效果,如果在这基础上还能融入其他信息,那么对于原模型的基线,还能有进一步的提升。

考虑到不仅仅需要使用地址数据,同时需要使用 GPS 数据、大量 ID 类的 Embedding,对于各类非数值类型的处理灵活性考虑,采用深度学习的方案,来保证多源且多类型特征能在同一个优化体系下优化学习。

工程上需要考虑的点:

交付模型作为基础模型,被广泛应用在路径构造、定价、ETA 等各个业务中频繁调用,在树模型版本中,对于性能的要求为平均响应时间 5ms,TP99 在 10ms 左右,本方案需要考虑沿袭原业务的性能,不能显著增加计算耗时。

交付模型的难点在于非数值型特征多,信息获取形式的多样化,当前的瓶颈并不在于模型的复杂度低。如果可以轻量地获取信息及融合,没必要对 Fusion 后的信息做较重的处理方案。

所以整体的设计思路为:利用深度学习融合非数值型特征,在简单 Fusion 的基础上,直接得到输出结构,对于组件的选择,尽可能选用 Flops 较低的设计。该设计背后意图是,在充分使用原始输入信息,在尽可能避免信息损失的基础上,将非数值型的信息融入进去。并将信息充分融合,直接对接所需要的目标。而选用的融合组件结构尽可能保证高性能,且具备较高学习效率。这里分别针对地址选用了较为 Robust 的 LSTM,针对 GPS 选用了自定义的双线性 Embedding,兼顾性能和效果。

迭代路径

开始采用端到端的深度学习模型,这里首先需要解决的是覆盖率问题,直接采用 LSTM 读取 charLevel 的地址数据,经过全连接层直接输出交付时间。作为第一版本的数据,该版本数据基本持平树模型效果,但对于树模型未召回的 20% 数据,有了较大的提升。

地址信息输入 charLevel 模型

在采用 charLevel 的地址奏效后,我们开始采用加入用户地址 GPS 的信息,由于 GPS 为经纬度信息,非数值型数据,我们使用一种基于地理位置格点的双线性插值方法进行 Embedding。该方案具备一定的扩展性,对不同的 GPS 均能合理得到 Embedding 向量,同时具备平滑特性,对于多对偏移较小的 GPS 点能够很好的进行支持。

最终方案将地址 Embedding 后,以及 GPS 点的 Embedding 化后,加入下单时间、城市 ID、区域 ID 等特征后,再进行特征融合及变换,得到交付模型的时间预估输出。整个模型是一个端到端的训练,所有参数均为 Trainable。

模型结构示意图

扩展组件

在证实 End-to-End 路径可行后,我们开始进行扩展组件建设,包括自定义损失函数、数据采样修正、全国模型统一等操作,得到一系列正向效果,并开发上线。

特征重要性分析

对于深度学习模型,我们有一系列特征重要性评估方案,这里采用依次进行 Feature Permutation 的方式,作为评估模型特征重要性的方式。

考虑 GPS 经纬度和用户地址存在较大程度的信息重叠,评估结果如下。Shuffle 后,用户地址的特征重要性高于 GPS 经纬度的特征重要性。加入 GPS 后 ME 下降不如地址信息明显,主要是地址信息包含一定冗余信息(下文会分析),而其他信息的影响则可以忽略不计。

注:在配送的其他案例中,商户 GPS 的经纬度重要性 >> 用户地址重要性 >> 用户 GPS 的经纬度重要性,该特征重要性仅仅为本案例特征重要性排序,不同学习目标下可能会有比较明显差别。

最终效果****

End-to-End 深度学习模型的最终效果较为显著:对于树模型及向量召回方案的最痛点,覆盖率得到彻底解决,覆盖率提升到 100%。ME 下降 4.96s,MAE 下降 8.17s,1min 绝对偏差率减小 2.38pp,2min 绝对偏差率减小 5.08pp,3min 绝对偏差率减小 3.46pp。同时,对于之前树模型及向量召回方案未能覆盖到的运单,提升则更为明显。

3. 模型相关分析

在整个技术迭代的过程中,由于整个解决方案对于性能有着较为苛刻的要求,需要单独对方案性能进行分析。本章节对向量召回方案及深度学习方案进行了相应的性能分析,以便在线下确认性能指标,最终保证上线后性能均达到要求。下文分别着重介绍了向量匹配的工具 Faiss 以及 TensorFlow Operation 算子的选取,还有对于整体性能的影响。


  • 本文地址:http://www.6aiq.com/article/1571121996334
  • 本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出
  • 知乎专栏 点击关注

同时对比 End-to-End 生成向量与 Word2Vec 生成向量的质量区别,对于相关项目具备一定的借鉴意义。

3.1 向量召回性能

最近邻搜索(Nearest Neighbor Search)指的是在高维度空间内找到与查询点最近点的问题。在数据样本小的时候,通过线性搜索就能满足需求,但随着数据量的增加,如达到上百万、上亿点时候,倾向于将数据结构化表示来更加精确地表达向量信息。

此时近似最近邻搜索 ANN(Approximate Nearest Neighbor)是一个可参考的技术,它能在近似召回一部分之后,再进行线性搜索,平衡效率和精度。目前大体上有以下 3 类主流方法:基于树的方法,如 K-D 树等;基于哈希的方法,例如 LSH;基于矢量量化的方法,例如 PQ 乘积量化。在工业检索系统中,乘积量化是使用较多的一种索引方法。

针对向量召回的工具,存在大量的开源实现,在技术选型的过程中,我们参照 ANN-Benchmarks 以及 Erikbern/ANN-Benchmarks 中的性能评测结果。在众多 ANN 相关的工具包内,考虑到性能、内存、召回精度等因素,同时可以支持 GPU,在向量召回方案的测试中,选择以 Faiss 作为 Benchmark。

Faiss 是 FaceBook 在 2017 年开源的一个用于稠密向量高效相似性搜索和密集向量聚类的库,能够在给定内存使用下,在速度和精度之间权衡。可以在提供多种检索方式的同时,具备 C++/Python 等多个接口,也对大部分算法支持 GPU 实现。

下图为 Faiss 测评曲线:

交付时间模型召回的性能测试如下,可以达到性能需求。

  • 召回候选集数量:8W 条向量【由于采用了 GPS 距离作为距离限制,故召回测试采用 8W 数量级】。

  • 测试机器:Mac 本机 CPU【CPU 已满足性能,故不再测试 GPU】。

3.2 序列模块性能

在 TensorFlow 系统中,以 C API 为界限,将系统划分为【前端】和【后端】两个子系统,前端扮演 Client 角色,完成计算图的构造,然后由 Protobuf 发送给后端启动计算图计算。计算图的基础单元是 OP,代表的是某种操作的抽象。在 TensorFlow 中,考虑到实现的不同,不同 OP 算子的选择,对于计算性能具有较大影响。

为了评测深度学习交付模型的性能瓶颈,首先对整个模型进行 Profile,下图即为 Profile 后的 Timeline,其中整个计算大部分消耗在序列模块处理部分,即下图中的蓝色部分。故需要对序列模块的计算性能进行 OP 算子的加速。

考虑到序列处理的需求,评估使用了 LSTM/GRU/SRU 等模块,同时在 TensorFlow 中,LSTM 也存在多种实现形式,包括 BasicLSTMCell、LSTMCell、LSTMBlockCell、LSTMBlockFusedCell 和 CuDNNLSTM 等实现,由于整个交付模型运行在 CPU 上,故排除 CuDNNLSTM,同时设置了全连接层 FullyConnect 加入评估。

从评估中可以发现,全连接层速度最快,但是对于序列处理会损失 2.3pp 效果,其余的序列模型效果差异不大,但不同的 OP 实现对结果影响较大。原生的 BasicLSTM 性能较差,contrib 下的 LSTMBlockFusedCell 性能最好,GRU/SRU 在该场景下未取得显著优势。

这是 LSTMBlockFusedCell 的官方说明,其核心实现是将 LSTM 的 Loop 合并为一个 OP,调用时候整个 Timeline 上更为紧凑,同时节约时间和内存:

This is an extremely efficient LSTM implementation, that uses a single TF op for the entire LSTM. It should be both faster and more memory-efficient than LSTMBlockCell defined above.

以下是序列模块的性能测试:

  • 环境:Tensorflow1.10.0,CentOS 7。

  • 测试方法:CPU inference 1000 次,取最长的地址序列,求平均时间。

  • 结论:LSTMBlockFused 实现性能最佳。【FullyConnect 性能最快,但对性能有损失】

注:在评估中,不仅仅包括了序列模型,也包括了其他功能模块,故参数量及模型大小按照总体模型而言

3.3 向量效果分析

将向量召回与深度学习模型进行横向比较,二者中间过程均生成了高维向量。不难发现,二者具备一定的相似性,这里就引发了我们的思考:

  • 相较于向量召回,深度学习模型带来的提升主要来自于哪里?

  • 有监督的 lstm 学习到的 Embedding 向量与自监督的 Word2Vec 得到的向量在地址相似性计算中有多大差别,孰优孰劣?

首先,我们分析第一个问题,End-to-End 模型提升主要来自哪里?

我们直接将 End-to-End 模型得到的 char embedding 抽取出来,直接放入到 Word2Vec 方案内,取代 Word2Vec 生成的 char embedding,再进行向量召回的评估。结果如下表所示,单独抽取出来的 char embedding 在向量召回方案中,表现与 Word2Vec 生成的向量基本一致,并没有明显的优势。

注:

  • 1min 绝对偏差率定义:|pred-label|<=60s

  • 2min 绝对偏差率定义:|pred-label|<=120s

  • 3min 绝对偏差率定义:|pred-label|<=180s

此时的变量有 2 个方面:

  1. 对于 charLevel 地址的学习结构不同,一个为 Word2Vec,一个为 LSTM。

  2. 输入信息的不同,Word2Vec 的信息输入仅仅为地址主干词,而 End-to-End 的信息输入则包括了地址主干词、地址附属信息、GPS 等其他信息。

注:

  • 完整地址:卓玛护肤造型(洞庭湖店) (洞庭湖路与天山路交叉路口卓玛护肤造型)

  • 地址主干词:卓玛护肤造型店

  • 地址附属信息:(洞庭湖店)(洞庭湖路与天山路交叉路口卓玛护肤造型)

为了排除第二方面的因素,即 b 的因素,使用地址主干词作为输入,而不用地址附属信息和其他模型结构的输入,保持模型输入跟 Word2Vec 一致。在测试集上,模型的效果比完整地址有明显的下降,MAE 增大约 15s。同时将 char embedding 提取出来,取代 Word2Vec 方案的 char embedding,效果反而变差了。结合 2.3 节中的特征重要性,可知,深度学习模型带来的提升主要来自对地址中冗余信息(相较于向量召回)的利用,其次是多个新特征的加入。另外,对比两个 End-to-End 模型的效果,地址附属信息中也包含着对匹配地址有用的信息。

针对第二个问题,有监督的 End-to-End 学习到的 Embedding 向量,与自监督的 Word2Vec 得到的向量在地址相似性计算中有多大差别,孰优孰劣?****

采用地址主干词代替完整地址,作为 End-to-End 模型的输入进行训练,其他信息均保持不变。使用地址主干词训练得到的 Embedding 向量,套用到向量召回方案中。

从评估结果来看,对于不同的阈值,End-to-End 的表现差异相对 Word2Vec 较小。相同阈值下,End-to-End 召回率更高,但是效果不如 Word2Vec。

从相似计算结果看,End-to-End 模型会把一些语义不相关但是交付时间相近的地址,映射到同一个向量空间,而 Word2Vec 则是学习一个更通用的文本向量表示。

例如,以下两个交付地址会被认为向量距离相近,但事实上只是交付时间相近:

南内环西街与西苑南路交叉口金昌盛国会 <=> 辰憬家园迎泽西大街西苑南路路口林香斋酒店

如果想要针对更为复杂的目标和引入更多信息,可以使用 End-to-End 框架;只是计算文本相似性,从实验结果看,Word2Vec 更好一些。同时,通过查看 Case 也可以发现,End-to-End 更关注结果相似性,从而召回一部分语义上完全不相关的向量。两个模型目标上的不同,从而导致了结果的差异。

4. 总结与展望****

在本篇中,依次展示了在配送交付场景下的三次模型策略迭代过程,以及在较为苛刻性能要求限制下,如何用轻量化的方案不断提高召回率及效果。同时,对迭代过程中的性能进行简单的分析及衡量,这对相关的项目也具备一定的借鉴意义,最后对 Word2Vec 及 End-to-End 生成的向量进行了比较。

事实上,本文中提及的向量召回及深度学习融合非数值型特征的方案,已经在业界被广泛使用。但对于差异化的场景,本文仍具备一定的借鉴价值,特别是对于订单 - 骑手匹配、订单 - 订单匹配等非搜索推荐领域的场景化应用,以及 TF OP 算子的选用及分析、Embedding 生成方式带来的差异,希望能够给大家提供一些思路和启发。

5. 关联阅读

交付时间预估与 ETA 预估及配送其他业务关系:

  • 交付时间预估是 ETA 预估中的重要一环,关于 ETA 预估,请参见《深度学习在美团配送 ETA 预估中的探索与实践》。

  • 具体 ETA 在整个配送业务中的位置及配送业务的整体机器学习实践,请参看《机器学习在美团配送系统的实践:用技术还原真实世界》。

6. 作者介绍

基泽,美团点评技术专家。

闫聪,美团点评算法工程师。

 
微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部