阿里如何实现秒级百万 TPS?搜索离线大数据平台
|
背景 什么是搜索离线?一个典型的商品搜索架构如下图所示,本文将要重点介绍的就是下图中的离线数据处理系统(Offline System)。
何谓离线?在阿里搜索工程体系中我们把搜索引擎、在线算分、SearchPlanner 等 ms 级响应用户请求的服务称之为“在线”服务;与之相对应的,将各种来源数据转换处理后送入搜索引擎等“在线”服务的系统统称为“离线”系统。商品搜索的业务特性(海量数据、复杂业务)决定了离线系统从诞生伊始就是一个大数据系统,它有以下一些特点: 1. 任务模型上区分全量和增量 1)全量是指将搜索业务数据全部重新处理生成,并传送给在线引擎,一般是每天一次。这么做有两个原因:有业务数据是 daily 更新;引擎需要全量数据来高效的进行索引整理和预处理,提高在线服务效率。 2)增量是指将上游数据源实时发生的数据变化更新到在线引擎中。 3)性能方面有较高要求。全量需要极高吞吐能力,确保数以亿计的数据可以在数小时内完成。增量则需要支持数万 TPS 秒级的实时性,还需要有极高的可用性。 2. 需要支持多样化的输入和输出数据源,包括:Mysql,ODPS,TT 等各种数据库和消息队列作为输入,搜索、Ranking、图、推荐等各种引擎作为输出。 3. 需要提供一定能力的数据处理能力,例如多表 Join、UDTF 支持等,以方便搜索业务的开发和接入。 在后续的段落中我们会看到离线系统架构围绕着这些特点,针对搜索业务的变化,做出的各种演进和发展。 发展简介阿里商品搜索体系肇始于淘宝搜索,大约在 2008 年初第一代搜索系统诞生,离线系统随之上线。搜索离线系统经历多年发展,技术架构几经迭代,数据处理能力、业务支持能力不断提升。下面会分阶段介绍搜索离线的主要技术架构和特点。 ★ 淘宝搜索阶段在 2008-2012 这个阶段,我们重点支持淘宝搜索的业务发展,随着淘宝商品量的不断增加,逐步引入 Hadoop、Hbase 等开源大数据计算和存储框架,实现了搜索离线系统的分布式化,有力地支持了淘宝搜索业务的发展。但是在这个阶段,我们支持的业务线只有淘系合计不到 5 个业务线,为此投入了大约 10 名开发人员,整体效率不高。另一方面相关系统框架代码与淘系业务高度耦合,量身定制了很多特殊代码,不利于架构的推广和其它业务的支持。
★ 组件 & 平台化阶段2013 年底以来,特别是最近两年,随着集团技术业务线的梳理以及中台化战略的推行,搜索离线系统需要为越来越多的不同业务团队(飞猪、钉钉、1688、AE、Lazada 等等)提供支持,技术框架复用、开发效率提升和平台化支持的需求越来越强烈。另一方面随着大数据计算、存储技术的发展,尤其是流计算引擎的飞速发展,离线系统技术架构上的进一步演进也具备了绝佳的土壤。
我们可以看到整个搜索离线系统的演进是沿着性能和效率两条主线,以业务和技术为双轮驱动,一步一个脚印的走到今天。这是一个技术与业务高度融合互动,互相促进发展的典型样例。 离线平台技术架构
** 上一节我们简要介绍了离线系统的发展历史,也简要提到技术架构的演进,下面将会把离线平台的技术架构展开介绍,主要分为平台流程以及计算和存储架构等几个方面。 平台组件和任务流程
**
上图描述了离线平台技术组件结构,其中部分组件的简介如下:
下图则描述了一个离线任务从数据源到产出引擎服务数据的整个过程,流程图分成三层:
全增量统一的计算模型那么如何实现对用户屏蔽离线平台内部的这些技术细节,让用户只需要关注业务实现呢?回顾第一节介绍的离线任务概念,离线任务包含全量和增量,它们业务逻辑相同,但是执行模式上有区别。为了让用户能够专注业务逻辑的开发,屏蔽离线平台技术细节实现全增量统一的计算逻辑,我们引入了 Business Table(业务表)的概念。
基于业务表和数据处理组件,用户可以开发出一个描述离线处理流程的业务逻辑图,我们称之为 Business Graph。下图就是一个 Business Graph 的样例,其中上侧红框标识的就是只包含 ODPS 全量数据源的 Business Table,最下方红框中标识的是包含 Hdfs+Swift 的 Business Table,除此之外我们还支持 Mysql+DRC/ODPS+Swift 等多种业务表的组合。图中还可以看到 Join、UDTF 等常用的数据处理组件,业务表与处理组件结合在一起就能够描述常见的离线业务处理逻辑。
那么如何把这个 Business Graph 转化为真正的离线任务呢?Bahamut 作为离线平台的执行引擎,会按照 Business Graph->APP Graph->Job Graph->(Blink Job/Maat Job) 的顺序把一个业务描述转化为可执行的离线任务,具体如下: 1. Business Graph->APP Graph:在这个环节中我们主要有 2 个重要的工作: 1)正确性校验:根据 BG 中的节点信息,校验节点间连接的合法性(例如两个输入源节点不能直接连接)、节点配置的正确性(数据库配置 /ODPS 的配置是否正确)、Schema 推导是否正确。 2)任务分层优化:为了用 Blink Stream 模式来统一完成全量和增量的执行,我们需要将输入源数据存入内部 Hbase,直接使用 Blink 维表 Join 功能来完成数据的连接。于是在节点遍历过程中遇到 Join、Merge 组件时,需要在 AppGraph 中插入一个内部的 HTable 节点,将 Merge 或者 Join 上游的数据同步进入 Hbase。 2. APP Graph->Job Graph:JobGraph 是一个 Blink/Maat 任务的配置 DAG,其中每个节点包含配置信息,可以在后续的过程中直接转化为计算或者调度任务。 1)Blink JobGraph:从数据源业务表节点开始遍历 AppGraph,每当碰到一个内部 HTable 节点时,会生成两个(增量 / 全量)同步层的 Blink JobGraph。所有同步层 Blink JobGraph 生成后,以所有的内部 HTable/queue 为输入,生成两个(增量 / 全量)关联处理层的 Blink JobGraph。 ①同步层:采用 Business Table 中的全量 / 增量表配置,分别生成全量和增量的 Blink 任务配置,描述把数据从数据源同步到内部 HTable 过程。例如对于 Mysql+DRC 的表,全量阶段将会从 mysql 中拉取全表数据并转化为 HFile bulkload 到 HTable 中,增量阶段则是从 DRC 中拉取变化数据,直接写入 HTable,并根据需求写入驱动 queue。 ②关联处理层:关联多个 HTable,生成大宽表后调用 UDTF 处理,产出最终的进入引擎的数据。同样需要分别生成全量和增量任务配置 2)Maat JobGraph:基于 Maat 的调度任务描述 DAG,主要目的是将各个层次的 Blink 任务按照依赖进行调度,同时执行特定的脚本完成与外部系统的交互等职责。一般来说一个离线任务会生成 Build/Publish/Stop/Release 等多个 Maat JobGraph。 3. Job Graph->Blink/Maat Job:遍历 JobGraph,调用 Translator 将 JobGraph 转换为 Blink/Maat 的任务代码。引入 JobGraph 的目的是将底层的计算引擎与计算任务描述解耦,例如:我们底层的计算引擎曾经是 MapReduce +Blink-1.4-TableAPI,最近刚完成了 Blink-2.1 基于 SQL 的升级,我们所有的工作基本上是重写了一套 Translator,对上层的代码结构没有任何变动。 经过了上述的三个步骤,我们完成了 BusinessGraph(业务描述)到 Blink/Maat job 的转化,生成了若干数据同步 / 处理的 Blink job,以及将这些 Blink job 进行依赖调度的完成不同功能的 Maat job。特别的针对搜索离线的场景,在调度流程中加入了大量与下游引擎交互的逻辑,包括 24 小时不间断增量、触发引擎消费数据、切换引擎消费增量 queue 等重要的业务流程。 存储与计算
** ★ 基于 Hbase 的存储架构搜索离线大约在 2012 年即引入了 Hbase 作为数据的存储引擎,有力的支持了搜索业务从淘宝主搜到离线平台的整个发展历程,历经多次双 11 考验,稳定性和性能都得到明确的验证。从功能层面,搜索离线引入 Hbase 的原因主要是以下几点:
通过引入 Hbase 做为离线系统的内部数据存储,我们成功解决了每天全量时对上游 Mysql 造成很大压力的问题,大幅度的提升了整体系统的吞吐。数据存储到 Hbase 也是全量任务向流式处理流程转型(MR->Stream)的基础,而这一点为后来 Blink 流引擎在搜索离线的孕育和发展也埋下了伏笔。 当然 Hbase 也不是毫无缺点,JVM 内存管理的痼疾、单机 Handler 打满导致雪崩、缺乏容器化部署能力等也带来了不少烦恼,很快我们就会替换 Hbase 为阿里内部发展的另外一套存储引擎,期望能够部分的解决这些问题。 ★ 基于 Flink 的计算架构2016 年中,搜索离线逐渐开始引入 Flink 作为计算引擎,重点解决搜索实时计算场景碰到的大量问题。在社区 Flink 版本的基础上,实时计算团队开发了 Blink,增加原生 yarn 模式、Incremetal checkpoint 等若干解决 Flink 大规模分布式运行问题的特性,另一方面,在 DataStream/DataSet 接口的基础上,进一步加强了 TableAPI 和 SQL 的功能,真正统一了 Stream 和 Batch 的调用接口,并实现计算业务逻辑的 sql 化开发模式。 离线平台是 Blink 的早期使用者和开发者,从 0.8 版本开始经历了多个 Blink 版本的升级和变迁,先后使用了 DataStream、TableAPI 和 SQL 作为任务接口,同时也开发了大量 Connector 以支持不同数据源之间的交互。目前离线平台已经在使用最新的 Blink-2.1.1,Bahamut 利用 SqlTranslator 直接生成 SQL 来描述任务逻辑,通过 Bayes(Blink SQL 开发平台)服务化直接提交任务到不同的 Yarn 集群,这样做有以下几个明显的优势:
下图是一个 Bahamut 自动生成的 Blink Sql 样例,描述同步层的一个任务,任务中包含 Source,Select Oper 和 Sink 三个 Operator,实现从 Mysql 实时变化到 Hbase 表的同步。
**总结 ** 搜索离线数据处理是一个典型的海量数据批次 / 实时计算结合的场景,搜索中台团队立足内部技术结合开源大数据存储和计算系统,针对自身业务和技术特点构建了搜索离线平台,提供复杂业务场景下单日批次处理千亿级数据,秒级实时百万 TPS 吞吐的计算能力。离线平台目前支持了集团内 200 多个不同业务线的搜索业务需求,大幅提高了业务迭代的效率,成为搜索中台的重要组成部分。很快离线平台还会在阿里云上与 Opensearch/ES 结合,为集团外客户提供高可用、高性能的搜索离线数据处理能力。在不远的将来离线平台将会逐渐拓展到推荐和广告的数据处理场景,有着广阔的应用场景,一个涵盖搜索 / 推荐 / 广告体系的 SARO(Search Advertisment and Recommandation Offline)平台会逐步成型。 最后,搜索离线平台从 0 到 1 的建设已经走过了两年,但它离我们心目中 SARO 平台的愿景还离的非常远,在这个前行的道路上一定会充满挑战,有大量难题等着我们去解决。欢迎对 Hadoop、Flink 等大数据技术感兴趣,有 Java 后台开发经验的同学加盟,从阿里走向世界,让天下没有难用的搜索。 |
时间:2019-10-11 22:47 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。