如何扛住1.8亿/秒的双11数据洪峰?阿里流计算技术全揭秘

架构性能数据处理配置磁盘存储数据统计流计算

摘要:今年的双11再次刷新了记录——支付成功峰值达25.6万笔/秒、实时数据处理峰值4.72亿条/秒。 面对较去年增幅100%的数据洪峰,流计算技术可谓功不可没。今天,我们将揭开阿里流计算技术的神秘面纱。

双11刚刚拉下帷幕,激动的心还停留在那一刻:

当秒针刚跨过11号零点的一瞬间,来自线上线下的千万剁手党在第一时间涌入了这场年度大趴——从进入会场到点击详情页,再到下单付款一气呵成。

前台在大家狂欢的同时,后台数据流量也正以突破历史新高的洪峰形式急剧涌入:

支付成功峰值达 25.6 万笔/秒

实时数据处理峰值 4.72亿条/秒

而作为实时数据处理任务中最为重要的集团数据公共层(保障着业务的实时数据、媒体大屏等核心任务),在当天的总数据处理峰值更是创历史新高达1.8亿/秒! 想象下,1秒钟时间内千万人涌入双11会场的同时,依然应对自如。

流计算的产生即来源于数据加工时效性的严苛需求:

由于数据的业务价值会随着时间的流失而迅速降低,因此在数据发生后必须尽快对其进行计算和处理,从而能够通过数据第一时间掌握业务情况。今年双11的流计算也面临着一场实时数据洪峰的考验。

首先来展示今年(2017年)较去年(2016年)数据洪峰峰值的比较:

2016年:支付成功峰值12万笔/秒,总数据处理峰值9300万/秒

2017年:支付成功峰值25.6 万笔/秒,实时数据处理峰值 4.72亿条/秒,阿里巴巴集团数据公共层总数据处理峰值1.8亿/秒

在今年双11流量峰值翻翻的情况下,依然稳固做到实时数据更新频率:从第1秒千万剁手党涌入到下单付款,到完成实时计算投放至媒体大屏全路径,秒级响应。面对越发抬升的流量面前,实时数据却越来越快、越来越准。在hold住数据洪峰的背后,是阿里巴巴流计算技术的全面升级。

流计算应用场景

数据技术及产品部定位于阿里数据中台,除了离线数据外,其产出的实时数据也服务于集团内多个数据场景。包括今年(其实也是以往的任何一年)双11媒体大屏实时数据、面向商家的生意参谋实时数据,以及面向内部高管与小二的各种直播厅产品,覆盖整个阿里巴巴集团大数据事业部。

同时随着业务的不断发展壮大,到目前为止,日常实时处理峰值超4000万/s,每天总处理记录数已经达到亿级别,总处理数据量也达到PB级别。

面对海量数据的实时数据我们成功做到了数据延迟控制在秒级范围内,在计算准确率上,已实现了高精准、0误差,达到精确处理。比如:今年的双11当天,双十一媒体屏第一条记录从交易表经过流计算计算处理到达媒体大屏秒级响应。

数据中台流计算实践中的数据链路

在经过最近几年大促数据洪峰的经历后,使得我们的流计算团队在引擎选择,优化性能以及开发流计算平台上都积累了丰富的经验。我们也形成了稳定高效的数据链路架构,下图是整个数据链路示意图:

业务数据的来源非常多,分别通过两个工具(DRC与中间件的logagent)实时获取增量数据,并且同步到DataHub(一种PubSub的服务)。

实时计算引擎Flink作业通过订阅这些增量数据进行实时处理,并且在经过ETL处理后把明细层再次回流到Datahub,所有的业务方都会去定义实时的数据进行多维度的聚合,汇总后的数据放在分布式数据库或者关系型数据库中(Hbase、Mysql),并通过公共的数据服务层产品(One Service)对外提供实时数据服务。

最近一年,我们在计算引擎和计算优化方面做了很多工作,实现了计算能力、开发效率的提升。

计算引擎升级及优化

在2017年,我们在实时计算架构上进行了全面的升级,从Storm迁移到Blink,并且在新技术架构上进行了非常多的优化,实时峰值处理能力提高了2倍以上,平稳的处理能力更是提高5倍以上:

优化状态管理

实时计算过程中会产生大量的state,以前是存储在HBase,现在会存储在RocksDB中,本地存储减少了网络开销,能够大幅提高性能,可以满足细粒度的数据统计(现在key的个数可以提升到亿级别了,是不是棒棒哒~)

优化checkpoint(快照/检查点)和compaction(合并)

state会随着时间的流转,会越来越大,如果每次都做全量checkpoint的话,对网络和磁盘的压力非常大;所以针对数据统计的场景,通过优化rocksdb的配置,使用增量checkpoint等手段,可以大幅降低网络传输和磁盘读写。

异步Sink

把sink改成异步的形式,可以最大限度提高CPU利用率,可以大幅提供TPS。

抽象公共组件

除了引擎层面的优化,数据中台也针对性地基于Blink开发了自己的聚合组件(目前所有实时公共层线上任务都是通过该组件实现)。该组件提供了数据统计中常用的功能,把拓扑结构和业务逻辑抽象成了一个json文件。这样只需要在json文件中通过参数来控制,实现开发配置化,大幅降低了开发门槛,缩短开发周期——再来举个栗子:之前我们来做开发工作量为10人/日,现在因为组件化已让工作量降低为0.5人/日,无论对需求方还是开发方来讲都是好消息,同时归一的组件提升了作业性能。

按照上述思路及功能沉淀,最终打磨出了流计算开发平台【赤兔】。

该平台通过简单的“托拉拽”形式生成实时任务,不需要写一行代码,提供了常规的数据统计组件,并集成元数据管理、报表系统打通等功能。作为支撑集团实时计算业务的团队,我们在经过历年双11的真枪实弹后沉淀的[赤兔平台]中独有的功能也成为它独一无二的亮点:

一、大小维度合并

比如很多的实时统计作业同时需要做天粒度与小时粒度的计算,之前是通过两个任务分开计算的,聚合组件会把这些任务进行合并,并且中间状态进行共用,减少网络传输50%以上,同时也会精简计算逻辑,节省CPU。

二、精简存储

对于存储在RocksDB的Keyvalue,我们设计了一个利用索引的encoding机制,有效地将state存储减少一半以上,这个优化能有效降低网络、cpu、磁盘的压力。

三、高性能排序

排序是实时中非常常见的一个场景, top组件利用内存中PriorityQueue(优先队列) 和blink中新的MapState feature(中间状态管理特性),大幅减少序列化次数,性能提高10倍左右。

四、批量传输和写操作

最终写结果表HBase和Datahub时,如果每处理一条记录都去写库的话,就会很大限制我们的吞吐。我们组件通过时间触发或者记录数触发的机制(timer功能),实现批量传输和批量写(mini-batch sink),并且可以根据业务延时要求进行灵活配置,提高任务吞吐的同时,也降低了服务端压力。

数据保障

对于高优先级应用(每天24小时不间断服务),需要做到跨机房容灾,当某条链路出现问题时,能够秒级切换到其他链路,下图是整个实时公共层的链路保障架构图:

从数据采集、数据同步、数据计算、数据存储、数据服务,整条链路都是独立的。通过在Oneservice中的动态配置,能够实现链路切换,保障数据服务不终端。

上面内容就是保障今年双11流量洪峰的流计算技术秘密武器——我们不仅在于创新更希望能沉淀下来复用、优化技术到日常。

随着流计算的技术外界也在不停更迭,后续基于阿里丰富业务场景下我们还会不断优化升级流计算技术:

平台化,服务化,Stream Processing as a service

语义层的统一,Apache Beam,Flink 的Table API,以及最终Stream SQL都是非常热的project

实时智能,时下很火的深度学习或许未来会与流计算碰撞产生火花

实时离线的统一,这个也是很大的趋势,相较于现在普遍存在的实时一套,离线一套的做法,实时离线的统一也是各大引擎努力想要达到的。

最后,欢迎大家在留言区,与我们交流讨论,一起学习进步。

原文发布时间为:2017-11-21

本文作者:同杰&黄晓锋

本文来自云栖社区合作伙伴“阿里技术”,了解相关信息可以关注“阿里技术”微信公众号

本文为云栖社区原创内容,未经允许不得转载,如需转载请发送邮件至yqeditor@list.alibaba-inc.com;如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至:yqgroup@service.aliyun.com 进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。

原文链接

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342

推荐阅读更多精彩内容