作者:孙梦瑶
概述: 将分布式实时打算框架 Flink 与 Storm 进行性能比拟,为实时打算平台和业务供应数据参考。
Apache Flink 和 Apache Storm 是当前业界广泛利用的两个分布式实时打算框架。个中 Apache Storm(以下简称“Storm”)在美团点评实时打算业务中已有较为成熟的利用(可参考 Storm 的可靠性担保测试),有管理平台、常用 API 和相应的文档,大量实时作业基于 Storm 构建。而 Apache Flink(以下简称“Flink”)在近期倍受关注,具有高吞吐、低延迟、高可靠和精确打算等特性,对事宜窗口有很好的支持,目前在美团点评实时打算业务中也已有一定运用。

为深入熟习理解 Flink 框架,验证其稳定性和可靠性,评估其实时处理性能,识别该体系中的缺陷,找到其性能瓶颈并进行优化,给用户供应最适宜的实时打算引擎,我们以实践履历丰富的 Storm 框架作为对照,进行了一系列实验测试 Flink 框架的性能,打算 Flink 作为确保“至少一次”和“恰好一次”语义的实时打算框架时对资源的花费,为实时打算平台资源方案、框架选择、性能调头等决策及 Flink 平台的培植提出建议并供应数据支持,为后续的 SLA 培植供应一定参考。
Flink 与 Storm 两个框架比拟:
2. 测试目标
评估不同场景、不同数据压力下 Flink 和 Storm 两个实时打算框架目前的性能表现,获取其详细性能数据并找到处理性能的极限;理解不同配置对 Flink 性能影响的程度,剖析各种配置的适用场景,从而得出调优建议。
2.1 测试场景
“输入-输出”大略处理场景
通过对“输入-输出”这样大略处理逻辑场景的测试,尽可能减少其它成分的滋扰,反响两个框架本身的性能。
同时测算框架处理能力的极限,处理更加繁芜的逻辑的性能不会比纯粹“输入-输出”更高。
用户作业耗时较长的场景
如果用户的处理逻辑较为繁芜,或是访问了数据库等外部组件,其实行韶光会增大,作业的性能会受到影响。因此,我们测试了用户作业耗时较长的场景下两个框架的调度性能。
窗口统计场景
实时打算中常有对韶光窗口或计数窗口进行统计的需求,例如一天中每五分钟的访问量,每 100 个订单中有多少个利用了优惠等。Flink 在窗口支持上的功能比 Storm 更加强大,API 更加完善,但是我们同时也想理解在窗口统计这个常用场景下两个框架的性能。
精确打算场景(即投递语义为“恰好一次”)
Storm 仅能担保“至多一次” (At Most Once) 和“至少一次” (At Least Once) 的投递语义,即可能存在重复发送的情形。有很多业务场景对数据的精确性哀求较高,希望投递不重不漏。Flink 支持“恰好一次” (Exactly Once) 的语义,但是在限定的资源条件下,更加严格的精确度哀求可能带来更高的代价,从而影响性能。因此,我们测试了在不同投递语义下两个框架的性能,希望为精确打算场景的资源方案供应数据参考。
2.2 性能指标
吞吐量(Throughput)
单位韶光内由打算框架成功地传送数据的数量,本次测试吞吐量的单位为:条/秒。反响了系统的负载能力,在相应的资源条件下,单位韶光内系统能处理多少数据。吞吐量常用于资源方案,同时也用于帮忙剖析系统性能瓶颈,从而进行相应的资源调度以担保系统能达到用户所哀求的处理能力。假设商家每小时能做二十份午餐(吞吐量 20 份/小时),一个外卖小哥每小时只能送两份(吞吐量 2 份/小时),这个别系的瓶颈就在小哥配送这个环节,可以给该商家安排十个外卖小哥配送。延迟(Latency)
数据从进入系统到流出系统所用的韶光,本次测试延迟的单位为:毫秒。反响了系统处理的实时性。金融交易剖析等大量实时打算业务对延迟有较高哀求,延迟越低,数据实时性越强。假设商家做一份午餐须要 5 分钟,小哥配送须要 25 分钟,这个流程中用户感想熏染到了 30 分钟的延迟。如果改换配送方案后延迟变成了 60 分钟,等送到了饭菜都凉了,这个新的方案便是无法接管的。3. 测试环境为 Storm 和 Flink 分别搭建由 1 台主节点和 2 台从节点构成的 Standalone 集群进行本次测试。个中为了不雅观察 Flink 在实际生产环境中的性能,对付部分测内容也进行了 on Yarn 环境的测试。
3.1 集群参数
3.2 框架参数
4. 测试方法
4.1 测试流程
数据生产
Data Generator 按特定速率天生数据,带上自增的 id 和 eventTime 韶光戳写入 Kafka 的一个 Topic(Topic Data)。
数据处理
Storm Task 和 Flink Task (每个测试用例不同)从 Kafka Topic Data 相同的 Offset 开始消费,并将结果及相应 inTime、outTime 韶光戳分别写入两个 Topic(Topic Storm 和 Topic Flink)中。
指标统计
Metrics Collector 按 outTime 的韶光窗口从这两个 Topic 中统计测试指标,每五分钟将相应的指标写入 MySQL 表中。
Metrics Collector 按 outTime 取五分钟的滚动韶光窗口,打算五分钟的均匀吞吐(输出数据的条数)、五分钟内的延迟(outTime - eventTime 或 outTime - inTime)的中位数及 99 线等指标,写入 MySQL 相应的数据表中。末了对 MySQL 表中的吞吐打算均值,延迟中位数及延迟 99 线选取中位数,绘制图像并剖析。
4.2 默认参数
Storm 和 Flink 默认均为 At Least Once 语义。Storm 开启 ACK,ACKer 数量为 1。Flink 的 Checkpoint 韶光间隔为 30 秒,默认 StateBackend 为 Memory。担保 Kafka 不是性能瓶颈,尽可能打消 Kafka 对测试结果的影响。测试延迟时数据生产速率小于数据处理能力,假设数据被写入 Kafka 后急速被读取,即 eventTime 即是数据进入系统的韶光。测试吞吐量时从 Kafka Topic 的最旧开始读取,假设该 Topic 中的测试数据量充足。4.3 测试用例
Identity
Identity 用例紧张仿照“输入-输出”大略处理场景,反响两个 框架本身的性能 。输入数据为“msgId, eventTime”,个中 eventTime 视为数据天生韶光。单条输入数据约 20 B。进入作业处理流程时记录 inTime,作业处理完成后(准备输出时)记录 outTime。作业从 Kafka Topic Data 中读取数据后,在字符串末端追加韶光戳,然后直接输出到 Kafka。输出数据为“msgId, eventTime, inTime, outTime”。单条输出数据约 50 B。Sleep
Sleep 用例紧张仿照用户作业耗时较长的场景,反响 繁芜用户逻辑对框架差异的削弱 ,比较两个 框架的调度性能 。输入数据和输出数据均与 Identity 相同。读入数据后,等待一定时长(1 ms)后在字符串末端追加韶光戳后输出Windowed Word Count
Windowed Word Count 用例紧张仿照窗口统计场景,反响两个 框架在进行窗口统计时性能的差异 。此外,还用其进行了精确打算场景的测试,反响 Flink __恰好一次投递的性能__。输入为 JSON 格式,包含 msgId、eventTime 和一个由多少单词组成的句子,单词之间由空格分隔。单条输入数据约 150 B。读入数据后解析 JSON,然后将句子分割为相应单词,带 eventTime 和 inTime 韶光戳发给 CountWindow 进行单词计数,同时记录一个窗口中最大最小的 eventTime 和 inTime,末了带 outTime 韶光戳输出到 Kafka 相应的 Topic。Spout/Source 及 OutputBolt/Output/Sink 并发度恒为 1,增大并发度时仅增大 JSONParser、CountWindow 的并发度。由于 Storm 对 window 的支持较弱,CountWindow 利用一个 HashMap 手动实现,Flink 用了原生的 CountWindow 和相应的 Reduce 函数。5. 测试结果5.1 Identity 单线程吞吐量
上图中蓝色柱形为单线程 Storm 作业的吞吐,橙色柱形为单线程 Flink 作业的吞吐。Identity 逻辑下,Storm 单线程吞吐为 8.7 万条/秒,Flink 单线程吞吐可达 35 万条/秒。当 Kafka Data 的 Partition 数为 1 时,Flink 的吞吐约为 Storm 的 3.2 倍;当其 Partition 数为 8 时,Flink 的吞吐约为 Storm 的 4.6 倍。由此可以看出,__Flink 吞吐约为 Storm 的 3-5 倍。__
5.2 Identity 单线程作业延迟
采取 outTime - eventTime 作为延迟,图中蓝色折线为 Storm,橙色折线为 Flink。虚线为 99 线,实线为中位数。从图中可以看出随着数据量逐渐增大,Identity 的延迟逐渐增大。个中 99 线的增大速率比中位数快,Storm 的 增大速率比 Flink 快。个中 QPS 在 80000 以上的测试数据超过了 Storm 单线程的吞吐能力,无法对 Storm 进行测试,只有 Flink 的曲线。比拟折线最右真个数据可以看出,Storm QPS 靠近吞吐时延迟中位数约 100 毫秒,99 线约 700 毫秒,Flink 中位数约 50 毫秒,99 线约 300 毫秒。__Flink 在满吞吐时的延迟约为 Storm 的一半。__
5.3 Sleep 吞吐量
从图中可以看出,Sleep 1 毫秒时,Storm 和 Flink 单线程的吞吐均在 900 条/秒旁边,且随着并发增大基本呈线性增大。比拟蓝色和橙色的柱形可以创造,__此时两个框架的吞吐能力基本同等。__
5.4 Sleep 单线程作业延迟(中位数)
依然采取 outTime - eventTime 作为延迟,从图中可以看出,Sleep 1 毫秒时,Flink 的延迟仍低于 Storm。
5.5 Windowed Word Count 单线程吞吐量
单线程实行大小为 10 的计数窗口,吞吐量统计如图。从图中可以看出,Storm 吞吐约为 1.2 万条/秒,Flink Standalone 约为 4.3 万条/秒。Flink 吞吐依然为 Storm 的 3 倍以上。
5.6 Windowed Word Count Flink At Least Once 与 Exactly Once 吞吐量比拟
由于同一算子的多个并行任务处理速率可能不同,在上游算子中不同快照里的内容,经由中间并行算子的处理,到达下贱算子时可能被计入同一个快照中。这样一来,这部分数据会被重复处理。因此,Flink 在 Exactly Once 语义下须要进行对齐,即当前最早的快照中所有数据处理完之前,属于下一个快照的数据不进行处理,而是在缓存区等待。当前测试用例中,在 JSON Parser 和 CountWindow、CountWindow 和 Output 之间均须要进行对齐,有一定花费。为表示出对齐场景,Source/Output/Sink 并发度的并发度仍为 1,提高了 JSONParser/CountWindow 的并发度。详细流程细节拜会前文 Windowed Word Count 流程图。上图中橙色柱形为 At Least Once 的吞吐量,黄色柱形为 Exactly Once 的吞吐量。比拟两者可以看出,在当前并发条件下,Exactly Once 的吞吐较 At Least Once 而言低落了 6.3%。
5.7 Windowed Word Count Storm At Least Once 与 At Most Once 吞吐量比拟
Storm 将 ACKer 数量设置为零后,每条在发送时就自动 ACK,不再等待 Bolt 的 ACK,也不再重发,为 At Most Once 语义。上图中蓝色柱形为 At Least Once 的吞吐量,浅蓝色柱形为 At Most Once 的吞吐量。比拟两者可以看出,在当前并发条件下,At Most Once 语义下的吞吐较 At Least Once 而言提高了 16.8%。
5.8 Windowed Word Count 单线程作业延迟
Identity 和 Sleep 不雅观测的都是 outTime - eventTime,由于作业处理韶光较短或 Thread.sleep() 精度不高,outTime - inTime 为零或没有比较意义;Windowed Word Count 中可以有效测得 outTime - inTime 的数值,将其与 outTime - eventTime 画在同一张图上,个中 outTime - eventTime 为虚线,outTime - InTime 为实线。不雅观察橙色的两条折线可以创造,Flink 用两种办法统计的延迟都坚持在较低水平;不雅观察两条蓝色的曲线可以创造,Storm 的 outTime - inTime 较低,outTime - eventTime 一贯较高,即 inTime 和 eventTime 之间的差值一贯较大,可能与 Storm 和 Flink 的数据读入办法有关。蓝色折线表明 Storm 的延迟随数据量的增大而增大,而橙色折线表明 Flink 的延迟随着数据量的增大而减小(此处未测至 Flink 吞吐量,靠近吞吐时 Flink 延迟依然会上升)。纵然仅关注 outTime - inTime(即图中实线部分),依然可以创造,当 QPS 逐渐增大的时候,Flink 在延迟上的上风开始表示出来。
5.9 Windowed Word Count Flink At Least Once 与 Exactly Once 延迟比拟
图中黄色为 99 线,橙色为中位数,虚线为 At Least Once,实线为 Exactly Once。图中相应颜色的虚实曲线都基本重合,可以看出 Flink Exactly Once 的延迟中位数曲线与 At Least Once 基本贴合,在延迟上性能没有太大差异。
5.10 Windowed Word Count Storm At Least Once 与 At Most Once 延迟比拟
图中蓝色为 99 线,浅蓝色为中位数,虚线为 At Least Once,实线为 At Most Once。QPS 在 4000 及以前的时候,虚线实线基本重合;QPS 在 6000 时两者已有差异,虚线略高;QPS 靠近 8000 时,已超过 At Least Once 语义下 Storm 的吞吐,因此只有实线上的点。可以看出,QPS 较低时 Storm At Most Once 与 At Least Once 的延迟不雅观察不到差异,随着 QPS 增大差异开始增大,At Most Once 的延迟较低。
5.11 Windowed Word Count Flink 不同 StateBackends 吞吐量比拟
Flink 支持 Standalone 和 on Yarn 的集群支配模式,同时支持 Memory、FileSystem、RocksDB 三种状态存储后端(StateBackends)。由于线上作业须要,测试了这三种 StateBackends 在两种集群支配模式上的性能差异。个中,Standalone 时的存储路径为 JobManager 上的一个文件目录,on Yarn 时存储路径为 HDFS 上一个文件目录。比拟三组柱形可以创造,利用 FileSystem 和 Memory 的吞吐差异不大,利用 RocksDB 的吞吐仅别的两者的十分之一旁边。比拟两种颜色可以创造,Standalone 和 on Yarn 的总体差异不大,利用 FileSystem 和 Memory 时 on Yarn 模式下吞吐稍高,利用 RocksDB 时 Standalone 模式下的吞吐稍高。
5.12 Windowed Word Count Flink 不同 StateBackends 延迟比拟
利用 FileSystem 和 Memory 作为 Backends 时,延迟基本同等且较低。利用 RocksDB 作为 Backends 时,延迟稍高,且由于吞吐较低,在达到吞吐瓶颈前的延迟陡增。个中 on Yarn 模式下吞吐更低,靠近吞吐时的延迟更高。6. 结论及建议
6.1 框架本身性能
由 5.1、5.5 的测试结果可以看出,Storm 单线程吞吐约为 8.7 万条/秒,Flink 单线程吞吐可达 35 万条/秒。Flink 吞吐约为 Storm 的 3-5 倍。由 5.2、5.8 的测试结果可以看出,Storm QPS 靠近吞吐时延迟(含 Kafka 读写韶光)中位数约 100 毫秒,99 线约 700 毫秒,Flink 中位数约 50 毫秒,99 线约 300 毫秒。Flink 在满吞吐时的延迟约为 Storm 的一半,且随着 QPS 逐渐增大,Flink 在延迟上的上风开始表示出来。综上可得,Flink 框架本身性能优于 Storm。6.2 繁芜用户逻辑对框架差异的削弱
比拟 5.1 和 5.3、5.2 和 5.4 的测试结果可以创造,单个 Bolt Sleep 时长达到 1 毫秒时,Flink 的延迟仍低于 Storm,但吞吐上风已基本无法表示。因此,用户逻辑越繁芜,本身耗时越长,针对该逻辑的测试表示出来的框架的差异越小。6.3 不同投递语义的差异
由 5.6、5.7、5.9、5.10 的测试结果可以看出,Flink Exactly Once 的吞吐较 At Least Once 而言低落 6.3%,延迟差异不大;Storm At Most Once 语义下的吞吐较 At Least Once 提升 16.8%,延迟稍有低落。由于 Storm 会对每条进行 ACK,Flink 是基于一批做的检讨点,不同的实现事理导致两者在 At Least Once 语义的花费差异较大,从而影响了性能。而 Flink 实现 Exactly Once 语义仅增加了对齐操作,因此 在算子并发量不大、没有涌现慢节点的情形下对 Flink 性能的影响不大。 Storm At Most Once 语义下的性能仍旧低于 Flink。6.4 Flink 状态存储后端选择
Flink 供应了内存、文件系统、RocksDB 三种 StateBackends,结合 5.11、5.12 的测试结果,三者的比拟如下:StateBackend过程状态存储检讨点存储吞吐推举利用场景MemoryTM MemoryJM Memory高(3-5 倍 Storm)调试、无状态或对数据是否丢失重复无哀求FileSystemTM MemoryFS/HDFS高(3-5 倍 Storm)普通状态、窗口、KV 构造(建议作为默认 Backend)RocksDBRocksDB on TMFS/HDFS低(0.3-0.5 倍 Storm)超大状态、超长窗口、大型 KV 构造
6.5 推举利用 Flink 的场景
综合上述测试结果,以下实时打算场景建议考虑利用 Flink 框架进行打算:
哀求投递语义为 Exactly Once 的场景;数据量较大,哀求 高吞吐低延迟 的场景;须要进行 状态管理 或 窗口统计 的场景。7. 展望本次测试中尚有一些内容没有进行更加深入的测试,有待后续测试补充。例如:Exactly Once 在并发量增大的时候是否吞吐会明显低落?用户耗时到 1ms 时框架的差异已经不再明显(Thread.sleep() 的精度只能到毫秒),用户耗时在什么范围内 Flink 的上风依然能表示出来?本次测试仅不雅观察了吞吐量和延迟两项指标,对付系统的可靠性、可扩展性等主要的性能指标没有在统计数据层面进行关注,有待后续补充。Flink 利用 RocksDBStateBackend 时的吞吐较低,有待进一步探索和优化。关于 Flink 的更高等 API,如 Table API & SQL 及 CEP 等,须要进一步理解和完善。8. 参考内容分布式流处理框架——功能比拟和性能评估.intel-hadoop/HiBench: HiBench is a big data benchmark suite.Yahoo的流打算引擎基准测试.Extending the Yahoo! Streaming Benchmark.