首页 > 编程笔记 阅读:135

Apache Flink是什么?

Flink 项目是大数据计算领域冉冉升起的一颗新星。大数据计算引擎的发展经历了几个过程,从第 1 代的 MapReduce,到第 2 代基于有向无环图的 Tez,第 3 代基于内存计算的 Spark,再到第 4 代的 Flink。

如果你希望了解各种流式计算框架的区别,请转到:大数据流式计算框架汇总和对比

因为 Flink 可以基于 Hadoop 进行开发和使用,所以 Flink 并不会取代 Hadoop,而是和 Hadoop 紧密结合。

Flink 主要包括 DataStream API、DataSet API、Table API、SQL、Graph API 和 FlinkML 等。现在 Flink 也有自己的生态圈,涉及离线数据处理、实时数据处理、SQL 操作、图计算和机器学习库等。

Flink 是什么?

很多人是在 2015 年才听到 Flink 这个词的,其实早在 2008 年,Flink 的前身就已经是柏林理工大学的一个研究性项目,在 2014 年这个项目被 Apache 孵化器所接受后,Flink 迅速成为 ASF(Apache Software Foundation)的顶级项目之一。截至目前,Flink 的版本经过了多次更新。

Flink 是一个开源的流处理框架,它具有以下特点:
Flink 主要由 Java 代码实现,它同时支持实时流处理和批处理。对于 Flink 而言,作为一个流处理框架,批数据只是流数据的一个极限特例而已。

此外,Flink 还支持迭代计算、内存管理和程序优化,这是它的原生特性。

由图1可知,Flink 的功能特性如下:
Flink的功能特性
图1:Flink的功能特性

在这里解释一下,高吞吐表示单位时间内可以处理的数据量很大,低延迟表示数据产生以后可以在很短的时间内对其进行处理,也就是 Flink 可以支持快速地处理海量数据。

Flink流处理(Streaming)与批处理(Batch)

在大数据处理领域,批处理与流处理一般被认为是两种截然不同的任务,一个大数据框架一般会被设计为只能处理其中一种任务。比如,Storm 只支持流处理任务,而 MapReduce、Spark 只支持批处理任务。

Spark Streaming 是 Apache Spark 之上支持流处理任务的子系统,这看似是一个特例,其实不然——Spark Streaming 采用了一种 Micro-Batch 架构,即把输入的数据流切分成细粒度的 Batch,并为每一个 Batch 数据提交一个批处理的 Spark 任务,所以 Spark Streaming 本质上还是基于 Spark 批处理系统对流式数据进行处理,和 Storm 等完全流式的数据处理方式完全不同。

通过灵活的执行引擎,Flink 能够同时支持批处理任务与流处理任务。在执行引擎层级,流处理系统与批处理系统最大的不同在于节点间的数据传输方式。

如图2所示,对于一个流处理系统,其节点间数据传输的标准模型是,在处理完成一条数据后,将其序列化到缓存中,并立刻通过网络传输到下一个节点,由下一个节点继续处理。

而对于一个批处理系统,其节点间数据传输的标准模型是,在处理完成一条数据后,将其序列化到缓存中,当缓存写满时,就持久化到本地硬盘上;在所有数据都被处理完成后,才开始将其通过网络传输到下一个节点。

Flink的3种数据传输模型
图2:Flink的3种数据传输模型

这两种数据传输模式是两个极端,对应的是流处理系统对低延迟和批处理系统对高吞吐的要求。Flink 的执行引擎采用了一种十分灵活的方式,同时支持了这两种数据传输模型。

Flink 以固定的缓存块为单位进行网络数据传输,用户可以通过设置缓存块超时值指定缓存块的传输时机。
缓存块的超时值也可以设置为 0 到无限大之间的任意值,缓存块的超时阈值越小,Flink 流处理执行引擎的数据处理延迟就越低,但吞吐量也会降低,反之亦然。通过调整缓存块的超时阈值,用户可根据需求灵活地权衡系统延迟和吞吐量。

Flink典型应用场景

Flink 主要应用于流式数据分析场景,目前涉及如下领域:
应用领域 说明
实时 ETL 集成流计算现有的诸多数据通道和 SQL 灵活的加工能力,对流式数据进行实时清洗、归并和结构化处理;同时,对离线数仓进行有效的补充和优化,并为数据实时传输提供可计算通道。
实时报表 实时化采集、加工流式数据存储;实时监控和展现业务、客户各类指标,让数据化运营实时化。
监控预警 对系统和用户行为进行实时检测和分析,以便及时发现危险行为。
在线系统 实时计算各类数据指标,并利用实时结果及时调整在线系统的相关策略,在各类内容投放、无线智能推送领域有大量的应用。

Flink在如下类型的公司中有具体的应用:

Flink 架构分析

Flink 架构可以分为4层,包括 Deploy 层、Core 层、API 层和 Library 层,如图3所示。

Flink 分层 说明
Deploy 层 该层主要涉及 Flink 的部署模式,Flink 支持多种部署模式——本地、集群(Standalone/YARN)和云服务器(GCE/EC2)。
Core 层 该层提供了支持 Flink 计算的全部核心实现,为 API 层提供基础服务。
API 层 该层主要实现了面向无界 Stream 的流处理和面向 Batch 的批处理 API,其中流处理对应 DataStream API,批处理对应 DataSet API。
Library 层 该层也被称为 Flink 应用框架层,根据 API 层的划分,在 API 层之上构建的满足特定应用的实现计算框架,也分别对应于面向流处理和面向批处理两类。
  • 面向流处理支持 CEP(复杂事件处理)、基于 SQL-like 的操作(基于 Table 的关系操作);
  • 面向批处理支持 FlinkML(机器学习库)、Gelly(图处理)、Table 操作。

Flink架构
图3:Flink 架构

从图3可知, Flink 对底层的一些操作进行了封装,为用户提供了 DataStream API 和 DataSet API。使用这些 API 可以很方便地完成一些流数据处理任务和批数据处理任务。

Flink 基本组件

读者应该对 Hadoop 和 Storm 程序有所了解,在 Hadoop 中实现一个 MapReduce 需要两个阶段——Map 和 Reduce,而在 Storm 中实现一个 Topology 则需要 Spout 和 Bolt 组件。因此,如果我们想实现一个 Flink 任务的话,也需要有类似的逻辑。

Flink 中提供了3个组件,包括 DataSource、Transformation 和 DataSink。
因此,想要组装一个 Flink Job,至少需要这3个组件:

Flink Job = DataSource + Transformation + DataSink

编程帮,一个分享编程知识的公众号。跟着站长一起学习,每天都有进步。

通俗易懂,深入浅出,一篇文章只讲一个知识点。

文章不深奥,不需要钻研,在公交、在地铁、在厕所都可以阅读,随时随地涨姿势。

文章不涉及代码,不烧脑细胞,人人都可以学习。

当你决定关注「编程帮」,你已然超越了90%的程序员!

编程帮二维码
微信扫描二维码关注

所有教程

优秀文章