您的位置:首页 > 运维架构 > 网站架构

Flume架构、Flume工作原理、Flume应用场景

2018-11-07 21:48 295 查看
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zjh_746140129/article/details/83832418

一、Flume概述

Flume是由 Cloudera 提供的一个分布式、高可靠、高可用的服务,用于分布式的海量日志的高效收集、聚合、移动系统。简单来说,Flume 就是一个针对日志数据进行采集和汇总的一个工具(把日志从A地方移动到B地方)

Flume 官网:http://flume.apache.org/ 

Flume 官方文档:http://flume.apache.org/FlumeUserGuide.html

Flume 特点:

(1)、可靠性:当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:

①.end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;如果数据发送失败,可以重新发送); 

②.Store on failure(这也是scribe采用的策略,当数据接收方crash时,将数据写到本地,待恢复后,继续发送); 

③.Best effort(数据发送到接收方后,不会进行确认)。

(2)、可扩展性:Flume采用了三层架构,分别为agent,collector和storage,每一层均可以水平扩展所有agent和collector由master统一管理,这使得系统容易监控和维护,且master允许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。

(3)、可管理性 

①.所有agent和colletor由master统一管理,这使得系统便于维护。 

②.多master情况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。 

③.用户可以在master上查看各个数据源或者数据流执行情况,且可以对各个数据源配置和动态加载。 

④.Flume提供了web 和shell script command两种形式对数据流进行管理。①

(4)、功能可扩展性 

①.用户可以根据需要添加自己的agent,collector或者storage。 

②.此外,Flume自带了很多组件,包括各种agent(file, syslog等),collector和storage(file,HDFS等)。

(5)、文档丰富,社区活跃 

Flume 是Apache下的一个顶级项目,已经成为 Hadoop 生态系统的标配,它的文档比较丰富,社区比较活跃,方便我们学习。

 

主要的核心概念:

Event:flume最基本的数据单元,带有一个可选的消息头(headers)。如果是文本,event通常是一行记录,event也是事务的基本单位。

Flow:Event从源点到达目的点的迁移的抽象。

Client:操作位于源点处的Event,将其发送到Flume Agent。

Agent:一个独立的Flume进程,包含组件Source、Channel、Sink。

Source:用来消费传递到该组件的Event,完成对数据的收集,分成transtion和event打入到channel之中。不同的 source,可以接受不同的数据格式。

Channel:主要提供一个队列的功能,对source提供中的数据进行简单缓存,作用是保证source到sink的数据传输过程一定能成功。

Sink:取出Channel中的数据,进行相应的存储文件系统、数据库等。

 

 

二、Flume架构

     

 

三、Flume工作原理

         Flume的核心就是一个agent,这个agent对外有两个进行交互的地方,一个是接受数据的输入——source,一个是数据的输出sink,sink负责将数据发送到外部指定的目的地。source接收到数据之后,将数据发送给channel,chanel作为一个数据缓冲区会临时存放这些数据,随后sink会将channel中的数据发送到指定的地方—-例如HDFS等,注意:只有在sink将channel中的数据成功发送出去之后,channel才会将临时数据进行删除,这种机制保证了数据传输的可靠性与安全性。

 

四、Flume应用场景

 

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: