Flume

作者: 神呐_宽恕我把 | 来源:发表于2019-12-10 11:19 被阅读0次

    Flume介绍

    Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。

    ​ Flume的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过程一定成功,在送到目的地(sink)之前,会先缓存数据(channel),待数据真正到达目的地(sink)后,flume在删除自己缓存的数据。

    ​ Flume支持定制各类数据发送方,用于收集各类型数据;同时,Flume支持定制各种数据接受方,用于最终存储数据。一般的采集需求,通过对flume的简单配置即可实现。针对特殊场景也具备良好的自定义扩展能力。因此,flume可以适用于大部分的日常数据采集场景。

    ​ 当前Flume有两个版本。Flume 0.9X版本的统称Flume OG(original generation),Flume1.X版本的统称Flume NG(next generation)。由于Flume NG经过核心组件、核心配置以及代码架构重构,与Flume OG有很大不同,使用时请注意区分。改动的另一原因是将Flume纳入 apache 旗下,Cloudera Flume 改名为 Apache Flume。

    运行机制:

    Flume系统中核心的角色是agent,agent本身是一个Java进程,一般运行在日志收集节点。

    每一个agent相当于一个数据传递员,内部有三个组件:

    Source:采集源,用于跟数据源对接,以获取数据;

    Sink:下沉地,采集数据的传送目的,用于往下一级agent传递数据或者往最终存储系统传递数据;

    Channel:agent内部的数据传输通道,用于从source将数据传递到sink;

    ​ 在整个数据的传输的过程中,流动的是event,它是Flume内部数据传输的最基本单元。event将传输的数据进行封装。如果是文本文件,通常是一行记录,event也是事务的基本单位。event从source,流向channel,再到sink,本身为一个字节数组,并可携带headers(头信息)信息。event代表着一个数据的最小完整单元,从外部数据源来,向外部的目的地去。

    ​ 一个完整的event包括:event headers、event body、event信息,其中event信息就是flume收集到的日记记录。

    负载均衡(load-balance)

    容错机制(failove)

    Failover Sink Processor维护一个优先级Sink组件列表,只要有一个Sink组件可用,Event就被传递到下一个组件。故障转移机制的作用是将失败的Sink降级到一个池,在这些池中它们被分配一个冷却时间,随着故障的连续,在重试之前冷却时间增加。一旦Sink成功发送一个事件,它将恢复到活动池。 Sink具有与之相关的优先级,数量越大,优先级越高。

    ​ 例如,具有优先级为100的sink在优先级为80的Sink之前被激活。如果在发送事件时汇聚失败,则接下来将尝试下一个具有最高优先级的Sink发送事件。如果没有指定优先级,则根据在配置中指定Sink的顺序来确定优先级。

    flume后台运行

    nohup ./flume-ng agent -c ../conf -f ../conf/g01-taildir-avro-sink.conf -n agent1 -Dflume.root.logger=INFO,console &

    -Dflume.root.logger=INFO,console

    就表示将运行日志输出到控制台。

    那么把该条删除就可以按照log4j的配置输出到对应日志文件中

    注意,如果没有输出到对应日志文件,那么看下flume的lib包中是否含有log4j的依赖jar包

    log4j-1.2.16.jar

    slf4j-api-1.6.4.jar

    slf4j-log4j12-1.6.1.jar

    相关文章

      网友评论

          本文标题:Flume

          本文链接:https://www.haomeiwen.com/subject/tsgwgctx.html