Apache Storm简介及安装部署

作者: 风火数据 | 来源:发表于2018-07-20 17:33 被阅读20次

    Apache Storm是一个分布式的、可靠的、容错的实时数据流处理框架。它与Spark Streaming的最大区别在于它是逐个处理流式数据事件,而Spark Streaming是微批次处理,因此,它比Spark Streaming更实时。

    一、Apache Storm的核心概念

    Nimbus:即Storm的Master,负责资源分配和任务调度。一个Storm集群只有一个Nimbus。

    Supervisor:即Storm的Slave,负责接收Nimbus分配的任务,管理所有Worker,一个Supervisor节点中包含多个Worker进程。

    Worker:工作进程,每个工作进程中都有多个Task。

    Task:任务,在 Storm 集群中每个 Spout 和 Bolt 都由若干个任务(tasks)来执行。每个任务都与一个执行线程相对应。

    Topology:计算拓扑,Storm 的拓扑是对实时计算应用逻辑的封装,它的作用与 MapReduce 的任务(Job)很相似,区别在于 MapReduce 的一个 Job 在得到结果之后总会结束,而拓扑会一直在集群中运行,直到你手动去终止它。拓扑还可以理解成由一系列通过数据流(Stream Grouping)相互关联的 Spout 和 Bolt 组成的的拓扑结构。

    Stream:数据流(Streams)是 Storm 中最核心的抽象概念。一个数据流指的是在分布式环境中并行创建、处理的一组元组(tuple)的无界序列。数据流可以由一种能够表述数据流中元组的域(fields)的模式来定义。

    Spout:数据源(Spout)是拓扑中数据流的来源。一般 Spout 会从一个外部的数据源读取元组然后将他们发送到拓扑中。根据需求的不同,Spout 既可以定义为可靠的数据源,也可以定义为不可靠的数据源。一个可靠的 Spout 能够在它发送的元组处理失败时重新发送该元组,以确保所有的元组都能得到正确的处理;相对应的,不可靠的 Spout 就不会在元组发送之后对元组进行任何其他的处理。一个 Spout 可以发送多个数据流。

    Bolt:拓扑中所有的数据处理均是由 Bolt 完成的。通过数据过滤(filtering)、函数处理(functions)、聚合(aggregations)、联结(joins)、数据库交互等功能,Bolt 几乎能够完成任何一种数据处理需求。一个 Bolt 可以实现简单的数据流转换,而更复杂的数据流变换通常需要使用多个 Bolt 并通过多个步骤完成。

    Stream grouping:为拓扑中的每个 Bolt 的确定输入数据流是定义一个拓扑的重要环节。数据流分组定义了在 Bolt 的不同任务(tasks)中划分数据流的方式。在 Storm 中有八种内置的数据流分组方式。

    Reliability:可靠性。Storm 可以通过拓扑来确保每个发送的元组都能得到正确处理。通过跟踪由 Spout 发出的每个元组构成的元组树可以确定元组是否已经完成处理。每个拓扑都有一个“消息延时”参数,如果 Storm 在延时时间内没有检测到元组是否处理完成,就会将该元组标记为处理失败,并会在稍后重新发送该元组。

    二、Apache Storm的集群架构图

    Zookeeper对于Storm集群来说至关重要,它负责Nimbus和Supervisor之间的通信。Nimbus从Zk中监控各个Supervisor的节点状态,通过ZK将任务分发下去。Supervisor会定时从Zk

    中获取Topology、任务分配信息以及汇报心跳等等。

    三、Apache Storm拓扑图

    一个拓扑中可以有多个Spout和多个Bolt进行协作完成。

    四、Apache Storm集群安装部署

    4.1 软件环境

    三台机器datadev1(Nimbus)、datadev2(Supervisor)、datadev3(Supervisor)

    上面安装JDK1.7+、Python2.6.6、Zookeeper3.4.6、Apache Storm1.1.1

    Storm安装目录位于/opt/storm/current

    4.2 配置Storm

    vi /etc/profile

    export STORM_HOME=/opt/storm/current

    export PATH=$STORM_HOME/bin:$PATH

    cd $STORM_HOME/conf

    vi storm.yaml

    ## Storm 关联的 ZooKeeper 集群的地址列表

    storm.zookeeper.servers:

        - "datadev1"

        - "datadev2"

        - "datadev3"

    ## Nimbus 和 Supervisor 后台进程都需要一个用于存放一些状态数据(比如 jar 包、配置文件等等)的目录

    storm.local.dir: "/home/data/storm"

    ##用于配置主控节点的地址,可以配置多个。从Storm1.0开始,支持Nimbus的HA。

    nimbus.seeds: ["datadev1"]

    ##配置每个 Supervisor 机器能够运行的工作进程(worker)数。每个 worker 都需要一个单独的端口来接收消息,

    ##这个配置项就定义了 worker 可以使用的端口列表。如果你在这里定义了 5 个端口,那么 Storm 就会在该机器上分配最多 5 个worker。

    ##如果定义 3 个端口,那 Storm 至多只会运行三个 worker。

    supervisor.slots.ports:

        - 6700

        - 6701

        - 6702

    以上配置好后,将配置文件分发至其他节点。

    4.3 启动Storm集群

    在datadev1节点上启动Nimbus和UI:

    cd $STORM_HOME/bin

    nohup storm ui >/dev/null 2>&1 &

    nohup storm nimbus >/dev/null 2>&1 &

    在datadev2和datadev3节点上启动Supervisor:

    nohup storm supervisor >/dev/null 2>&1 &

    4.4 Storm UI

    默认启动在8080端口,使用浏览器访问http://datadev1:8080

    欢迎大家关注公众号(菜鸟学习大数据),专注大数据分析方法,大数据编程,大数据仓库,大数据案例,人工智能,数据挖掘都是纯干货分享,

    包括我自己整理的一份最新的适合2018年学习的大数据教程,欢迎初学和进阶中的小伙伴。

    相关文章

      网友评论

        本文标题:Apache Storm简介及安装部署

        本文链接:https://www.haomeiwen.com/subject/aweqmftx.html