美文网首页
172、Spark运维管理进阶之作业监控Spark Metric

172、Spark运维管理进阶之作业监控Spark Metric

作者: ZFH__ZJ | 来源:发表于2019-02-04 14:43 被阅读0次

    Spark有一套可配置的metrics系统,是基于Coda Hale Metrics类库实现的。该metrics系统允许用户将Spark的metrics统计指标上报到多种目标源(sink)中,包括http,jmx和csv文件。这个metrics系统是通过一个配置文件进行配置的,在$SPARK_HOME目录的conf目录下,用一个metrics.properties文件来配置。可以通过在spark-defaults.conf中配置spark.metrics.conf属性来配置自定义的文件路径。spark metrics依据不同的spark组件划分为了不同的实例。在每一个实例中,你都可以配置一系列的sink来指定该实例的metrics要上报到哪里去。

    支持的实例

    以下实例是目前被支持的

    1. master
      spark standalone master进程
    2. applications
      master中的组件,可以上报所有application的metrics
    3. worker
      spark standalone worker进程
    4. executor
      spark executor进程
    5. driver
      spark driver进程

    支持的sink

    每个实例都可以上报metrics到0个或多个sink中。sink被包含在了org.apache.spark.metrics.sink包下。

    1. ConsoleSink
      日志metrics,打印到控制台
    2. CSVSink
      以固定的频率将metrics数据导出到CSV文件中
    3. JmxSink
      注册metrics到JMX console中
    4. MetricsServlet
      在Spark UI中添加一个servlet来通过JSON数据提供metrics数据(之前的REST API就是通过该方式进行的)
    5. Slf4jSink
      以日志的形式发送metrics到slf4j
    6. GraphiteSink
      发送metrics到Graphite节点
    7. GangliaSink
      发送metrics到Ganglia节点。
      Spark也支持Ganglia sink,但是没有包含在默认的打包内,因为有版权的问题。
      要安装GangliaSink,就需要自己编译一个spark。要注意,必须要提供必要的授权信息。

    metrics系统的意义

    1. metrics只能在spark web ui上看到,或者是history server上看历史作业的web ui。
    2. 如果你希望将metrics数据,结构化处理以后导入到,比如mysql里面,然后进行一个存储,开发一个系统对外开放
    3. spark集群运行分析系统
    4. 自定义metrics sink,将所有的metrics全部写入外部的你指定的存储文件中,然后定时导入到你的mysql中

    实验

    自定义metrics sink

    1. 停止集群
    2. 配置spark.metrics.conf文件,启用CSVSink
    3. 重启集群
    4. 运行一个作业,查看指定目录下的csv文件

    相关文章

      网友评论

          本文标题:172、Spark运维管理进阶之作业监控Spark Metric

          本文链接:https://www.haomeiwen.com/subject/mntijqtx.html