美文网首页
spark-shell 及 日志配置

spark-shell 及 日志配置

作者: RacyFu | 来源:发表于2018-08-23 18:10 被阅读0次

1、当SparkContex线程被调用且没有被stop()时,可以使用http://192.168.1.xxx:4040来监控application的状态,但是当sc关闭时,4040页面就无法打开,所以配置History Server

http://spark.apache.org/docs/latest/running-on-yarn.html     官方文档

$ vi spark-default.conf

spark.eventLog.enabled true

spark.eventLog.dir hdfs://192.168.1.108:9000/sparkhistorylog    #web ui从此处读取历史日志

spark.eventLog.compress true

$ vi spark-env.sh

export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080#访问端口

-   Dspark.history.retainedApplications=3#内存中保存的application数目

-Dspark.history.fs.logDirectory=hdfs://192.168.1.108:9000/sparkhistorylog"

$ hadoop fs -mkdir /sparkhistorylog

$ cd $HADOOP_HOME

$sbin/stop-all.sh

$sbin/start-all.sh

$cd $SPARK_HOME

$sbin/start-history-server.sh

然后输入网址,显示如下

http://192.168.1.xxx:18080/

2、运行spark-shell时,会自动创建SparkContex sc ,

$ cd $SPARK_HOME/sbin

$ ./spark-shell --master yarn

scala> val text = sc.textFile("file:///tmp.hello.txt")

scala> text.count()

打开http://192.168.1.xxx:4040/ 观察job运行状态

相关文章

  • spark-shell 及 日志配置

    1、当SparkContex线程被调用且没有被stop()时,可以使用http://192.168.1.xxx:4...

  • SpringBoot日志框架logback

    简单日志配置 logback的介绍及配置 logback的使用 logback.xml配置示例 一.简单日志配置 ...

  • 日志管理

    错误日志 作用 MySQL启动及工作过程中,查询状态、报错及告警。 如何配置 如何查看错误日志 查看日志时专注查看...

  • Filebeat Logstash 日志预警

    1、Filebeat抓取日志,配置filebeat-demo.yml 2、Logstash接收日志并过滤及报警,配...

  • Spark配置加载过程

    程序提交或者spark-shell 执行后相关配置的加载过程为: 1、首先执行环境配置脚本spark-evn.c...

  • spark on Yarn 动态资源分配

    配置文件: yarn-site.xml yarn-env.sh 使用spark-shell --master ya...

  • PostgreSQL 日志收集及日志切换设置

    PostgreSQL 日志收集及日志切换设置 PostgerSQL安装完成后我们需要对数据库的日志进行设置,配置文...

  • 解决命令行启动CDH种Spark报错org.apache.had

    在命令行启动spark-shell时,发生报错 查看日志可以发现是因为org.apache.hadoop.secu...

  • 日志收集项目

    日志收集项目架构设计及Kafka 目前主流的日志收集方案ELK ELK问题:增加一个日志收集项,需要手动修改配置。...

  • 日志管理

    日志管理 1.错误日志 1.1作用 MySQL 启动及工作过程中,状态、报错、警告 1.2 怎么配置 xiong[...

网友评论

      本文标题:spark-shell 及 日志配置

      本文链接:https://www.haomeiwen.com/subject/lwhmiftx.html