美文网首页
Spark On Yarn如何查看任务日志

Spark On Yarn如何查看任务日志

作者: king_wang | 来源:发表于2021-10-18 09:39 被阅读0次

无论Flink还是Spark都支持自建集群(standalone cluster)。但是为了保证稳定性和资源隔离等,生产环境里的任务最好借助资源管理框架(如Yarn)运行。任务运行在yarn上,查询日志就可能不是很方便,尤其是任务进程异常退出之后。

JobHistoryServer

yarn容器退出之后,默认是不保存日志的。所以需要开启JobHistoryServer,具体方法网上有很多教程。

查看运行中Spark任务的Log

运行中的Spark任务可以直接通过spark web ui查看:


Executors
Driver Log

查看已退出Spark任务的Log

对于已经结束的yarn应用,spark进程已经退出也无法提供webui服务。

1.通过应用的logs只能看到driver的日志。
Application
spark driver log
2.executor日志在哪里?

根据Flink On Yarn如何查看任务日志,我们已经知道了日志的url组成方式,这次同理,只要找到容器名node就能访问日志了。
driver的url为:http://node5:19888/jobhistory/logs/node3:8041/container_1634207619484_0496_01_000001/container_1634207619484_0496_01_000001/root/stderr/?start=0
搜索driver的日志,找到容器名container_1634207619484_0496_01_000002和hostnode3

spark executor container
所以,最终我们得到executor的url为:http://node5:19888/jobhistory/logs/node3:8041/container_1634207619484_0496_01_000002/container_1634207619484_0496_01_000002/root
spark executor log

总结

运行中的flink/spark的日志查看非常容易,因为它们本身都提供了web ui服务。但是当任务异常退出之后,flink/spark进程的结束导致无法提供web ui服务。我们利用job history server来保留和展示当时的日志。但是yarn的web只展示了flink job manager/spark driver的日志链接,我们需要自己拼接flink task manager/spark executor日志链接。

最后我有一个小疑问:文中介绍的URL组成是推测出来的,其中第三部分/container_1634207619484_0505_01_000001/container_1634207619484_0505_01_000001是两个同样的容器名,这是为什么?希望知道的小伙伴能留言解惑一下。

相关链接:
Flink On Yarn如何查看任务日志
Spark On Yarn如何查看任务日志

相关文章

  • Spark On Yarn如何查看任务日志

    无论Flink还是Spark都支持自建集群(standalone cluster)。但是为了保证稳定性和资源隔离等...

  • Spark on Yarn 查看日志

    一直以来都是在UI界面上查看Spark日志的,但有时想在终端里面查看某个job的日志该怎么看呢?今天特地查了下资...

  • Spark2x on yarn日志配置详解

    概述 Spark on Yarn的日志配置分为两类: Spark on Yarn client模式 Spark o...

  • Flink On Yarn如何查看任务日志

    无论Flink还是Spark都支持自建集群(standalone cluster)。但是为了保证稳定性和资源隔离等...

  • Spark Streaming中自动发送日志到Kafka

    一、目标及思路 1.1 目标 Spark Streaming运行在Yarn上,查看日志不是很方便,而且日志是一个大...

  • `spark.yarn.jar`和`spark.yarn.arc

    启动Spark任务时,在没有配置spark.yarn.archive或者spark.yarn.jars时, 会看到...

  • SparkCore(二)

    每种部署模式如何提交任务? Client模式yarn 本地通过Spark-Submit提交任务,执行Main进程,...

  • 大数据

    (1)查看yarn日志: yarn logs -applicationId application_1530010...

  • 数据倾斜排查

    1. 现象 任务运行非常慢,reduce 长时间卡在 99%。 查看日志: 2. 排查 查看 YARN 上运行状况...

  • Spark on yarn 日志收集

    Spark on yarn 模式,日志会随机分配到某个磁盘。为了Flume收集,需要在提交任务时通过自定义log4...

网友评论

      本文标题:Spark On Yarn如何查看任务日志

      本文链接:https://www.haomeiwen.com/subject/oiggoltx.html