spark任务执行记录
背景:利用pyspark join表,随后写入hive;代码中包含三个写入操作
hiveContext.sql(sql_join).write.saveAsTable("stage_data.users_basic_tmp")
。
查看任务被分为三个job
![](https://img.haomeiwen.com/i2789666/8a19bba57727b4d4.png)
- 第1个任务比较简单,只有一个stage即完成了。
![](https://img.haomeiwen.com/i2789666/979a651c79dc73d2.png)
- 第二个任务比较大,共分为7个stage
![](https://img.haomeiwen.com/i2789666/2d56590f8d14f040.png)
![](https://img.haomeiwen.com/i2789666/96346302c89ba8a5.png)
进入每个stage可查看任务执行状况
![](https://img.haomeiwen.com/i2789666/4d1889a60512493d.png)
也可以查看每个阶段的执行情况
![](https://img.haomeiwen.com/i2789666/b4de1a0987b3a3f3.png)
最终执行完成的结果
![](https://img.haomeiwen.com/i2789666/b5fc3f8d94c9913a.png)
完
spark任务执行记录
背景:利用pyspark join表,随后写入hive;代码中包含三个写入操作
hiveContext.sql(sql_join).write.saveAsTable("stage_data.users_basic_tmp")
。
进入每个stage可查看任务执行状况
也可以查看每个阶段的执行情况
最终执行完成的结果
完
本文标题:spark执行过程分析
本文链接:https://www.haomeiwen.com/subject/uuecrxtx.html
网友评论