测试如何使用spark-submit来执行编写的wordcount代码。
1、先简单编写测试文本。
![](https://img.haomeiwen.com/i7356771/e8f6d3945874ab71.png)
2、将文本提交到hdfs上。
指令为:hadoop fs -put 本地路径文件 hdfs文件路径文件
ps:我的hdfs文件路径为:/datas/wordcount
![](https://img.haomeiwen.com/i7356771/d1f19b8af1b75b53.png)
3、编写wordcount代码
![](https://img.haomeiwen.com/i7356771/2e53b601410f3a25.png)
4、使用maven的package打包,生成jar包,根据日志找到jar包路径
![](https://img.haomeiwen.com/i7356771/a7d08e5461be5f26.png)
![](https://img.haomeiwen.com/i7356771/9406fc3aa4ec7521.png)
5、将jar包上传到linux指定目录
![](https://img.haomeiwen.com/i7356771/c546bfaa19ad5dbc.png)
6、spark-submit提交指令
![](https://img.haomeiwen.com/i7356771/277d0646949bcf09.png)
此处要注意换行和传入参数。最后一行的传入参数为文件输入路径。参考代码,为文章开头文本的保存路径。
7、输出结果
![](https://img.haomeiwen.com/i7356771/783332849a76526c.png)
网友评论