- 启动Hadoop所有进程:start-all.sh
- 关闭Hadoop所有进程:stop-all.sh
- 单进程启动:start-dfs.sh和start-yarn.sh分别启动HDFS和YARN
- hdfs dfs -xxx
其中xxx为Linux常用命令:如hdfs dfs -ls 查看hdfs文件系统目录 - 执行mapreduce任务:hdfs jar 程序名称.jar
- 杀死程序:HDFS job -kill 程序编号
- 提交作业到hdfs: hdfs dfs -put/文件路径
- 执行hadoop里面的wordcount程序:
hadoop jar/opt/ hadoop-3.1.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.0.jar wordcount/ylp/inputfile/ylp/outputfile
- 查看hdfs文件结果 hdfs dfs -cat/文件路径
网友评论