通过master节点,统一启动与关闭dfs


每个hdfs块文件备份2份

上传文件实验结果:

从节点的心跳检查时间间隔10秒

down掉slave3的datanode的实验结果:

hadoop.tmp.dir配置为/var/tmphadoop/

使用hadoop fs -put命令上传测试文件hello.txt到hdfs的根目录。用java判断该文件是否存在,如果存在,则删除该文件,如果不存在则上传该文件。


启动Yarn集群,并且配置mapreduce使用yarn做为资源调度,执行wordcount样例程序。



网友评论