通过master节点,统一启动与关闭dfs
每个hdfs块文件备份2份
上传文件实验结果:
从节点的心跳检查时间间隔10秒
down掉slave3的datanode的实验结果:
hadoop.tmp.dir配置为/var/tmphadoop/
使用hadoop fs -put命令上传测试文件hello.txt到hdfs的根目录。用java判断该文件是否存在,如果存在,则删除该文件,如果不存在则上传该文件。
启动Yarn集群,并且配置mapreduce使用yarn做为资源调度,执行wordcount样例程序。
网友评论