问题如标题,先说一下我的搭建步骤
1.在主节点主机下,配置好hadoop,yarn,mapred三个env文件以及site文件和salves文件
2.确保tmp文件清空的情况下,格式化namenode
3.将配置好的Hadoop软件包分发给另外两个克隆机
4.用start-dfs.sh命令启动集群。用jps命令确认所需进程是否启动.访问主节点主机Ip:50070网站,把网页tab切换至datanodes,然后发生了一件神奇的事情,图如下
what? 为什么只有一个datanode,而且刷新后发现,三个主机来回切换占用一个datanode。
然后从各网站上面搜寻各种答案。。。。。。
当查到datanode在tmp/dfs/data/current/VERSION里面有自己的Id的时候,我就想到可能是三台机器的datanode占用一个datanode的Id所致,毕竟,namenode和datanode的id是在format namenode的时候生成的,于是我删掉了文件夹下的VERSION(存储datanodeId)的文件,杀掉所有namenode,datanode进程重新用start-hdfs.sh命令启动,然后........................................
suprised! 大功告成!
网友评论