hadoop的HDFS启动会启动NameNode、DataNode、SecondaryNameNode三个进程。在实际生产应用中需要配置各自的实际ip,用来对外提供服务。如果按照HDFS的默认启动配置,三个进程分别默认启动的ip为localhost、localhost和0.0.0.0,如下图所示(NameNode的已经修改过了):
1、配置namenode
$cd /opt/software/hadoop-2.8.1/etc/hadoop/
$vi core-site.xml //url中的ip以真实ip,配置namenode的启动ip
2、配置datanode
$vi slaves //localhost-->实际ip,配置datanode的启动ip
3、配置secondarynamenode
$vi hdfs-site.xml //添加http-address和https-address,配置secondarynamenode的启动ip
4、重启动测试
$../../sbin/stop-dfs.sh
$../../sbin/start-dfs.sh
网友评论