美文网首页我爱编程
HDFS三个进程以hadoop用户启动2018-05-18

HDFS三个进程以hadoop用户启动2018-05-18

作者: 糊涂蟲 | 来源:发表于2018-05-18 15:03 被阅读0次

1、伪分布式部署完后通过jps会发现hdfs有三个进程

三个进程默认属性为:

NameNode:localhost

DataNode:localhost

SecondaryNameNode:0.0.0.0

2、查看官网

http://hadoop.apache.org/

左下角点开Documentation,找到Release 2.8.X

单节点配置点开Single Node Setup

配置表在左边最底下Configuration

3、修改namenode

#cd   /opt/software/hadoop-2.8.1/etc/hadoop

vi    core_site.xml

将localhost换成IP:192.168.137.130

重启dfs.sh 后     namenode变为hadoop000

windows即可打开访问http://192.168.137.130:50070(记住端口号)

4、修改datenode

#cd   /opt/software/hadoop-2.8.1/etc/hadoop

vi    slaves

将localhost改为:192.168.137.130

ps:如果多台机器,IP用逗号分开

重启dfs.sh 后    datenode变为hadoop000

5、修改SecondaryNameNode

1、先到官网找到对应的http和https的参数

2、vi hdfs-side.xml,添加以下配置,后重启dfs.sh

相关文章

网友评论

    本文标题:HDFS三个进程以hadoop用户启动2018-05-18

    本文链接:https://www.haomeiwen.com/subject/pefgdftx.html