美文网首页
[HDFS]动态添加HDFS节点

[HDFS]动态添加HDFS节点

作者: 帅可儿妞 | 来源:发表于2019-07-12 18:41 被阅读0次

    本文主要从基础准备,添加DataNode和添加NodeManager三个部分详细说明在Hadoop2.6.0环境下,如何动态新增节点到集群中。转自:https:// b l o g .csdn.net/xiefu5hh/article/details/52203659

    一、基础准备

    1. 在基础准备部分,主要是设置hadoop运行的系统环境
    2. 修改系统hostname(通过hostname和/etc/sysconfig/network进行修改)
    3. 修改hosts文件,将集群所有节点hosts配置进去(集群所有节点保持hosts文件统一)
    4. 设置NameNode(两台HA均需要)到DataNode的免密码登录(ssh-copy-id命令实现,可以免去cp *.pub文件后的权限修改)
    5. 修改NameNode的slave文件,添加新增节点的ip信息(集群重启时使用)

    二、配置新节点Hadoop环境

    • 可以将hadoop的配置文件scp到新的节点上

    三、添加DataNode

    1. 对于新添加的DataNode节点,需要启动datanode进程,从而将其添加入集群
    2. 在新增的节点上,运行sbin/hadoop-daemon.sh start datanode即可
    3. 然后在namenode通过hdfs dfsadmin -report查看集群情况
    4. 最后还需要对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M,即hdfs dfsadmin -setBalancerBandwidth 67108864即可
    5. 默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%
    6. 然后启动Balancer,sbin/start-balancer.sh -threshold 5,等待集群自均衡完成即可

    四、添加NodeManager

    1. 由于Hadoop 2.X引入了YARN框架,所以对于每个计算节点都可以通过NodeManager进行管理,同理启动NodeManager进程后,即可将其加入集群
    2. 在新增节点,运行sbin/yarn-daemon.sh start nodemanager即可
    3. 在ResourceManager,通过yarn node -list查看集群情况

    相关文章

      网友评论

          本文标题:[HDFS]动态添加HDFS节点

          本文链接:https://www.haomeiwen.com/subject/rbwykctx.html