美文网首页
数据分析 、 节点管理 、 搭建NFS网关服务

数据分析 、 节点管理 、 搭建NFS网关服务

作者: 秋天丢了李姑娘 | 来源:发表于2021-09-13 19:40 被阅读0次

Hadoop

Hadoop集群管理

集群架构图例

graph TB
M1([hadoop1<br><font color=0000ff>Namenode<br>SecondaryNamenode<br>ResourceManager</font>]) 
N1(node-0001<br><font color=0000ff>DataNode<br>NodeManager</font>)
N2(node-0002<br><font color=0000ff>DataNode<br>NodeManager</font>)
N3(node-0003<br><font color=0000ff>DataNode<br>NodeManager</font>)
M1 --> N1 & N2 & N3

重新初始化集群

警告:<font color=ff0000>该方法会丢失所有数据</font>

1、停止集群  /usr/local/hadoop/sbin/stop-all.sh
2、删除所有节点的  /var/hadoop/*
3、在 hadoop1 上重新格式化 /usr/local/hadoop/bin/hdfs namenode -format
4、启动集群  /usr/local/hadoop/sbin/start-all.sh
[root@hadoop1 ~]# /usr/local/hadoop/sbin/stop-all.sh
[root@hadoop1 ~]# for i in hadoop1 node-{0001..0003};do
                      ssh ${i} 'rm -rf /var/hadoop/*'
                  done
[root@hadoop1 ~]# /usr/local/hadoop/bin/hdfs namenode -format
[root@hadoop1 ~]# /usr/local/hadoop/sbin/start-all.sh

增加新的节点

购买云主机
主机 IP地址 配置
newnode 192.168.1.54 最低配置2核2G
新节点安装

在 hadoop1 上执行

[root@hadoop1 ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub 192.168.1.54
[root@hadoop1 ~]# vim /etc/hosts
192.168.1.50    hadoop1
192.168.1.51    node-0001
192.168.1.52    node-0002
192.168.1.53    node-0003
192.168.1.54    newnode
[root@hadoop1 ~]# for i in node-{0001..0003} newnode;do
                      rsync -av /etc/hosts ${i}:/etc/
                  done
[root@hadoop1 ~]# rsync -aXSH /usr/local/hadoop newnode:/usr/local/

在 newnode 节点执行

[root@newnode ~]# yum install -y java-1.8.0-openjdk-devel
[root@newnode ~]# /usr/local/hadoop/sbin/hadoop-daemon.sh start datanode
[root@newnode ~]# /usr/local/hadoop/bin/hdfs dfsadmin -setBalancerBandwidth  500000000
[root@newnode ~]# /usr/local/hadoop/sbin/start-balancer.sh
[root@newnode ~]# /usr/local/hadoop/sbin/yarn-daemon.sh start nodemanager
[root@newnode ~]# jps
1186 DataNode
1431 NodeManager
1535 Jps

验证集群(hadoop1上执行)

[root@hadoop1 ~]# /usr/local/hadoop/bin/hdfs dfsadmin -report
... ...
-------------------------------------------------
Live datanodes (4):
[root@hadoop1 ~]# /usr/local/hadoop/bin/yarn node -list
... ...
Total Nodes:4
删除节点

配置数据迁移 hdfs-site.xml(hadoop1上做,不需要同步)

[root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
    <property>
        <name>dfs.hosts.exclude</name>
        <value>/usr/local/hadoop/etc/hadoop/exclude</value>
    </property>

配置排除主机列表,并迁移数据(hadoop1上执行)

# 在删除配置文件中添加 newnode
[root@hadoop1 ~]# echo newnode >/usr/local/hadoop/etc/hadoop/exclude
# 迁移数据
[root@hadoop1 ~]# /usr/local/hadoop/bin/hdfs dfsadmin -refreshNodes
# 查看状态,仅当节点状态为 Decommissioned 时候才可以下线
[root@hadoop1 ~]# /usr/local/hadoop/bin/hdfs dfsadmin -report

下线节点(newnode执行)

[root@newnode ~]# /usr/local/hadoop/sbin/hadoop-daemon.sh stop datanode
[root@newnode ~]# /usr/local/hadoop/sbin/yarn-daemon.sh stop nodemanager

NFS网关

NFS网关架构图
graph LR
subgraph HDFS集群
  N1[(namenode)] === D1[(datanode)] & D2[(datanode)] & D3[(datanode)]
end
subgraph NFS网关
  S2{NFS服务} o--o S1{HDFS客户端} --> N1
end
S1 -.-> D1 & D2 & D3
C((客户端)) o--o |mount| S2
classDef HDFS color:#9f0000,fill:#aaccff
class HDFS集群 HDFS
classDef GW color:#9f0000,fill:#22ff66
class NFS网关 GW
classDef C fill:#f9f,stroke:#333,stroke-width:4px;
class C C
购买云主机
主机 IP地址 配置
nfsgw 192.168.1.55 最低配置1核1G
HDFS用户授权

hadoop1与nfsgw都要添加用户

[root@hadoop1 ~]# groupadd -g 800 nfsuser
[root@hadoop1 ~]# useradd  -g 800 -u 800 -r -d /var/hadoop nfsuser
#----------------------------------------------------------------------------------------
[root@nfsgw ~]# groupadd -g 800 nfsuser
[root@nfsgw ~]# useradd  -g 800 -u 800 -r -d /var/hadoop nfsuser
HDFS集群授权
[root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/core-site.xml
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop1:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/hadoop</value>
    </property>
    <property>
        <name>hadoop.proxyuser.nfsuser.groups</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.nfsuser.hosts</name>
        <value>*</value>
    </property>
</configuration>
[root@hadoop1 ~]# /usr/local/hadoop/sbin/stop-all.sh
[root@hadoop1 ~]# for i in node-{0001..0003};do
                      rsync -avXSH /usr/local/hadoop/etc ${i}:/usr/local/hadoop/
                  done
[root@hadoop1 ~]# /usr/local/hadoop/sbin/start-dfs.sh
[root@hadoop1 ~]# jps
5925 NameNode
6122 SecondaryNameNode
6237 Jps
[root@hadoop1 ~]# /usr/local/hadoop/bin/hdfs dfsadmin -report
... ...
-------------------------------------------------
Live datanodes (3):
NFS网关服务
[root@nfsgw ~]# yum remove -y rpcbind nfs-utils
[root@nfsgw ~]# vim /etc/hosts
192.168.1.50    hadoop1
192.168.1.51    node-0001
192.168.1.52    node-0002
192.168.1.53    node-0003
192.168.1.55    nfsgw
[root@nfsgw ~]# yum install -y java-1.8.0-openjdk-devel
[root@nfsgw ~]# rsync -aXSH --delete hadoop1:/usr/local/hadoop /usr/local/
[root@nfsgw ~]# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
<configuration>
    <property>
        <name>dfs.namenode.http-address</name>
        <value>hadoop1:50070</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop1:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.hosts.exclude</name>
        <value>/usr/local/hadoop/etc/hadoop/exclude</value>
    </property>
    <property>
        <name>nfs.exports.allowed.hosts</name>
        <value>* rw</value>
    </property>
    <property>
        <name>nfs.dump.dir</name>
        <value>/var/nfstmp</value>
    </property>
</configuration>
[root@nfsgw ~]# mkdir /var/nfstmp
[root@nfsgw ~]# chown nfsuser.nfsuser /var/nfstmp
[root@nfsgw ~]# rm -rf /usr/local/hadoop/logs/*
[root@nfsgw ~]# setfacl -m user:nfsuser:rwx /usr/local/hadoop/logs
[root@nfsgw ~]# getfacl /usr/local/hadoop/logs
[root@nfsgw ~]# cd /usr/local/hadoop/
[root@nfsgw hadoop]# ./sbin/hadoop-daemon.sh --script ./bin/hdfs start portmap
[root@nfsgw hadoop]# jps
1376 Portmap
1416 Jps
[root@nfsgw hadoop]# rm -rf /tmp/.hdfs-nfs
[root@nfsgw hadoop]# sudo -u nfsuser ./sbin/hadoop-daemon.sh --script ./bin/hdfs start nfs3
[root@nfsgw hadoop]# sudo -u nfsuser jps
1452 Nfs3
1502 Jps
mount验证
[root@newnode ~]# yum install -y nfs-utils
[root@newnode ~]# showmount -e 192.168.1.55
Export list for 192.168.1.55:
/ *
[root@newnode ~]# mount -t nfs -o vers=3,proto=tcp,nolock,noacl,noatime,sync 192.168.1.55:/ /mnt/
[root@newnode ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on
192.168.1.55:/  118G   15G  104G  13% /mnt

相关文章

  • 数据分析 、 节点管理 、 搭建NFS网关服务

    Hadoop Hadoop集群管理 集群架构图例 重新初始化集群 增加新的节点 购买云主机 主机IP地址配置new...

  • k8s基于NFS创建Storageclass

    结果展示 搭建NFS服务器 注意:安装nfs相关软件时需要在k8s的各个节点上都要安装参考Centos7搭建NFS...

  • nfs 搭建以及在k8s中的应用

    1. 如何搭建nfs服务 作为准备工作,我们已经在 k8s-master 节点上搭建了一个 NFS 服务器,目录为...

  • 07 NFS搭建

    我们这里把NFS服务器搭建再K8s的一个master节点上 1、在NFS服务器上安装服务端软件 编辑/etc/ex...

  • Linux-NFS存储服务

    1.NFS存储服务作用 实现数据的共享存储编写数据操作管理节省购买服务器磁盘开销 2.NFS服务部署流程 RPC:...

  • 搭建、挂载nfs及卸载

    搭建 1、 安装 nfs 和 rpc 2、运行 rpc 和 nfs (先启动RPC服务,然后再启动NFS服务) ...

  • nfs+keeep+rsync高可用

    架构图如下: 服务器信息 安装相关服务 两个service 节点 安装nfs client 节点 2.配置nfs服...

  • 2018-10-24 (linxu如何创建NFS共享文件系统)

    linxu如何创建NFS共享文件系统服务端搭建nfs服务器1. yum -y install nfs-utils ...

  • Linux实用工具-nfs

    nfs服务器建立 本文介绍Linux环境下nfs服务的搭建过程。 简介 nfs服务的作用是让其他机器可以通过网络把...

  • 40-存储-NFS

    一、搭建NFS-Server 安装nfs-utils 创建 exports 文件 启动 NFS 服务并创建共享目录...

网友评论

      本文标题:数据分析 、 节点管理 、 搭建NFS网关服务

      本文链接:https://www.haomeiwen.com/subject/vygfgltx.html