美文网首页大数据
Hadoop 3.2 环境搭建

Hadoop 3.2 环境搭建

作者: 春泥村雨 | 来源:发表于2019-02-20 22:34 被阅读7次

    软件环境

    • java version "1.8.0_181"

    • Apache Hadoop 3.2.0

    • CentOS Linux release 7.4.1708 (Core)

    查看 JDK 与 Hadoop 版本匹配

    https://wiki.apache.org/hadoop/HadoopJavaVersions

    1. Linux 相关设置

    1.1 设置静态 IP

    CentOS 7下面配置静态IP

    https://www.linuxidc.com/Linux/2017-10/147449.htm

    1.2 设置主机名与 IP 地址映射

    修改主机名和 IP 地址映射

    vi /etc/hostname,修改主机名(如,删掉原有内容,命名为 hadoop)
    systemctl restart network,重启网卡
    ping hadoop,ping 通证明成功
    

    参考链接:
    https://blog.csdn.net/sheldonharris/article/details/81287450
    https://blog.csdn.net/q18810146167/article/details/62224082
    https://www.cnblogs.com/zhaojiedi1992/p/zhaojiedi_linux_043_hostname.html

    1.3 免密码 ssh 设置

    ssh-keygen -t rsa,然后一路回车即可
    cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys,复制到公共密钥中
    ssh localhost,测试
    

    http://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html#%E7%9B%AE%E7%9A%84

    扩展阅读:

    DSA与RSA的区别:https://blog.csdn.net/buaaroid/article/details/49428653

    1.4 防火墙设置

    # 查看防火墙状态
    systemctl status firewalld
    systemctl is-active firewalld
    
    # 启动防火墙
    systemctl start firewalld
    
    # 停止防火墙
    systemctl stop firewalld
    
    # 查看IP配置
    more /etc/hosts
    

    2. JDK 安装

    编辑/etc/profile文件,在文件末尾添加以下内容

    # 设置 jdk 环境变量
    export JAVA_HOME=/usr/java/jdk1.8.0_152
    export PATH=$JAVA_HOME/bin:$PATH
    

    参考链接:

    https://www.jianshu.com/p/56671cf746ee

    3. Hadoop 安装

    3.1 下载 Hadoop

    # 解压 Hadoop 到指定文件夹
    tar -zxf hadoop-3.2.0.tar.gz -C /usr/local/hadoop
    
    # 查看 Hadoop 版本信息
    cd /usr/hadoop/local/hadoop-3.2.0 
    ./bin/hadoop version
    

    4. Hadoop 配置

    4.1 建立目录

    # 在 /usr/hadoop/ 目录下,建立 tmp、hdfs/name、hdfs/data 目录
    mkdir /usr/local/hadoop/tmp 
    mkdir /usr/local/hadoop/hdfs 
    mkdir /usr/local/hadoop/hdfs/data 
    mkdir /usr/local/hadoop/hdfs/name
    

    4.2 设置环境变量

    # 设置环境变量
    vi /etc/profile
    
    # set hadoop path
    export HADOOP_HOME=/usr/hadoop/hadoop-3.2.0
    export PATH=$PATH:$HADOOP_HOME/bin
    
    # 使环境变量生效
    source /etc/profile
    
    # CentOS版本用
    source ~/.bash_profile
    

    4.3 修改 Hadoop 配置文件

    配置以下 5 个文件:

    hadoop-3.2.0/etc/hadoop/hadoop-env.sh
    hadoop-3.2.0/etc/hadoop/core-site.xml
    hadoop-3.2.0/etc/hadoop/hdfs-site.xml
    hadoop-3.2.0/etc/hadoop/mapred-site.xml
    hadoop-3.2.0/etc/hadoop/yarn-site.xml
    

    4.3.1 hadoop-env.sh

    # The java implementation to use.
    
    #export JAVA_HOME=${JAVA_HOME}
    export JAVA_HOME=/usr/java/jdk1.8.0_152
    

    export HDFS_NAMENODE_USER=root
    export HDFS_DATANODE_USER=root
    export HDFS_SECONDARYNAMENODE_USER=root

    另一种配置用户:
    start-dfs.sh、stop-dfs.sh

    HDFS_DATANODE_USER=root  
    HDFS_DATANODE_SECURE_USER=hdfs  
    HDFS_NAMENODE_USER=root  
    HDFS_SECONDARYNAMENODE_USER=root
    

    start-yarn.sh、stop-yarn.sh

    YARN_RESOURCEMANAGER_USER=root
    HADOOP_SECURE_DN_USER=yarn
    YARN_NODEMANAGER_USER=root
    

    4.3.2 core-site.xml

    <configuration>
     <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
        <description>HDFS的URI,文件系统://namenode标识:端口号</description>
    </property>
    
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
        <description>namenode上本地的hadoop临时文件夹</description>
    </property>
    </configuration>
    

    注:

    1. name 节点用 fs.defaultFS,不建议使用 fs.default.name;
    2. hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果 hdfs-site.xml 中不配置 namenode 和 datanode 的存放位置,默认就放在如下路径中。
    NameNode
    dfs.name.dir
    预设值:${hadoop.tmp.dir}/dfs/name
    
    DataNode
    dfs.data.dir
    预设值:${hadoop.tmp.dir}/dfs/data
    

    参考链接:
    http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-common/core-default.xml
    https://blog.csdn.net/scgaliguodong123_/article/details/44498173

    4.3.3 hdfs-site.xml

    <configuration> 
       <property>
           <name>dfs.replication</name>
           <value>1</value>
           <description>副本个数,配置默认是3,应小于datanode机器数量</description>
       </property>
    </configuration>
    

    4.3.4 mapred-site.xml

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
    

    4.3.5 yarn-site.xml

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>
    

    5. Hadoop 启动及测试

    5.1 格式化 namenode

    cd /usr/local/hadoop/hadoop-3.2.0
    ./bin/hdfs namenode -format
    

    成功的话,会看到 “successfully formatted” 和 “Exitting with status 0” 的提示,若为 “Exitting with status 1” 则是出错。

    5.2 启动 Hadoop

    cd /usr/local/hadoop/hadoop-3.2.0/sbin
    ./start-all.sh
    

    5.3 验证启动是否成功

    jps
    

    出现如下进程,启动成功

    NodeManager
    Jps
    DataNode
    NameNode
    SecondaryNameNode
    ResourceManager
    

    参考链接:
    (防坑笔记)hadoop3.0 (一) 环境部署与伪分布式(hdfs)
    https://blog.csdn.net/coffeeandice/article/details/78879151

    5.4 浏览器访问管理页面

    Namenode information: http://hadoop1:9870

    All Applications: http://hadoop1:8088

    HDFS NameNode web interface: http://hadoop1:8042

    6. MapReduce 测试自带实例 wordcount

    6.1 创建测试文件

    6.2 上传测试文件到 hdfs

    # 查看 hdfs 上的目录
    hadoop fs -ls /
    # 创建input目录,源数据的存放地
    hadoop fs -mkdir /input
    # 如果有output目录,删除;把结果集输出到这里,事先不能存在
    hadoop fs -rm -r /output
    # 把提前准备好的文本文件上传到 hdfs 的 /input 目录
    hadoop fs -put /home/hadoop/data/*.txt /input
    

    6.3 执行程序 WordCount

    cd /usr/local/hadoop/hadoop-3.2.0/share/hadoop/mapreduce/
    hadoop jar hadoop-mapreduce-examples-3.2.0.jar wordcount /input /output
    
    # 查看 hdfs 上 /output 生成的结果
    hadoop fs -ls /output
    # 输出词频统计结果
    hadoop fs -cat /output/part-r-00000
    

    注:

    MapReduce操作出现错误: 找不到或无法加载主类org.apache.hadoop.mapreduce.v2.app.MRAppMaster 问题解决方法

    https://blog.csdn.net/qq_41684957/article/details/81710190

    参考链接:

    https://blog.csdn.net/qq_32941881/article/details/81382330

    用浏览器不能访问hadoop集群!!!!

    https://blog.csdn.net/w3045872817/article/details/74204604

    通过页面验证hadoop是否安装成功的方法

    https://blog.csdn.net/tsundere_ning/article/details/79590871

    执行shell脚本报错 '\357\273\277': command not found 解决办法

    https://blog.csdn.net/joeyon1985/article/details/39345939

    https://huoding.com/2011/05/14/78

    hadoop3.0.0没有conf文件夹怎么办??

    https://www.imooc.com/qadetail/241583?t=386596

    相关文章

      网友评论

        本文标题:Hadoop 3.2 环境搭建

        本文链接:https://www.haomeiwen.com/subject/ieokyqtx.html