美文网首页
Hadoop安装

Hadoop安装

作者: 请叫我李半仙 | 来源:发表于2018-12-29 10:04 被阅读0次

    hadoop和hbase兼容信息  官方最新版本信息  官方下载推荐信息

    推荐地址1  推荐地址2  推荐地址3  官方地址

    先决条件:

    1.安装ssh服务,因为hadoop的namenode主节点需要能免密登陆到datanode数据节点进行操作

    2.设置域名DNS,编辑/etc/hosts文件,设置每台机器的域名和本机localhost,使用自定义域名定位ip时会更快速

    3.linux资源设置,ulimit表示最多打开的文件数据,默认1024,建议设置最小10240,nproc表示最大打开进程数,同样设置10240,可通过文件/etc/security/limits.conf设置:

    *  soft nofile 10240

    *  hard nofile 10240

    *  soft noproc 10240

    *  hard noproc 10240

    4.机器间的时间偏差不超过30s

    安装hadoop:

    1.下载并解压hadoop程序,各个主机配置hadoop环境变量(4个主机都需要这样操作,用root用户执行)

    # vi /etc/profile

    export HADOOP_HOME=/app/hadoop/hadoop-2.7.3

    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    export HADOOP_LOG_DIR=/app/hadoop/hadoop-2.7.3/logs

    export YARN_LOG_DIR=$HADOOP_LOG_DIR

    # source /etc/profile  #使配置文件生效

    2.修改配置,hadoop包含两个核心功能hdfs和mapreduce,启动后为两个进程,因为我们使用hbase只需要用到hdfs,所以mapreduce相关暂不配

    3.配置/etc/hadoop/hadoop-env.sh文件,设置JAVA_HOME路径

    4.修改etc/hadoop/core-site.xml

    <configuration>

        <!--配置NN在哪台机器以及它的端口,也可说是HDFS的入口 -->

        <property>

            <name>fs.defaultFS</name>

            <value>hdfs://node1:9000</value>

        </property>

        <!-- HDFS工作目录的设置,默认是linux的/temp,每次linux重启会清空,hadoop中的数据会全部丢失.-->

        <!-- 其它一些目录是以这个临时目录为基本目录的,如dfs.name.dir和dfs.name.edits.dir等-->

        <property>

            <name>hadoop.tmp.dir</name>

            <value>/opt/hadoop-2.7.3</value>

        </property>

    </configuration>

    5.修改etc/hadoop/hdfs-site.xml

    <configuration>

            <property>

                    <name>dfs.datanode.data.dir</name>

                    <value>/app/hadoop/hadoop-2.7.3/hdf/data</value>

                    <final>true</final>           

            </property>

            <property>

                    <name>dfs.namenode.name.dir</name>

                    <value>/app/hadoop/hadoop-2.7.3/hdf/name</value>

                    <final>true</final>

            </property>

    </configuration>

    6.配置etc/hadoop/slaves

    删除:localhost

    添加:hadoop1,hadoop3等datanode节点

    7.格式化namenode,在namenode节点执行

    cd /app/hadoop/hadoop-2.7.3/sbin

    hdfs namenode -format

    8.启动

    cd /app/hadoop/hadoop-2.7.3/sbin

    ./start-dfs.sh

    9.检查

    http://172.16.2.156:50070

    http://172.16.2.156:8088/cluster

    10.查看状态

    使用jps

    使用report  /app/hadoop/hadoop-2.7.3/bin/hadoop dfsadmin -report

    ps:若需使用mapreduce,需要配置的文件为etc/hadoop/yarn-env.sh,

    etc/hadoop/slaves,etc/hadoop/mapred-site.xml,etc/hadoop/yarn-site.xml

    相关文章

      网友评论

          本文标题:Hadoop安装

          本文链接:https://www.haomeiwen.com/subject/wypqxqtx.html