美文网首页我爱编程
hadoop 分布式环境搭建

hadoop 分布式环境搭建

作者: Jason_M_Ho | 来源:发表于2018-04-29 16:52 被阅读0次

准备

  • 在 vmware 虚拟机中安装 Linux 系统
  • 安装 vmware-tool 工具,可以增强桌面显示效果,还可以和宿主机用共享文件夹的方式传递文件
    • 解压 vmware-tool.iso 文件,sudo ./vmware-install.pl 执行安装脚本即可
    • 启用共享文件夹

搭建分布式系统需要多台虚拟机

  • 创建用户组和用户
  • 第一台虚拟机在关机状态下创建一个完整克隆,就有了两台虚拟机(有两台以上真机更好,这里只能虚拟几台了)

修改主机名

  • 修改 /etc/hostname ,添加 jason
  • 修改 /etc/hosts ,添加 192.168.1.200 jason192.168.1.201 jason2 (可以把ip设置成固定的)
  • 修改第二台 /etc/hosts ,添加 192.168.1.200 jason192.168.1.201 jason2 (检测互相 ping 通)

SSH 无密码验证

  • sudo apt-get install openssh-server(如果是CentOS,就用sudo yum install openssh-server),安装客户端
  • ssh-keygen -t rsa -P,生成公钥和私钥
  • 查看路径/home/jason/.ssh文件里是否有id_rsaid_rsa.pub
  • 将公钥赋给 authorized_keys:cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
  • 无密码登录:ssh localhost
  • 在 jason 上执行:ssh-copy-id jason2,查看 jason2的/home/jason/.ssh文件里是否有authorized_keys
  • 在 jason2 上执行相同的操作

安装 JDK

  • 先卸载自带的 openjdk
    • rpm -qa | grep jdk 找到系统自带的版本,
    • yum -y remove ***** 卸载之,
  • /usr/local/ 目录下创建文件夹 jdk ,把要安装的jdk解压到这个目录下
  • 配置环境变量 vim /etc/profile ,添加下面的配置
    • export JAVA_HOME=/usr/local/jdk/jdk1.8.0_171
      export JRE_HOME=$JAVA_HOME/jre
      export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
      export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
      PS:可以把 bin 和 sbin 都配置在 PATH 中,方便以后使用;
    • 执行命令,使配置生效:source /etc/profile
    • 执行命令:java -version,若出现java版本号,则说明安装成功

hadoop 集群安装

  • 解压 hadoop-2.6.0.tar.gz/home/jason/ 目录,把名字改成 hadoop,
  • 配置环境变量 vim /etc/profile ,添加下面的配置
    • export HADOOP_HOME=/home/jason/hadoop
      export PATH=$HADOOP_HOME/bin:$PATH
  • 修改 hadoop 配置文件,在hadoop/etc/hadoop目录下,有 7 个:
    • 1, 配置 hadoop-env.sh 文件-->修改 JAVA_HOME
      • export JAVA_HOME=/usr/local/jdk/jdk1.8.0_71
    • 2, 配置 yarn-env.sh 文件-->修改 JAVA_HOME
      • export JAVA_HOME=/usr/local/jdk/jdk1.8.0_71
    • 3,配置slaves文件-->>增加 slave 节点
      • 删除 localhost, 增加jason jason2
    • 4,配置 core-site.xml 文件-->>增加 hadoop 核心配置
<configuration>
<property>
     <name>fs.defaultFS</name>
     <value>hdfs://jason:9000</value>
</property>
<property>
    <name>io.file.buffer.size</name>
    <value>131072</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>file:/home/jason/hadoop/tmp</value>
    <description>Abasefor other temporary directories.</description>
</property>
<property>
   <name>hadoop.native.lib</name>
   <value>true</value>
   <description>Should native hadoop libraries, if present, be used.</description>
</property> 
</configuration>

  • 5,配置 hdfs-site.xml 文件-->>增加hdfs配置信息(namenode、datanode端口和目录位置)
<configuration>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>jason:9001</value>
</property>

<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/home/jason/hadoop/dfs/name</value>
</property>

<property>
    <name>dfs.datanode.data.dir</name>
    <value> file:/home/jason/hadoop/dfs/data</value>
</property>

<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>

<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>
</configuration>

  • 6,配置 mapred-site.xml 文件-->>增加mapreduce配置(使用yarn框架、jobhistory使用地址以及web地址)
<configuration>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
<property>
    <name>mapreduce.jobhistory.address</name>
    <value>jason:10020</value>
</property>
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value> jason:19888</value>
</property>
</configuration>

  • 7,配置 yarn-site.xml 文件-->>增加yarn功能
<configuration>
 <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
 </property>
 <property>
     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
     <value>org.apache.hadoop.mapred.ShuffleHandler</value>
 </property>
 <property>
      <name>yarn.resourcemanager.address</name>
      <value>jason:8032</value>
 </property>
 <property>
     <name>yarn.resourcemanager.scheduler.address</name>
     <value>jason:8030</value>
 </property>
 <property>
      <name>yarn.resourcemanager.resource-tracker.address</name>
      <value>jason:8035</value>
 </property>
  <property>
      <name>yarn.resourcemanager.admin.address</name>
      <value>jason:8033</value>
 </property>
 <property>
      <name>yarn.resourcemanager.webapp.address</name>
      <value>jason:8088</value>
 </property>

</configuration>


  • 8,将配置好的 jason 中/hadoop/etc/hadoop文件夹复制到到 jason2 对应位置(删除 jason2 原来的文件夹/hadoop/etc/hadoop)
    在 jason 中执行拷贝命令: scp -r /home/jason/hadoop/etc/hadoop/ jason@jason2:/home/jason/hadoop/etc/

验证安装

  • 格式化 namenode
    • 执行 ./bin/hdfs namenode -format 出现“successfully formatted”就表示成功了
  • 启动 hdfs
    • 执行 ./sbin/start-dfs.sh
  • 查看 java 进程
    • 执行 jps
  • 停 止 hdfs
    • 执行 ./sbin/stop-dfs.sh
  • 启动 yarn
    • 执行 ./sbin/start-yarn.sh
  • 查看 java 进程
    • 执行 jps
  • 停 止 yarn
    • 执行 ./sbin/stop-yarn.sh
  • 查看集群状态
    • 启动:./sbin/start-dfs.sh
    • 查看:./bin/hdfs dfsadmin -report
  • 查看hdfs: http://jason:50070/
  • 查看yarn: http://jason:8088/

运行 wordcount 程序

wordcount 程序由 hadoop 提供,位于share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar内。

  • 创建 file目录

  • 在 file 中创建 file1.txt、file2.txt 并写内容:
    file1.txt输入内容:Hello world hi HADOOP
    file2.txt输入内容:Hello hadoop hi CHINA

  • 在 hdfs 创建 /input2 目录: ./bin/hadoop fs -mkdir /input2

  • 将file1.txt、file2.txt文件 copy 到 hdfs /input2 目录:./bin/hadoop fs -put file/file*.txt /input2

  • 查看hdfs上是否有file1.txt、file2.txt文件:hadoop fs -ls /input2/

  • 执行 wordcount 程序

    • 先启动 hdfs 和 yarn
    • 执行程序:./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount /input2/ /output2/wordcount1
  • 查看运行结果:/bin/hdfs dfs -cat /output2/wordcount1/*

相关文章

网友评论

    本文标题:hadoop 分布式环境搭建

    本文链接:https://www.haomeiwen.com/subject/petalftx.html