美文网首页
Hadoop安装配置

Hadoop安装配置

作者: EmmaQin | 来源:发表于2019-02-11 17:58 被阅读0次

一、Hadoop

1. 下载安装

先确定本地安装了java jdk

1. 下载

当然是官网下载最新:

https://hadoop.apache.org/releases.html

2. 解压你指定的目录

tar -zxvf hadoop-2.9.2.tar.gz /~/software/Hadoop/

2. 修改配置文件

1. 进入hadoopHome/etc/hadoop/

  1. 修改hadoop-env.sh 文件,找到第25行
 24 # The java implementation to use.
 25 #export JAVA_HOME=${JAVA_HOME}
 26 export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_181.jdk/Contents/Home
  1. 修改core-site.xml
<configuration>
<!--配置HDFS的入口,及namenode-->
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
<!-- HDFS工作目录,及临时文件目录,默认是/temp-->
<!-- 其它一些目录是以这个临时目录为基本目录的,如dfs.name.dir等 -->
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/Users/qinxy/software/Hadoop/hadoop-2.9.2/tmp</value>
  </property>
</configuration>
  1. 修改hdfs-site.xml
<!-- 设置hdfs副本数量 -->
<configuration>
  <property>
      <name>dfs.replication</name>
      <value>1</value>
  </property>
</configuration>
  1. 修改yarn-site.xml
<configuration>
<!--NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MapReduce程>序-->
  <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
  </property>
<!--ResourceManager 对客户端暴露的地址。客户端通过该地址向RM提交应用程序,杀死应
用程序等。-->
  <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>localhost</value>
  </property>
</configuration>
  1. 修改mapred-site.xml
<configuration>
  <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
  </property>
</configuration>

2. 将hadoop加入环境变量

在~/.bash_profile文件添加

#haddop
HADOOP_HOME=/Users/qinxy/software/Hadoop/hadoop-2.9.2
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_HOME PATH

3. 启动

  1. 格式化Hadoop,进入目录hadoopHome/etc/hadoop,执行命令

hadoop namenode -format (过时)

hdfs namenode -format

  1. 启动hdfs和yarn

sbin/start-dfs.sh

sbin/start-yarn.sh

  1. 验证是否成功,输入命令:jps,输出如下

61826 NodeManager
61236 SecondaryNameNode
60773 NameNode
61734 ResourceManager
62651 Jps
61134 DataNode

  1. 可以在浏览器中查看hdfs和mr的状态.hdfs管理界面:http://localhost:50070 MR的管理界面:http://localhost:8088

3. hdfs基本操作和wordcount程序

  1. 进入hadoopHome/share/hadoop/mapreduce目录,ls,带有examples的就是示例程序。

hadoop-mapreduce-client-app-2.9.2.jar
hadoop-mapreduce-client-common-2.9.2.jar
hadoop-mapreduce-client-core-2.9.2.jar
hadoop-mapreduce-client-hs-2.9.2.jar
hadoop-mapreduce-client-hs-plugins-2.9.2.jar
hadoop-mapreduce-client-jobclient-2.9.2-tests.jar
hadoop-mapreduce-client-jobclient-2.9.2.jar
hadoop-mapreduce-client-shuffle-2.9.2.jar
hadoop-mapreduce-examples-2.9.2.jar
jdiff
lib
lib-examples
sources

  1. 新建words文件,内容如下

hello tom
hello kitty
hello world
hello tom

  1. 然后使用命令上传到hdfs目录下:

hadoop fs -put words hdfs://localhost:9000/words
或者 hdfs dfs -put words /sqoopTest/hdfs2mysql/words

  1. 使用命令执行wordcount程序

hadoop jar hadoop-mapreduce-examples-2.9.2.jar wordcount hdfs://localhost:9000/words hdfs://localhost:9000/out

  1. 打开hdfs管理界面http://localhost:50070/dfshealth.html
    点击Browse the filesystem,跳转到文件系统界面

进入out目录,点击part-r-00000,Head the file,wordcount程序最终运行的结果如图所示


3. 配置hive

参考另一篇文章:https://www.jianshu.com/p/0cdcb7624530

4. 配置sqoop

参考另一篇文章:https://www.jianshu.com/p/9bd4e87a4b53

参考文章:https://www.cnblogs.com/gyouxu/p/4183417.html

相关文章

网友评论

      本文标题:Hadoop安装配置

      本文链接:https://www.haomeiwen.com/subject/oxurjqtx.html