一, 准备
1.安装jdk1.8
2.下载hadoop2.7.7.tar.gz
官网下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
- 下载hadooponwindows-master.zip【**能支持在windows运行hadoop的工具】
下载地址:http://pan.baidu.com/s/1o7YTlJO
二、 安装hadoop2.7.7
下载hadoop2.7.7.tar.gz ,并解压到你想要的目录下,我放在D:\java\hadoop-2.7.7
三、配置hadoop环境变量
HADOOP_HOME = D:\java\hadoop-2.7.7
path 中添加: D:\java\hadoop-2.7.7\sbin
四、修改hadoop配置文件
修改hadoop_home\etc\hadoop中的文件
1.修改core-site.xml
...
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/E:/hadoop/tmp</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/E:/hadoop/name</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
...
2.修改mapred-site.xml(mapred-site.xml.template复制改名称)
...
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:9001</value>
</property>
</configuration>
...
3.修改hdfs-site.xml
...
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/E:/hadoop/hdfs/data</value>
</property>
</configuration>
...
4.修改yarn-site.xml
...
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
...
5.修改hadoop-env.cmd
将JAVA_HOME用 @rem注释掉,编辑为JAVA_HOME的路径,然后保存;
...
@rem set JAVA_HOME=%JAVA_HOME%
set JAVA_HOME=D:\PROGRA~1\Java\jdk1.8.0_112
...
注意:路径中不能有空格。
五、替换文件
下载到的[hadooponwindows-master.zip](http://pan.baidu.com/s/1o7YTlJO),解压,将bin目录(包含以下.dll和.exe文件)文件替换原来hadoop目录下的bin目录;
六、运行环境
1.运行cmd窗口,执行“hdfs namenode -format”;
2.运行cmd窗口,切换到hadoop的sbin目录,执行“start-all.cmd”,它将会启动以下进程。
七、测试上传
1.创建输入目录
hadoop fs -mkdir hdfs://localhost:9000/user/
hadoop fs -mkdir hdfs://localhost:9000/user/wcinput
2.上传数据到目录
hadoop fs -put D:\file1.txt hdfs://localhost:9000/user/wcinput
3.查看文件
hadoop fs -ls hdfs://localhost:9000/user/wcinput
附:
1.资源管理GUI: http://localhost:8088/ ;
2.节点管理GUI: http://localhost:50070/ ;
网友评论