基本准备工作:
1、安装虚拟机软件 VMwareWorkStation
2、安装系统centOS
3、准备hdfs相关配置:
jdk(建议完全卸载centos自带的openJDK,选择自己需要的版本)
Hadoop(建议使用2.7.1)和eclipse调试使用不错,当然其他版本也没有问题
4、jdk和Hadoop解压路径
(建议放在usr/local下)
5、修改配置文件
/etc/profile
如下内容:
JAVA_HOME=/usr/jdk1.8.0_101
HADOOP_HOME=/usr/local/hadoop-1.2.1
CLASSPATH=.:$JAVA_HOME/lib
PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
export HADOOP_HOME
export JAVA_HOME
export CLASSPATH
export PATH
6、修改Hadoop配置文件:
core-site.xml
hdfs-site.xml
以上两个配置文件的修改内容参照官网
http://hadoop.apache.org/docs/r1.2.1/single_node_setup.html
7、配置namenode到datannode的无秘连接
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
方法如下:
1、namenode先进行秘钥生成,然后保存到日志中(相当于执行上面两行命令)
2、datanode做上面相同的操作
3、把namenode的id_dsa文件复制到datanode上某一目录
4、把id_dsa文件内容复制到datanode的authorized_keys文件中(3步骤的目的是为了完成4)
5.检测是否实现无密码连接 在namenode ssh datanode
8、将namenode进行格式化操作
(需要在Hadoop/bin下执行如下命令:./hadoop namenode -format)
9.start-all.sh或者start-dfs.sh(前者会把mapreduce都启动了)
10.测试是否启动:可以在某台电脑用JPS命令查看
也可以在namenode机器上使用如下命令 hdfs dfsadmin -report
网友评论