一.简化配置
0.更改主机名并配置hosts映射
# 更改主机名
hostnamectl set-hostname master
# 配置hosts映射
vi /etc/hosts
[填当前机器真是ip] master
1.配置免密
ssh-keygen
ssh-copy-id master
2.关闭防火墙与Selinux
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
3.解压组件
cd /opt
tar -zxvf jdk-8u77-linux-x64.tar.gz
tar -zxvf hadoop-2.6.0.tar.gz
mv jdk1.8.0_77/ jdk
mv hadoop-2.6.0/ hadoop
4.配置文件:hdfs-site.xml
cd /opt/hadoop
vi etc/hadoop/hdfs-site.xml
<!-- 添加以下内容 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!--配合hive beeline 连接配置的时候,允许任意用户连接 -->
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
5.配置文件:core-site.xml
vi etc/hadoop/core-site.xml
<!-- 追加以下内容 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-repo/tmp</value>
<!--配合hive beeline 连接配置的时候,允许任意用户连接 -->
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
</property>
6.配置文件:hadoop-env.sh
vi etc/hadoop/hadoop-env.sh
# 更改以下内容
export JAVA_HOME=/opt/jdk
7.配置环境变量
vi /etc/profile
# 追加以下内容
export JAVA_HOME=/opt/jdk
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# 使环境变量立即生效
source /etc/profile
8.格式化hdfs
hdfs namenode -format
9.启动hdfs
start-dfs.sh
二.Yarn资源管理平台部署
10.配置文件:mapred-site.xml
cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
vi etc/hadoop/mapred-site.xml
<!-- 追加以下内容 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
11.配置文件:yarn-site.xml
vi etc/hadoop/yarn-site.xml
<!--
其实可以简化配置:将名称相同的两项,在value中使用","分隔开
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle,spark_shuffle</value>
</property>
-->
<!-- 追加以下内容 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 当需要Spark程序要运行在 yarn中时,需要更改以下配置 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>spark_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.spark_shuffle.class</name>
<value>org.apache.spark.network.yarn.YarnShuffleService</value>
</property>
<!--配置yarn的主机名 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<!--放置 spark jar包在运行的时候出现关于内存的报错(无法初始化Saprk context,Spark Session等)
1.是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true。
2.是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true。
-->
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
12.启动yarn
start-yarn.sh
网友评论