1.下载安装包
虚拟机
jdk-1.8
scala
spark
Hadoop
2.安装虚拟机和Linux
3.配置jdk
4.配置Hadoop
4.1Hadoop单机配置
5.安装scala
6.配置spark
7.spark集群环境的测试
1.下载安装包
虚拟机
jdk-1.8
scala
spark
Hadoop
2.安装虚拟机和Linux
3.配置jdk
4.配置Hadoop
4.1Hadoop单机配置
5.安装scala
6.配置spark
7.spark集群环境的测试
本文标题:Spark+hadoop环境配置
本文链接:https://www.haomeiwen.com/subject/wzovyxtx.html
网友评论