美文网首页
spark-windows本地环境搭建

spark-windows本地环境搭建

作者: 堂哥000 | 来源:发表于2022-01-11 15:28 被阅读0次
  • 本机系统windows10
  • Hadoop是hadoop-3.2.0,替换hadoop.dll 和winutils.exe (直接换掉bin目录)
    github找 https://github.com/steveloughran/winutils/blob/master/hadoop-3.0.0/bin
  • scala-SDK-2.12.10 , spark2.4.3不需要本地环境pom配置即可 (注意spark3.0会出现java 9 报错,网上的方法都不可用)
  • 环境变量JAVA_HOME、HADOOP_HOME配置,修改hadoop-env.cmd里JAVA_HOME
  • Program Files 替换成~1 , X86 改成~2 C:\PROGRA~1\Java\jdk1.8.0_172
  • pom.xml 文件
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>org.example</groupId>
    <artifactId>HelloWord</artifactId>
    <version>1.0-SNAPSHOT</version>
    <dependencies>

     <dependency>
     <groupId>org.apache.hive</groupId>
     <artifactId>hive-exec</artifactId>
     <version>1.2.1</version>
     </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>2.4.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.12</artifactId>
            <version>2.4.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-mllib_2.12</artifactId>
            <version>2.4.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.7.4</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-mapreduce-client-core</artifactId>
            <version>2.7.4</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-jdbc</artifactId>
            <version>1.2.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.commons</groupId>
            <artifactId>commons-lang3</artifactId>
            <version>3.8.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.4</version>
        </dependency>
    </dependencies>
</project>

测试运行

//  这个包报红注意吧Hadoop的依赖搞上去
import org.apache.spark.{SparkConf, SparkContext}

object HelloWord1 {

  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("大爷")

    val sc = new SparkContext(conf)

    val helloWorld = sc.parallelize(List("Hello,大爷4!","Hello,大爷3!","Hello,大爷1!"))

    helloWorld.foreach(line => println(line))

  }
}

运行结果

result.png

相关文章

  • spark-windows本地环境搭建

    本机系统windows10Hadoop是hadoop-3.2.0,替换hadoop.dll 和winutils.e...

  • Flutter 入坑

    # 本地环境搭建

  • angular学习--02英雄指南

    环境搭建 angular官网--搭建本地开发环境和工作空间windows 10 搭建angular开发环境免搭建环...

  • babel本地编辑环境搭建

    babel本地编辑环境搭建 今天讲的是babel搭建本地环境,众所周知,现如今,javascript已经发布了es...

  • 2019-09-02

    wordpress 环境搭建 0.本地环境搭建 0.1准备工作:安装XMAPP环境 0.1.2 XAMPP保存路径...

  • win7 搭建hadoop demo

    第一次搭建hadoop环境,因为目前没有linux环境,只能在window本地搭建,window环境的搭建比lin...

  • maven

    本地导入gitlab仓库 搭建环境 搭建maven环境Linux的alpine版的镜像adminie_jenkin...

  • Lua运行环境搭建

    运行环境 本地环境搭建 在本地搭建 Lua 编程语言的开发运行环境,你需要在你的计算机上安装如下三个软件:(1) ...

  • 【指南】本地如何搭建IPv6环境测试你的APP

    【指南】本地如何搭建IPv6环境测试你的APP 【指南】本地如何搭建IPv6环境测试你的APP

  • 二、pyflink开发环境搭建

    pyflink本地开发环境搭建 简介 本文指导怎么在本地安装pyflink开发环境。 操作步骤 环境准备 安装py...

网友评论

      本文标题:spark-windows本地环境搭建

      本文链接:https://www.haomeiwen.com/subject/avibcrtx.html