spark

作者: 乔一波一 | 来源:发表于2019-03-11 21:15 被阅读0次

    1.什么是spark

    Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop

    MapReduce的通用并行计算框架,Spark拥有HadoopMapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark是Scala编写,方便快速编程。

    2.Spark与MapReduce的区别

    1).都是分布式计算框架,Spark基于内存,MR基于HDFS。Spark处理数据的能力一般是MR的十倍以上,

    2).Spark中除了基于内存计算外,还有DAG有向无环图来切分任务的执行先后顺序。

    3.Spark运行模式

    Local: 多用于本地测试,如在eclipse,idea中写程序测试等。

    Standalone: Standalone是Spark自带的一个资源调度框架,它支持完全分布式。

    Yarn: Hadoop生态圈里面的一个资源调度框架,Spark也是可以基于Yarn来计算的。

    Mesos: 资源调度框架。

    4.Spark 核心RDD

    概念:RDD(Resilient Distributed Dateset),弹性分布式数据集。

    RDD五大特性:

    1. RDD是由一系列的partition组成的。

    2. 函数是作用在每一个partition(split)上的。

    3. RDD之间有一系列的依赖关系。

    4. 分区器是作用在K,V格式的RDD上。

    5. RDD提供一系列最佳的计算位置。

     1):什么是K,V格式的RDD?

    答:如果RDD里面存储的数据都是二元组对象,那么这个RDD我们就叫做K,V格式的RDD。

    2): 哪里体现RDD的弹性(容错)?

    partition数量,大小没有限制,体现了RDD的弹性。

    RDD之间依赖关系,可以基于上一个RDD重新计算出RDD。

    3): 哪里体现RDD的分布式?

    RDD是由Partition组成,partition是分布在不同节点上的。

    5.Spark代码流程

    1. 创建SparkConf对象

    1)可以设置Application name。

    2) 可以设置运行模式及资源需求。

    2. 创建SparkContext对象

    3. 基于Spark的上下文创建一个RDD,对RDD进行处理。

    4. 应用程序中要有Action类算子来触发Transformation类算子执行。

    5. 关闭Spark上下文对象SparkContext。

    6.Standalone集群搭建及测试

    node01 (Master) node02,node03(Worker)

    1.上传压缩包到虚拟机,解压到/opt目录下

    2.进入到/opt下,修改文件名字为spark-2.3.1

    3.进入到  /opt/spark-2.3.1/conf 目录下

    复制备份如下两个文件

    4.修改 slaves 下面的配置如下

    配置Worker节点

    5.修改 spark-env.sh 为如下配置

    配置Master主机,端口,worker核心数,内存大小

    6.分发到node02,node03

    7.启动Spark集群

    进入 sbin  ./start-all.sh

    8.webUI测试

    成功

    9.测试Spark自带的计算圆周率的example

    进入到 Spark的/bin 目录,下面的 spark-submit用于提交任务

    ./spark-submit --master spark://node01:7077 --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11-2.3.1.jar 100

    相关文章

      网友评论

          本文标题:spark

          本文链接:https://www.haomeiwen.com/subject/tyacpqtx.html