1.什么是spark
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop
MapReduce的通用并行计算框架,Spark拥有HadoopMapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark是Scala编写,方便快速编程。
2.Spark与MapReduce的区别
1).都是分布式计算框架,Spark基于内存,MR基于HDFS。Spark处理数据的能力一般是MR的十倍以上,
2).Spark中除了基于内存计算外,还有DAG有向无环图来切分任务的执行先后顺序。
3.Spark运行模式
Local: 多用于本地测试,如在eclipse,idea中写程序测试等。
Standalone: Standalone是Spark自带的一个资源调度框架,它支持完全分布式。
Yarn: Hadoop生态圈里面的一个资源调度框架,Spark也是可以基于Yarn来计算的。
Mesos: 资源调度框架。
4.Spark 核心RDD
概念:RDD(Resilient Distributed Dateset),弹性分布式数据集。
RDD五大特性:
1. RDD是由一系列的partition组成的。
2. 函数是作用在每一个partition(split)上的。
3. RDD之间有一系列的依赖关系。
4. 分区器是作用在K,V格式的RDD上。
5. RDD提供一系列最佳的计算位置。
1):什么是K,V格式的RDD?
答:如果RDD里面存储的数据都是二元组对象,那么这个RDD我们就叫做K,V格式的RDD。
2): 哪里体现RDD的弹性(容错)?
partition数量,大小没有限制,体现了RDD的弹性。
RDD之间依赖关系,可以基于上一个RDD重新计算出RDD。
3): 哪里体现RDD的分布式?
RDD是由Partition组成,partition是分布在不同节点上的。
5.Spark代码流程
1. 创建SparkConf对象
1)可以设置Application name。
2) 可以设置运行模式及资源需求。
2. 创建SparkContext对象
3. 基于Spark的上下文创建一个RDD,对RDD进行处理。
4. 应用程序中要有Action类算子来触发Transformation类算子执行。
5. 关闭Spark上下文对象SparkContext。
6.Standalone集群搭建及测试
node01 (Master) node02,node03(Worker)
1.上传压缩包到虚拟机,解压到/opt目录下
2.进入到/opt下,修改文件名字为spark-2.3.1
3.进入到 /opt/spark-2.3.1/conf 目录下
复制备份如下两个文件4.修改 slaves 下面的配置如下
配置Worker节点5.修改 spark-env.sh 为如下配置
配置Master主机,端口,worker核心数,内存大小6.分发到node02,node03
7.启动Spark集群
进入 sbin ./start-all.sh
8.webUI测试
成功9.测试Spark自带的计算圆周率的example
进入到 Spark的/bin 目录,下面的 spark-submit用于提交任务
./spark-submit --master spark://node01:7077 --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11-2.3.1.jar 100
网友评论