主要内容说明
主要按以下3个大点进行说明,也符合进行操作过程种的步骤,读取数据-操作数据-分析保存数据.
总结起来就是:从哪里获取数据 ; 如何操作数据 ; 分析数据如何保存
-
数据源读取数据
包括对各种数据源的介绍和读取数据的相关API -
数据操作
主要包括 3类操作 RDD API(包括Pair RDD) , DataFrame ,Streaming , Spark SQL ; 这些操作都可以归类为transformation或action -
数据分析和保存
MLlib的使用;数据保存的方法.
会涉及到以下几类信息:
3个编程对象-RDD,DataFrame,DataSet
RDD、DataFrame、Dataset全都是spark平台下的分布式弹性数据集,为处理超大型数据提供便利
RDD:是一个不可变的分布式对象集合。每个RDD都被分为多个分区,这些分区运行在集群中的不同节点上。RDD可以包含 Python、Java、Scala中任意类型的对象,甚至可以包含用户自定义的对象。轻松有效地处理结构化和非结构化的数据。但是像Dataframe和DataSet一样,RDD不会推断出所摄取数据的模式,并且需要用户指定它spark 1.0加入。
DataFrame: DataFrame是组织成命名列的分布式数据集合。它在概念上等同于关系数据库中的表,仅适用于结构化和半结构化数据。它组织命名列中的数据。DataFrames允许Spark使用管理模式,在Spark 1.3时加入。
DataSet: 它是DataFrame API的扩展,提供了RDD API的类型安全、面向对象编程接口的功能,以及Catalyst查询优化器的性能优势和DataFrame API的堆外存储机制,有效地处理结构化和非结构化数据。它表示行的JVM对象或行对象集合形式的数据,Spark1.6加入。
3类编程对象数据源及编译安全性:
RDD:数据源 API允许RDD可以来自任何数据源,例如文本文件、数据库通过JDBC等,并轻松处理没有预定义结构的数据。提供了一种熟悉的面向对象编程风格,具有编译时类型安全性。
DataFrame:数据源API允许以不同的格式进行数据处理(AVRO、CSV、JSON和存储系统HDFS、HIVE表、MySQL)。可以从上面提到的各种数据源读取和写入。 如果尝试访问表中不存在的列,则Dataframe API不支持编译时错误。它仅在运行时检测属性错误。
DataSet:DataSet的API支持各种的数据源。它提供编译时类型安全性 。
2种操作类型-transformation和action
RDD支持两种操作:transformation操作和Action操作。对于各API,都可以归类为这两类
- transformation
RDD 的transformations操作是返回新RDD的操作。且transformations RDD 是惰性求值的,只有在行动操作中用到这些RDD时才会被计算。许多转化操作都是针对各个元素的,也就是说,这些转化操作每次只会操作 RDD 中的一个元素。 - action
对于action操作对RDD计算出一个结果,并把结果返回到驱动器程序中,或把结果存储到外部存储系统(如 HDFS)中
3类数据源和数据目标
Spark 支持从本地文件系统中读取文件,不过它要求文件在集群中所有节点的相同路径下都可以找到.
- 本地: NFS,AFS以及MapR的NFS layer这样的网络文件系统 ; 格式 file:///home/spark/README.md
- HDFS: 连接到HDFS,从HDFS上获取数据 格式 hdfs://master:port/path
- 网络: 如Amazon S3 格式 s3n://bucket/path-within-bucket
4类操作对象 RDD API , DataFrame API,Streaming ,Spark SQL
主要包括对这些对象的构建和使用。
5个模块 core , SQL , Streaming , MLlib , GraphX
-
Spark Core
Spark Core实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统,交互等模块。
Spark Core 中还包含了对弹性分布式数据集(resilient distributed dataset,简称 RDD)的API定义。
RDD 表示分布在多个计算节点上可以并行操作的元素集合,是Spark 主要的编程抽象。 Spark Core 提供了创建和操作这些集合的多个API -
Spark SQL
Spark SQL 是Spark用来操作结构化数据的程序包。通过 Spark SQL,可以使用SQL或者Apache Hive版本的SQL方言(HQL)来查询数据。
Spark SQL 支持多种数据源,比如Hive表、Parquet以及JSON等。除了为Spark提供了一个 SQL接口,Spark SQL 还支
持开发者将 SQL 和传统的 RDD 编程的数据操作方式相结合,不论是使用 Python、 Java还是 Scala,开发者都可以在单个的应用中同时使用 SQL 和复杂的数据分析。通过与 Spark所提供的丰富的计算环境进行如此紧密的结合,Spark SQL得以从其他开源数据仓库工具中脱颖而出。Spark SQL是在Spark1.0中被引入的。 -
Spark Streaming
Spark Streaming 是 Spark 提供的对实时数据进行流式计算的组件。比如生产环境中的网页服务器日志, 或是网络服务中用户提交的状态更新组成的消息队列,都是数据流。
Spark Streaming 提供了用来操作数据流的 API, 并且与 Spark Core 中的 RDD API 高度对应。这样一来,程序员编写应用时的学习门槛就得以降低,不论是操作内存或硬盘中的数据,还是操作实时数据流, 程序员都更能应对自如。从底层设计来看, Spark Streaming 支持与Spark Core 同级别的容错性、吞吐量以及可伸缩性 -
MLlib
Spark 中还包含一个提供常见的机器学习(ML)功能的程序库,叫作 MLlib。 MLlib 提供了很多种机器学习算法, 包括分类、回归、聚类、协同过滤等,还提供了模型评估、数据导入等额外的支持功能。 MLlib 还提供了一些更底层的机器学习原语,包括一个通用的梯度下降优化算法。所有这些方法都被设计为可以在集群上轻松伸缩的架构 -
GraphX
GraphX 是用来操作图(比如社交网络的朋友关系图)的程序库,可以进行并行的图计算。与Spark Streaming和Spark SQL类似, GraphX 也扩展了 Spark 的 RDD API,能用来创建一个顶点和边都包含任意属性的有向图。GraphX还支持针对图的各种操作(比如进行图GraphX 是用来操作图(比如社交网络的朋友关系图)的程序库,可以进行并行的图计算。与 Spark Streaming 和 Spark SQL 类似, GraphX 也扩展了 Spark 的 RDD API,能用来创建一个顶点和边都包含任意属性的有向图。
网友评论