美文网首页
Spark学习笔记2

Spark学习笔记2

作者: wangmin | 来源:发表于2016-02-27 15:30 被阅读276次

Overview

  • 每一个spark程序都是有一个驱动程序组成,并且通过main函数运行。
  • spark有两个重要的抽象:
    • RDD,分布式弹性数据集,他是一个跨越多个节点的分布式集合。
    • 另一个抽象是共享变量。spark支持两种类型的共享变量:一个是广播(broadcast variables)他可以缓存一个值在集群的各个节点。另一个是累加器(accumulators)他只能执行累加的操作,比如可以做计数器和求和。

Initializing Spark

  • 运行spark程序,需要在程序中创建一个JavaSparkContext对象,但是在创建JavaSparkContext对象的时候需要指定SparkConf对象,这个对象是配置一些重要的参数。
SparkConf conf = new SparkConf.setAppName(appName).setMaster(url);
JavaSparkContext sc = new JavaSparkContext(conf); 
  • appName就是这个任务的名字,url代表spark集群的Url地址。这个地址不要写死,因为这样可以通过命令行来传入需要执行的spark集群,方便调试与线上集群运行。

Resilient Distributed Datasets (RDDs)

  • Spark的核心就是围绕着RDD,它是一个自动容错的分布式数据集合。他有两种方式创建,第一种就是在驱动程序中对一个集合进行并行化。第二种是来源于一个外部的存储系统。比如:共享系统、HDFS、HBase或者任何提供任何Hadoop 输入格式的数据源。
    • 第一种:Parallelized Collections 创建这个集合需要调用那个JavaSparkContext的parallelize方法来初始化一个已经存在的集合。
    List<Integer> data = Arrays.asList(1,2,3,4,5);
    JavaRDD<Iteger> distData = sc.parallelize(data);
    
    • 这就创建了一个并行的集合,在这个集合上可以执行 distData.reduce((a, b) -> a + b)

在并行数组中一个很重要的参数是partitions,它来描述数组被切割的数据集数量。Spark会在每一个partitions上运行任务,这个partitions会被spark自动设置,一般都是集群中每个CPU上运行2-4partitions,但是也可以自己设置,可以通过parallelize (e.g. sc.parallelize(data, 10)),在有些地方把partitions成为 slices。

External Datasets

  • JavaRDD distFile = sc.textFile("data.txt");

textFile也可以设置partitions参数,一般都是一个block一个partitions,但是也可以自己设置,自己设置必须要不能少于block的数量。

针对Hadoop的其他输入格式,你能用这个JavaSparkContext.hadoopRDD方法,你需要设置JobConf和输入格式的类。也可以使用JavaSparkContext.newAPIHadoopRDD针对输入格式是基于“new”的MapReduceAPI

RDD Operations

RDD的操作可以分成两类:

1. transformations 
2. actions
  • map就是一个transformation操作,他会针对数据集的每一个元素执行一个函数。然后返回一个新的RDD来替换掉原先的RDD。

  • reduce就是一个action操作,他能够聚合所有的元素通过执行一个函数,然后返回给驱动程序一个最终的值。

  • 所有的transformations都是lazy操作,也就是说并不会马上计算结果,要等到执行一个action操作并且返回一个值给驱动程序的时候才会执行transformations操作。

  • 可以调用RDD的 persist (or cache) 方法来持久化RDD,这样的话在下次使用RDD的时候就会非常快。同时也支持持久化到磁盘,或者复制到多个节点。

  • 直接使用 rdd.foreach(println) 在local模式下是可行的,但是在cluster模式下是不行的,必须要执行collect()方法,将所有的数据拉取到本地,然后执行foreach()操作。如果是数据量比较小的话可以使用take方法,rdd.take(100).foreach(println)

相关文章

  • Spark学习笔记2

    Overview 每一个spark程序都是有一个驱动程序组成,并且通过main函数运行。 spark有两个重要的抽...

  • spark 学习笔记

    Spark学习笔记 Data Source->Kafka->Spark Streaming->Parquet->S...

  • spark

    *Spark Spark 函数Spark (Python版) 零基础学习笔记(一)—— 快速入门 1.map与fl...

  • Spark 2.3.1测试笔记二:SortExec性能测试1

    前言 本例基于1 Spark 2.3.0测试笔记一:Shuffle到胃疼 2 Spark 2.3.0测试笔记二:还...

  • spark学习笔记2-Spark SQL

    本文是对Spark SQL基础知识的一个学习总结,包含如下几部分的内容: 概述 SparkSession类 Dat...

  • 2020-03-17

    spark学习笔记centos安装Oracle VirtualBox: Centos安装Vagrant

  • spark核心编程

    Spark 学习笔记 Spark 架构及组件 client:客户端进程,负责提交job到master Driver...

  • Spark Core 学习笔记

    Spark Core 学习笔记 1、Spark 简介 ​ Spark 是一种用于大规模数据处理的统一计算引擎...

  • 精彩博客收集

    1、Spark MLlib机器学习:黄美灵2、Spark 应用:祝威廉3、Spark 系列:heayin1234、...

  • Spark Architecture

    OReilly.Learning.Spark 学习笔记 Spark里所有操作都是对RDD来的。分为两种 1. Tr...

网友评论

      本文标题:Spark学习笔记2

      本文链接:https://www.haomeiwen.com/subject/vtbwkttx.html