美文网首页
数据源Parquet之使用编程方式加载数据

数据源Parquet之使用编程方式加载数据

作者: 一个人一匹马 | 来源:发表于2019-02-21 21:55 被阅读0次

Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目,最新的版本是1.8.0。

列式存储和行式存储相比有哪些优势呢?
1、可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。
2、压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如Run Length Encoding和Delta Encoding)进一步节约存储空间。
3、只读取需要的列,支持向量运算,能够获取更好的扫描性能。

这里讲解Parquet数据源的第一个知识点,使用编程的方式加载Parquet文件中的数据。

案例:查询用户数据中的用户姓名。

Java版本:

/**
* Parquet数据源之使用编程方式加载数据
* @author Administrator
*
*/
public class ParquetLoadData {

​public static void main(String[] args) {
​​SparkConf conf = new SparkConf()​​​​.setAppName("ParquetLoadData");  
​​JavaSparkContext sc = new JavaSparkContext(conf);
​​SQLContext sqlContext = new SQLContext(sc);
// 读取Parquet文件中的数据,创建一个DataFrame
​​DataFrame usersDF = sqlContext.read().parquet(​​​​"hdfs://spark1:9000/spark-study/users.parquet");
​​// 将DataFrame注册为临时表,然后使用SQL查询需要的数据
​​usersDF.registerTempTable("users");  
​​DataFrame userNamesDF = sqlContext.sql("select name from users");  
// 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来
List<String> userNames = userNamesDF.javaRDD().map(new Function<Row, String>() {

​​​private static final long serialVersionUID = 1L;

​​​@Override
​​​public String call(Row row) throws Exception {
​​​​return "Name: " + row.getString(0);
​​​}
​​}).collect();

for(String userName : userNames) {
​​​System.out.println(userName);  
​​}
​}
}

Scala版本:

import org.apache.spark.sql.SQLContext
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext

class ParquetLoadData {  
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("ParquetLoadData")  
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
val usersDF = sqlContext.read.parquet("hdfs://spark1:9000/spark-study/users.parquet") 
usersDF.registerTempTable("users")
val userNamesDF = sqlContext.sql("select name from users")  
userNamesDF.rdd.map { row => "Name: " + row(0) }.collect()
   .foreach { userName => println(userName) }  
}
}

相关文章

  • 数据源Parquet之使用编程方式加载数据

    Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apac...

  • spark sql 和 hive 关于 parquet sche

    数据加载方式 Spark中操作Parquet文件有两种方式1、直接加载文件spark.read.parquet("...

  • Spark开发--Spark SQL--数据源(十六)

    一、数据源   Spark SQL的默认数据源格式为parquet格式。数据源为Parquet文件时,SparkS...

  • Spark Sql外部数据源

    Spark支持以下六个核心数据源,同时Spark提供了上百种数据源的读取方式。CSV、JSON、Parquet、O...

  • 手动指定数据源类型

    也可以手动指定用来操作的数据源类型。数据源通常需要使用其全限定名来指定,比如parquet是org.apache....

  • 12.spark sql之读写数据

    简介   Spark SQL支持多种结构化数据源,轻松从各种数据源中读取Row对象。这些数据源包括Parquet、...

  • Spark SQL(三)DataSource

    使用Spark SQL的DataFrame接口,用户可以方便快速的从多种不同数据源(json/parquet/rd...

  • sentinel规则持久化

    Sentinel数据源 Sentinel的数据源可以通过多种方式加载:json、xml文件;zookeeper;a...

  • SparkSql学习一

    1 简介 SparkSql 可以从各种结构化数据源读取数据(JSON Hive Parquet等)中读取数据。而且...

  • Swift4的TableView

    一、懒加载TableView 或者 个人比较推荐使用第二种方法。 二、实现代理、数据源首先让我们先加载一个数据源数...

网友评论

      本文标题:数据源Parquet之使用编程方式加载数据

      本文链接:https://www.haomeiwen.com/subject/vnhjyqtx.html