美文网首页我爱编程
Hive实践分享:存储和压缩的坑

Hive实践分享:存储和压缩的坑

作者: 嘿嘿海海 | 来源:发表于2018-05-23 10:37 被阅读0次

码代码,写程序,总是麻烦一大堆。Hive在存储和压缩的时候,总是避免不了踩进坑里面。今天,我们一起来看看一位大神Hive实践分享:存储和压缩的坑

这位大神最近在阿里云跑数据,想分析一下借款用户的行为路径轨迹,由于数据量级很大,而且行为数据很脏,所以需要将加工数据导出到本地文件系统,再下载到电脑上!结果发现数据是二进制形式压缩,根本没法看

大家都知道,由于集群资源有限,我们一般都会针对数据文件的「存储结构」和「压缩形式」进行配置优化。结合实际查看以后,发现集群的文件存储格式为Parquet,一种列式存储引擎,类似的还有ORC。而文件的压缩形式为Snappy。具体的操作形式如下:①创建Parquet结构的表(Hive 0.13 and later):CREATE TABLE CRM.DEMO(A INT) STORED AS PARQUET ;② 确认表的文件存储格式:desc formatted crm.demo;结果输出如下# Storage Information    SerDe Library:org.apache.hadoop.hive.ql.io .parquet.serde.ParquetHiveSerDe  InputFormat:org.apache.hadoop.hive.ql.io .parquet.MapredParquetInputFormat  OutputFormat:org.apache.hadoop.hive.ql.io 

.parquet.MapredParquetOutputFormat ③ 创建Snappy压缩格式的Parquet结构的表(待考察):ALTER TABLE crm.demo SET TBLPROPERTIES ('parquet.compression'='SNAPPY') ;或,写入时SET parquet.compression=SNAPPY ;相对来说,还是比较简单,更多关于压缩内容的,参考这篇文章:链接:Hive压缩说明 - CSDN博客回到最初的问题,如果是按Snappy压缩的格式,这份用户行为数据没办法分析了,因此有两种办法去解决:① 安装Snappy的解压工具可自行百度(链接:压缩软件Snappy的安装 - 一心行走 - 博客园 ),由于没有权限,所以这条路行不通;② 更改数据的压缩格式最初我试了一下更改Parquet格式表的压缩格式,但是没有用!因为我最后是需要将查询数据导出到本地文件系统,如下语句所示:insert  overwrite  local  directory  '/home/etl/tmp/data' select *from crm.demo所以,通过这样的形式得到的数据,压缩格式依然是. Snappy。因此,这里就需要配置Hive执行过程中的中间数据和最终数据的压缩格式。如MapReduce的shuffle阶段对mapper产生的中间结果数据压缩:hive> set mapred.map.output.compression.codec;mapred.map.output.compression.codec=org.apache.hadoop.io .compress.SnappyCodec如对最终生成的Hive表的数据压缩:hive> set mapred.output.compression.codec;mapred.output.compression.codec=org.apache.hadoop.io .compress.SnappyCodec这里,我们要设置结果表数据的压缩格式,语句如下:set mapred.output.compression.codec=org.apache.hadoop.io .compress.GzipCodec;最终的结果就是.gz 的压缩格式-rw-r--r-- 1 etl etl 342094 May 10 11:13 000000_0.gz最后,我们直接下载到电脑本地,直接解压就可以通过Excel分析用户行为路径数据了。

结合以上信息看来,我们可以总结出一点经验:

Hive应用层的角度来说,关于数据文件的「存储结构」和「压缩形式」,这两个点我们不需要关心,只是在导出数据的时候需要结合文件大小,以及数据类型去设置合适的压缩格式。

Hive底层维护的角度来说,涉及到各种各样的「存储结构」和「压缩形式」,都需要开发者去研究和调整,这样才能保证集群上的文件在「时间」和「空间」上相对平衡。

对大数据感兴趣的小伙伴们可以到科多大数据进行咨询哟~

相关文章

  • Hive实践分享:存储和压缩的坑

    码代码,写程序,总是麻烦一大堆。Hive在存储和压缩的时候,总是避免不了踩进坑里面。今天,我们一起来看看一位大神H...

  • Hive实践分享之存储和压缩的坑

    Hive实践分享之存储和压缩的坑 在学习大数据技术的过程中,HIVE是非常重要的技术之一,但我们在项目上经常会遇到...

  • Hive实践分享之存储和压缩的坑

    在学习大数据技术的过程中,HIVE是非常重要的技术之一,但我们在项目上经常会遇到一些存储和压缩的坑。 大家都知道,...

  • Hive实践分享之存储和压缩的坑

    在学习大数据技术的过程中,HIVE是非常重要的技术之一,但我们在项目上经常会遇到一些存储和压缩的坑,本文通过科多大...

  • Hive-压缩和存储

    1.1 Hadoop源码编译支持Snappy压缩 1.1.1 资源准备 1.CentOS联网 配置CentOS能连...

  • Hive 系列 - 压缩和存储

    1 Hadoop源码编译支持Snappy压缩 1.1 jar包准备(hadoop源码、JDK8 、maven、pr...

  • 大数据环境搭建-Hive

    hive压缩包解压 使用mysql存储元数据 创建 hive 账号 hive元数据库 账号授权 通过hive账号...

  • hive积累大全

    此篇内容:hive自定义函数UDF、UDTF,压缩存储方式,hive优化、hive实际编程SQL中的if表达式用法...

  • 一文学会绕过Hive存储和压缩的坑

    在学习大数据技术的过程中,HIVE是非常重要的技术之一,但我们在项目上经常会遇到一些存储和压缩的坑,本文通过科多大...

  • Hive 主流文件存储格式对比

    Hive 主流文件存储格式对比 1、存储文件的压缩比测试 1.1 测试数据 1.2 TextFile 创建表,存储...

网友评论

    本文标题:Hive实践分享:存储和压缩的坑

    本文链接:https://www.haomeiwen.com/subject/qlzljftx.html