美文网首页
hive相关

hive相关

作者: ic_bbc | 来源:发表于2017-05-02 11:51 被阅读0次

HQL优化

1. HQL优化

一、避免or操作的不当。如果where子句中有多个条件,并且其中某个条件没有索引,使用or将导致全表扫描。假定在HOUSE表中TITLE有索引,PRICE没有索引,执行以下HQL语句:

from House where title='出租一居室' or price < 1500

当price比较时,会引起全表扫描。

二、避免使用not。如果where条件的子句包含not关键字,那么执行时该字段的索引失效。这些语句需要分成不同情况区别对待,如查询租金不多于1800元的租房信息的HQL语句:

from House as h where not (h.price>1800)

对于这种不大于、不小于的条件,建议使用比较运算符代替not,如下不大于就是小于等于。例如:

from House as h where h.price <= 1800

三、避免like的特殊形式。如果like以一个"%"或"_"开始即前模糊,则该字段的索引不起作用。但是非常遗憾的是,对于这种问题并没有额外的解决方法,只能通过改变索引字段的形式变相的解决。

四、避免having子句。应尽可能的在where子句而不是having子句中指定条件。having是在检索出所有记录后才对结果集进行过滤,这个处理需要一定的开销,而where子句限制记录的数目,能减少这方面的开销。

五、避免使用distinct。指定distinct会导致在结果中删除重复的行。这会对处理时间造成一定的影响,因此在不要求或允许冗余时,应避免使用distinct。

六、索引在以下情况下失效,应注意使用。

(1)只要对字段使用函数,该字段的索引不起作用,如substring(aa,1,2)='xxx'。

(2)只要对字段进行计算,该字段的索引不起作用,如price+10。


2. join优化

数据倾斜:
hive.optimize.skewjoin=true;如果是join过程出现倾斜,应该设置为true
set hive.skewjoin.key=100000;这个是join的键对应的记录的条数,超过这个值会进行优化
mapjoin
set hive.auto.convert,join=true;
bucket join
连个表以相同方式划分桶;
两个表的桶个数是倍数关系

join优化
优化前
select m.cid,u.id form order m join customer u on m.cid=u.id where m.dt=’20160801’;
会先执行join
优化后
select m.cid,u.id from (select cid from order where dt=’20160801’)m
join customer u on m.cid = u.id

**group by 优化 **
hive.groupby.skewindata=true;如果group by过程出现倾斜,应该设置为true

**count distinct 优化 **
优化前
select count(distinct id )from tablename
优化后
select count(1) from (select distinct id from tablename)tmp;
select count(1) from (select id from tablename group by id)tmp;

**hive job优化 **
并行化执行
每个查询被hive转化为多个阶段,有些阶段关联性不大,则可以并行化执行,减少执行时间
set hive.exec.parallel=true;
set hive.exec.parallel.thread.number=8;

**本地化执行 **
set hive.exec.mode.local.auto=true;
当一个job满足如下条件才能真正使用本地模式:
1.job的输入数据大小不小于参数:
hive.exec.mode.local.auto.inputbytes.max(默认是128m)
2.job的map数必须小于参数:
hive.exec.mode.local.auto.tasks.max(默认为4)
3.job的reduce必须为0或者1

合并小文件
job合并输入小文件 set hive.input.format=org.apache.Hadoop.hive.ql.io.CombineHiveInputFormat 合并文件数有mapred.max.split.size限制的大小
job合并输出小文件 set hive.merge.smallfiles.avgsize=256000000;当输出文件平均大小小于改值时,启动新job合并文件 set hive.merge.size.per.task=6400000000;合并之后的文件大小

**jvm重利用 **
set mapred.job.reuse.jvm.num.tasks=20;
jvm重利用可以使job长时间保留slot,直到作业结束,

相关文章

  • hive相关

    HQL优化 1. HQL优化 一、避免or操作的不当。如果where子句中有多个条件,并且其中某个条件没有索引,使...

  • hive 相关

    hive 相关 搭建hadoop和hive,mysql的环境,过程截图 1.hadoop install 2.m...

  • hive相关

    Hive也是数据库的一种,hivesql和mysql使用起来并没有什么不同,数据插入、表关联查询都是一样的,二者都...

  • hive相关基础

    hive相关基础 1、进入到hive命令下;(linux下直接输入hive即可) hive 2、查看工作分区下的h...

  • 大数据学习教程

    Hadoop生态 Hadoop相关内容 Spark Spark系列教程 Hive Hive快速入门 Elastic...

  • docker 构建hadoop 环境

    技能库 docker 相关 linux 相关 shell 相关 hadoop hive 准备文件 jdk 安装包:...

  • Hive优化实践1-数据倾斜及join无关的优化

    Hive SQL的各种优化方法基本 都和数据倾斜密切相关。 Hive的优化分为join相关的优化和join无关的优...

  • hive相关知识

    hive概念 hive的兼容性 hive日志 启动hive hive中除了保存真正的数据以外还要额外保存用来描述库...

  • Hive相关优化

    map优化 优化并发个数 减少map数,合并小文件set mapred.max.split.size=100000...

  • Hive SQL 相关

    1.Hive 连接查询JOIN2.hive 导入数据的方式3.hadoop streaming内存超限解决方案4....

网友评论

      本文标题:hive相关

      本文链接:https://www.haomeiwen.com/subject/qbsctxtx.html