美文网首页工业推荐系统Spark专题
25Hive优化(Hive7)(这节很重要)

25Hive优化(Hive7)(这节很重要)

作者: 文茶君 | 来源:发表于2019-12-22 14:17 被阅读0次

    本节所讲优化策略适用于任何场景

    1.核心思想

    把Hive SQL 当做Mapreduce程序去优化
    以下SQL不会转为Mapreduce来执行

    select仅查询本表字段
    where仅对本表字段做条件过滤

    Hive抓取策略:
    Hive中对某些情况的查询不需要使用MapReduce计算
    抓取策略
    Set hive.fetch.task.conversion=none/more;
    改为none会执行mapreduce。默认会more
    以下这些不走mr
    hive数据库的哪些函数操作是否走MR

    Explain 显示执行计划
    EXPLAIN [EXTENDED] query

    Hive运行方式:

    • 本地模式
    • 集群模式(默认。平时用的)

    本地模式
    开启本地模式:
    set hive.exec.mode.local.auto=true;
    注意:
    hive.exec.mode.local.auto.inputbytes.max默认值为128M
    表示加载文件的最大值,若大于该配置仍会以集群方式来运行!(这个值可以改大,但不要改太大。依赖内存)

    并行计算
    通过设置以下参数开启并行模式:
    set hive.exec.parallel=true;

    注意:hive.exec.parallel.thread.number
    (一次SQL计算中允许并行执行的job个数的最大值)
    默认是8个

    严格模式

    通过设置以下参数开启严格模式:
    set hive.mapred.mode=strict;
    (默认为:nonstrict非严格模式)
    查询限制:
    1、对于分区表,必须添加where对于分区字段的条件过滤;
    2、order by语句必须包含limit输出限制;
    3、限制执行笛卡尔积的查询。


    对于分区表,必须添加where对于分区字段的条件过滤;
    Hive排序

    Order By - 对于查询结果做全排序,只允许有一个reduce处理(当数据量较大时,应慎用。严格模式下,必须结合limit来使用)(一般不用,会造成reduce压力过大)
    Sort By - 对于单个reduce的数据进行排序
    Distribute By - 分区排序,经常和Sort By结合使用

    Cluster By - 相当于 Sort By + Distribute By(Cluster By不能通过asc、desc的方式指定排序规则;
    可通过 distribute by column sort by column asc|desc 的方式)(一般不用)

    Hive Join

    Join计算时,将小表(驱动表)放在join的左边
    Map Join:在Map端完成Join
    两种实现方式:

    1. SQL方式,在SQL语句中添加MapJoin标记(mapjoin hint)
      语法:
      SELECT /*+ MAPJOIN(smallTable) */ smallTable.key, bigTable.value
      FROM smallTable JOIN bigTable ON smallTable.key = bigTable.key;

    SELECT /*+ MAPJOIN(a) */ a.key, b.value
    FROM a JOIN b ON a.key = b.key;
    按文件大小分大小表

    1. 开启自动的MapJoin
      通过修改以下配置启用自动的mapjoin:
      set hive.auto.convert.join = true;
      (该参数为true时,Hive自动对左边的表统计量,如果是小表就加入内存,即对小表使用Map join)

    相关配置参数:

    hive.mapjoin.smalltable.filesize;
    大表小表判断的阈值,如果表的大小小于该值则会被加载到内存中运行

    默认大小
    hive.ignore.mapjoin.hint;

    默认值:true;是否忽略mapjoin hint 即mapjoin标记(和手动设置里,防止发生冲突,默认是忽略。false是按照手动设置执行)

    hive.auto.convert.join.noconditionaltask;
    默认值:true;将普通的join转化为普通的mapjoin时,是否将多个mapjoin转化为一个mapjoin

    hive.auto.convert.join.noconditionaltask.size;
    将多个mapjoin转化为一个mapjoin时,其表的最大值

    尽可能使用相同的连接键(会转化为一个MapReduce作业)
    如果有相同的连接键要使用相同的连接键,这样减少mr使用的个数。下图中第一个只用一个一个mr,第二个用2个


    大表join大表

    归结就一点,实现reduce的负载均衡,不要让某一个reduce压力过大。大表join大表最容易发生数据倾斜。

    • 空key过滤:有时join超时是因为某些key对应的数据太多,而相同key对应的数据都会发送到相同的reducer上,从而导致内存不够。此时我们应该仔细分析这些异常的key,很多情况下,这些key对应的数据是异常数据,我们需要在SQL语句中进行过滤。
    • 空key转换:有时虽然某个key为空对应的数据很多,但是相应的数据不是异常数据,必须要包含在join的结果中,此时我们可以表a中key为空的字段赋一个随机的值,使得数据随机均匀地分不到不同的reducer上
    Map-Side聚合

    通过设置以下参数开启在Map端的聚合:(我们在hadoop中map中的combiner做过)

    set hive.map.aggr=true;

    相关配置参数:

    hive.groupby.mapaggr.checkinterval:
    map端group by执行聚合时处理的多少行数据(默认:100000)

    hive.map.aggr.hash.min.reduction:
    进行聚合的最小比例(预先对100000条数据做聚合,若聚合之后的数据量/100000的值大于该配置0.5,则不会聚合)值不值得做。默认0.5

    hive.map.aggr.hash.percentmemory:
    map端聚合使用的内存的最大值

    hive.map.aggr.hash.force.flush.memory.threshold:
    map端做聚合操作是hash表的最大可用内容,大于该值则会触发flush

    hive.groupby.skewindata
    是否对GroupBy产生的数据倾斜做优化,默认为false。建议开启为ture

    合并小文件
    文件数目小,容易在文件存储端造成压力,给hdfs造成压力,影响效率
    设置合并属性

    是否合并map输出文件:hive.merge.mapfiles=true
    是否合并reduce输出文件:hive.merge.mapredfiles=true;
    合并文件的大小:hive.merge.size.per.task=25610001000

    去重统计

    数据量小的时候无所谓,数据量大的情况下,由于COUNT DISTINCT操作需要用一个Reduce Task来完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成,一般COUNT DISTINCT使用先GROUP BY再COUNT的方式替换

    控制Hive中Map以及Reduce的数量
    Map数量相关的参数

    mapred.max.split.size
    一个split的最大值,即每个map处理文件的最大值
    mapred.min.split.size.per.node
    一个节点上split的最小值
    mapred.min.split.size.per.rack
    一个机架上split的最小值

    Reduce数量相关的参数

    mapred.reduce.tasks
    强制指定reduce任务的数量

    hive.exec.reducers.bytes.per.reducer
    每个reduce任务处理的数据量
    hive.exec.reducers.max
    每个任务最大的reduce数

    Hive - JVM重用

    适用场景:
    1、小文件个数过多
    2、task个数过多

    通过 set mapred.job.reuse.jvm.num.tasks=n; 来设置
    (n为task插槽个数)

    缺点:设置开启之后,task插槽会一直占用资源,不论是否有task运行,直到所有的task即整个job全部执行完成时,才会释放所有的task插槽资源!

    相关文章

      网友评论

        本文标题:25Hive优化(Hive7)(这节很重要)

        本文链接:https://www.haomeiwen.com/subject/knfgnctx.html