Hive优化

作者: geekAppke | 来源:发表于2018-12-18 15:38 被阅读8次
    Hive 优化
        核心思想:把Hive SQL 当做Mapreduce程序去优化
        以下SQL不会转为Mapreduce来执行(HDFS执行的)
            select 仅查询本表字段
            where 仅对本表字段做条件过滤
    
    Explain 显示执行计划
        explain extended select count(*) from psn; 
    
    strict 严格模式,防止误操作!
    效率太低,要做限制
    也很随意!
    
    split map shuffle* reduce
    竭尽全力去不经过shuffle
    

    本地模式

    开启本地模式:set hive.exec.mode.local.auto=true;
    hive.exec.mode.local.auto.inputbytes.max 默认值为128M,表示加载文件的最大值,若大于该配置仍会以集群方式来运行!

    并行计算(速度快)

    通过设置以下参数开启并行模式:set hive.exec.parallel=true;
    注意:hive.exec.parallel.thread.number 一次SQL计算中允许并行执行的job个数的最大值

    严格模式下查询限制:

    1. 通过设置以下参数开启严格模式:set hive.mapred.mode=strict;(默认为:nonstrict非严格模式)
    2. 对于分区表,必须添加where对于分区字段的条件过滤;
    3. order by语句(排序)必须包含limit输出限制
    4. 限制执行笛卡尔积的查询。
    hive> select * from psn3; // 报错❎
    FAILED: SemanticException [Error 10041]: No partition predicate found for Alias "psn22" Table "psn22"
    hive> select * from psn3 where age=10 and sex='man'; // ✅
    
    hive> select * from psn order by id desc;
    FAILED: SemanticException 1:27 In strict mode, if ORDER BY is specified, LIMIT must also be specified. Error enc
    ountered near token 'id'
    hive> select * from psn order by id desc limit 5;
    开启map-reduce操作!
    

    Hive排序

    1. Order By - 对于查询结果做全排序,只允许有一个reduce处理(当数据量较大时,应慎用。严格模式下,必须结合limit来使用)
    2. Sort By - 对于单个reduce的数据进行排序
    3. Distribute By - 分区排序,经常和Sort By结合使用
    4. Cluster By - 相当于 Sort By + Distribute ByCluster By不能通过ascdesc的方式指定排序规则;可通过 distribute by column sort by column asc|desc 的方式)

    Hive Join

    1. Join计算时,将小表(驱动表)放在join的左边,执行效率高
    2. Map Join:在Map端完成Join
      两种实现方式:
      a. SQL方式,在SQL语句中添加MapJoin标记(mapjoin hint
      SELECT /*+ MAPJOIN(smallTable) */ smallTable.key, bigTable.value FROM smallTable JOIN bigTable ON smallTable.key = bigTable.key;
      b. 开启自动的MapJoin
    3. 开启自动mapjoin:set hive.auto.convert.join = true;(该参数为true时,Hive自动对左边的表统计量,如果是小表就加入内存,即对小表使用Map join

    相关配置参数:

    • hive.mapjoin.smalltable.filesize; (大表小表判断的阈值,如果表的size小于该值则会被加载到内存中运行)
    • hive.ignore.mapjoin.hint;(默认值:true;是否忽略mapjoin hintmapjoin标记)
    • hive.auto.convert.join.noconditionaltask;(默认值:true;将普通的join转化为普通的mapjoin时,是否将多个mapjoin转化为一个mapjoin
    • hive.auto.convert.join.noconditionaltask.size;(将多个mapjoin转化为一个mapjoin时,其表的最大值)

    Map-Side聚合

    通过设置以下参数开启在Map端的聚合:set hive.map.aggr=true;

    相关配置参数:

    • hive.groupby.mapaggr.checkinterval:map端group by执行聚合时处理的多少行数据(默认:100000)
    • hive.map.aggr.hash.min.reduction:进行聚合的最小比例(预先对100000条数据做聚合,若聚合之后的数据量/100000的值大于该配置0.5,则不会聚合)
    • hive.map.aggr.hash.percentmemorymap端聚合使用的内存的最大值
    • hive.map.aggr.hash.force.flush.memory.threshold:map端做聚合操作是hash表的最大可用内容,大于该值则会触发flush
    • hive.groupby.skewindata:是否对GroupBy产生的数据倾斜做优化,默认为false

    控制Hive中Map以及Reduce的数量

    (1)Map数量相关的参数

    • mapred.max.split.size一个split的最大值,即每个map处理文件的最大值
    • mapred.min.split.size.per.node一个节点上split的最小值
    • mapred.min.split.size.per.rack一个机架上split的最小值

    (2)Reduce数量相关的参数

    • mapred.reduce.tasks强制指定reduce任务的数量
    • hive.exec.reducers.bytes.per.reducer每个reduce任务处理的数据量
    • hive.exec.reducers.max每个任务最大的reduce

    Hive - JVM重用

    通过set mapred.job.reuse.jvm.num.tasks=n; 来设置(n为task插槽个数)
    缺点:设置开启之后,task插槽会一直占用资源,不论是否有task运行,直到所有的task即整个job全部执行完成时,才会释放所有的task插槽资源!

    适用场景:

    1. 小文件个数过多
    2. task个数过多

    参考资料

    Hadoop集群上搭建Hive
    Hive建表并加载数据
    Hive参数和动态分区
    Hive分桶
    Hive视图和索引
    Hive运行方式和授权

    相关文章

      网友评论

        本文标题:Hive优化

        本文链接:https://www.haomeiwen.com/subject/yayhkqtx.html