美文网首页
hive个人学习总结---【基于微博数据的HQL练习】

hive个人学习总结---【基于微博数据的HQL练习】

作者: 来往穿梭 | 来源:发表于2017-03-15 15:41 被阅读583次

练习:

1. 统计用户所有微博被转发的总次数,并输出TOP-3 用户
hive> select t.userId,count(*) count  from 
(select get_json_object(w.json,'$.beForwardWeiboId') beForwardWeiboId,get_json_object(w.json,'$.userId') userId from 
(select substring(json,2,length(json)-2) as json from weibo) w) t
 where t.beForwardWeiboId !='' group by t.userId order by `count` desc limit 3;

说明:

  • get_json_object :函数可将json解析成对象,get_json_object函数第一个参数填写json对象变量,第二个参数使用$表示json变量标识,然后用 . 或 [] 读取对象或数组;

  • substring(json,2,length(json)-2) as json *** :是将前两个字符最后两个字符*去掉。数据格式是:

[{"beCommentWeiboId":"","beForwardWeiboId":"","catchTime":"1387159495","commentCount":"1419","content":"分享图片","createTime":"1386981067","info1":"","info2":"","info3":"","mlevel":"","musicurl":[],"pic_list":["http://ww3.sinaimg.cn/thumbnail/40d61044jw1ebixhnsiknj20qo0qognx.jpg"],"praiseCount":"5265","reportCount":"1285","source":"iPad客户端","userId":"1087770692","videourl":[],"weiboId":"3655325888057474","weiboUrl":"http://weibo.com/1087770692/AndhixO7g"}]

结果:

结果
2. 统计每个用户的发送微博总数,并存储到临时表
  • 先建立临时表user_count
CREATE TABLE user_count (
userId STRING,
`count` INT
);

  • 插入数据
insert into table user_count
select userId,count(distinct(weiboId)) `count` from 
(select get_json_object(w.json,'$.userId') userId,get_json_object(w.json,'$.weiboId') weiboId from
 (select subString(json,2,length(json)-2) as json from weibo) w) w1 group by userId order by `count` desc 

  • 去临时表user_count查询前5条,查看是否插入成功

结果:


结果

通过自定义udf来执行HQL

Q:将微博的点赞人数与转发人数相加求和,并将相加之和降序排列,取前 10
  • 自定义udf函数代码
package udf;

import org.apache.hadoop.hive.ql.exec.UDF;

public final class addCount extends UDF {

    public long evaluate(final Double column1, final Double column2) {
        if (column1 != null && column2 != null) {
            Double result = column1 + column2;
            return result.longValue();  
        }
        if(column1 == null && column2 != null){
            return column2.longValue();
        }
        if(column2 == null && column1 != null){
            return column1.longValue();
        } else {
            return 0;
        }
    }
    
}

  • 生成jar文件:

** 1.**


eclipse下将udf函数打包

** 2.**


在linux中找到刚刚打好的jar包
  • 执行hql语句

引入udf的jar:

hive> add jar /home/xc2046/workspace/jar/addCount001.jar;
Added /home/xc2046/workspace/jar/addCount001.jar to class path
Added resource: /home/xc2046/workspace/jar/addCount001.jar

创建临时udf函数:

hive> create temporary function addcount as 'udf.addCount';
OK
Time taken: 0.048 seconds

执行带有自定义udf的查询hql:

hive> SELECT weiboId,addcount(SUM(praiseCount),SUM(reportCount)) `count` FROM(
SELECT 
get_json_object(w.json,'$.weiboId') weiboId,
get_json_object(w.json,'$.praiseCount') praiseCount,
get_json_object(w.json,'$.reportCount') reportCount 
FROM (SELECT SUBSTRING(json,2,LENGTH(json)-2) AS json FROM weibo) w
)w1 GROUP BY weiboId ORDER BY `count` DESC LIMIT 10;
  • 最终结果:
Paste_Image.png

相关文章

  • hive个人学习总结---【基于微博数据的HQL练习】

    练习: 1. 统计用户所有微博被转发的总次数,并输出TOP-3 用户 说明: get_json_object :函...

  • Hive

    Hive和数据库 Hive有自己的语言,叫HQL(近似于SQL),Hive是基于Hadoop的一个数据仓库,不是数...

  • Hive概述

      Hive是一款基于Hadoop的数据仓库,用于统计海量结构化数据。Hive能够将HQL语句转换成MapRedu...

  • 1)Hive基本概念

    什么是Hive? hive由Facebook开源的基于Hadoop的一个数据仓库工具,本质是将HQL转换成Ma...

  • 数据仓库工具之Hive的架构原理

    1. Hive的本质 Hive是基于Hadoop的一个数据仓库工具,它的本质是将HQL语句转化成MapReduce...

  • Hive

    Hive:基于jdk hadoop 生态圈数据仓库工具,通过类SQL (HQL)将结构性行文件映射为一张数据库表,...

  • 2020-12-17

    1、hive本质:将HQL 转化成MapReduce 程序。 2. 3.Hive的缺点 4. 5.当hive数据库...

  • 个人总结-Hive

    1、HQL脚本的三种执行方式: Hive –e ‘hql执行一行脚本 Hive –f ‘hql.file’执行一个...

  • 大数据开发之Hive篇10-Hive高级查询with语句

    备注:Hive 版本 2.1.1 测试数据 一.Hive with语句概述 在进行HQL开发的过程中,对于复杂的报...

  • HiveSQL 与 SQL 的区别

    Hive采用了类SQL的查询语言HQL (hive query language)。除了HQL之外,无任何相似的地...

网友评论

      本文标题:hive个人学习总结---【基于微博数据的HQL练习】

      本文链接:https://www.haomeiwen.com/subject/oyulnttx.html