美文网首页数据分析实战
Hadoop、Hive实战:淘宝双十一数据分析

Hadoop、Hive实战:淘宝双十一数据分析

作者: 风之舟 | 来源:发表于2019-04-29 19:35 被阅读0次

    本博客内容参考了厦门大学数据库实验室技术文献:http://dblab.xmu.edu.cn/post/8116/

    实验准备

         首先非常感谢厦门大学林子雨老师的支持,在经过他的许可之后,我将整个实验的过程以及一些自己的想法写了出来,在这里我并没有讨论spark回头客的预测分析,这在后期spark专栏里会有。

    在进行实战之前,我们要确保已经配置好了部分环境:

    1、hadoop环境的安装配置

    2、hive的安装配置(mysql为元数据库):关于如何配置我在之前的博客说过

    3、Sqoop的安装配置:本次实验会讲到

        我使用的是两台阿里云服务器Ubuntu14.0的系统(因为还是学生,价格很优惠),分布式部署了hadoop2.6.5,spark2.4.1(这在后期会用到)。

    实验步骤一:本地数据集上传到数据仓库hive

    该数据集data_format(点击保存链接:https://pan.baidu.com/s/11HOMXdGw4P6Srnm3T6wGSg提取码:4feo)是淘宝2015年双11前6个月(包含双11)的交易数据(交易数据有偏移,但是不影响实验的结果),里面有三个文件,分别是用户行为日志文件user_log.csv 、回头客训练集train.csv 、回头客测试集test.csv,我们这里主要使用日志文件user_log.csv。

    该数据集里的字段主要有:

    1、user_id:买家id

    2、item_id:商品id

    3、cat_id:商品类别id

    4、merchant_id:卖家id

    5、brand_id:品牌id

    6、month:交易时间:月

    7、day:交易时间:日

    8、action:行为,取值为0表示点击,1表示加入购物车,2表示购买,3表示关注商品

    9、age_range:买家年龄分段:1表示年龄<18,2表示年龄在[18,24],3表示年龄在[25,29],4表示年龄在[30,34],5表示年龄在[35,39],6表示年龄在[40,49],7和8表示年龄>50,0和NULL表示未知

    10、gender:性别0表示女性,1表示男性,2和NULL表示未知

    11、province:收获地址省份

    下载完数据集之后,解压并上传到服务器

    为了确保数据集有效可以取出user_log.csv的前5条数据测试:

    接下来我们进行数据的预处理

    1、删除文件第一行记录,这一行数据我们不需要。

    2、由于交易数据太大(5000万条),我们截取前100000条数据集作为一个小数据集,写一个脚本完成上面的截取任务,脚本文件放在data目录下和user_log.csv一起

    #!/bin/bash

    #下面设置输入文件,把用户执行predeal.sh命令时提供的第一个参数作为输入文件名称

    infile=$1

    #下面设置输出文件,把用户执行predeal.sh命令时提供的第二个参数作为输出文件名称

    outfile=$2

    #注意!!最后的$infile > $outfile必须跟在}’这两个字符的后面

    awk -F "," 'BEGIN{

          id=0;

        }

        {

            if($6==11 && $7==11){

                id=id+1;

                print $1","$2","$3","$4","$5","$6","$7","$8","$9","$10","$11

                if(id==10000){

                    exit

                }

            }

        }' $infile > $outfile

    进行截取

    取前10条数据集测试一下:

    head -10 small_user_log.csv

    3、导入数据库

    下面把small_user_log.csv中的数据集最终导入数据仓库hive中,为了完成这个任务我们首先把这个文件上传到分布式文件系统HDFS中,然后在hive中创建外部表完成数据的导入:

    a.启动HDFS

    可以选择在hadoop目录下的sbin文件下

    ./start-dfs.sh

    或者直接选择

    ./start-all.sh

    b.把small_user_log.csv上传到HDFS中

    把本地系统中的small_user_log.csv上传到分布式文件系统HDFS中,存放在HDFS的“/dbtaobao/dataset”目录下

    首先,在本地系统的根目录下创建一个新的目录dbtaobao,并在这个目录下创建一个子目录dataset

    然后,把本地系统small_user_log.csv上传到分布式文件系统HDFS的“/dbtaobao/dataset”目录下,命令如下:

    下面可以查看一下HDFS的small_user_log.csv的前10条记录

    c、在hive上创建数据库

    新开一个终端,提前启动mysql数据库,后期会用到

    启动hadoop和hive,创建数据库dbtaobao

    d、创建外部表

    e、查询数据

    上面创建外部表时已经成功把HDFS中的“/dbtaobao/dataset/user_log”目录下的small_user_log.csv数据加载到了数据仓库hive中,我们可以使用下面命令查询一下:

    实验步骤二:hive数据分析

    一、操作hive

    使用dbtaobao数据库,显示数据库中所有表,查看user_log表的各种属性

    查看表的简单结构

    二、简单查询分析

    1、查看日志前10个交易日志的商品品牌

    2、查询前20个交易日志中购买商品时的时间和商品的种类

    三、查询条数统计分析

    1、用聚合函数count()计算表内有多少条数据

    2、在函数内部加上distinct,查出uid不重复的数据有多少条

    3、查询不重复的数据有多少条(为了排除客户刷单情况)

    四、关键字条件查询分析

    1、以关键字的存在区间为条件的查询

    查询双11那天有多少人购买了商品

    2、关键字赋予给定值为条件,对其他数据进行分析

    取给定时间和给定品牌,求当天购买的此品牌商品的数量

    五、根据用户行为分析

    1、查询一件商品在某天的购买比例或浏览比例

    根据上面语句得到购买数量和点击数量,两个相除即可得到当天该商品的购买率

    2、查询双11那天,男女买家购买商品的比例

    双十一女性购买商品的数量

    双十一男性购买商品的数量

    两者相除就得到了要求的比例

    3、给定购买商品的数量范围,查询某一天在该网站的该买该数量商品的用户id

    六、用户实时查询分析

    不同的品牌的浏览次数

    实验步骤三:将数据从hive导入到mysql中

    一、准备工作:安装Sqoop(可以将数据导入mysql中)

    服务器上新建文件夹sqoop,使用xftp上传到sqoop中解压缩

    解压缩完成后,添加到环境变量

    进入sqoop安装目录下的conf文件夹中执行以下命令复制sqoop-env-template.sh为sqoop-env.sh并在里面添加以下内容

    连接数据库之前不要忘记把jar包放到sqoop安装目录下的lib文件夹中,这个jar可以在官网中下载,百度或者谷歌搜索:mysql-connection-java,选择下载的版本,我下载的是mysql-connector-java-5.1.47.zip版本

    测试一下:能看到已经读取了mysql中的数据库就说明安装成功,出现warning没有关系,因为没有安装hbase和zookeeper等

    二、Hive预操作

    1、创建临时表inner_user_log

    2、将user_log表中的数据插入到inner_user_log

    执行下面命令查询上面的插入命令是否成功执行

    三、使用sqoop将数据从hive导入mysql

    1、登录到mysql创建数据库

    2、创建表

    注意:语句中的引号是反引号,不是单引号,sqoop抓数据的时候会把类型转为string类型,所以mysql设计字段的时候,设置为varchar

    3、创建完表后,另开一个终端或者退出当前的mysql,进行导入操作

    4、返回到刚才的mysql终端或者重新进入mysql查看user_log表中的数据,会得到类似下面的查询结果

    说明从hive导入数据到mysql中,成功!

    相关文章

      网友评论

        本文标题:Hadoop、Hive实战:淘宝双十一数据分析

        本文链接:https://www.haomeiwen.com/subject/glaenqtx.html