美文网首页
Hive入门

Hive入门

作者: kongxx | 来源:发表于2018-03-01 07:25 被阅读17次

    介绍

    Hive 是一个基于 Hadoop 的数据仓库工具,它可以将结构化数据文件映射成一张表,然后通过类似 SQL 的查询语句来执行查询。这些查询语句在Hive中被称作HQL,这些 HQL 会被翻译成 MapReduce 作业来执行。

    Hive 把表和字段转换成 HDFS 中的文件夹和文件,并将这些元数据保持在关系型数据库中,如 derby 或 mysql。

    Hive 查询的数据存储在HDFS上,运行在Yarn上。

    Hive 适合做离线数据分析,如:批量处理和延时要求不高场景。

    安装

    安装 Hadoop

    由于 Hive 是基于 Hadoop 的,所以需要先准备一个 Hadoop 环境。Hadoop 的安装参考我前面的文章。

    安装 Hive

    首先从下面地址下载最新版本的 Hive,这里我们使用 2.3.2 版。

    下载并解压安装包

    $ wget -c https://dist.apache.org/repos/dist/release/hive/hive-2.3.2/apache-hive-2.3.2-bin.tar.gz
    $ tar zxvf apache-hive-2.3.2-bin.tar.gz
    $ cd apache-hive-2.3.2-bin
    

    设置环境变量

    $ export JAVA_HOME=/opt/jdk8
    $ export HADOOP_HOME=/apps/hadoop-3.0.0
    $ export HIVE_HOME=/apps/apache-hive-2.3.2-bin
    

    初始化 Derby 数据库,Hive 默认使用 Derby 数据库来保存元数据。生产环境建议使用 Mysql。

    $ bin/schematool -dbType derby -initSchema
    

    运行 Hive

    启动 Shell

    通常我们使用 Hive 都是使用命令行工具来执行一些数据的更新和查询,下面命令就会启动 Hive 的命令行终端。

    $ bin/hive
    > hive
    

    查看表

    hive> show tables;
    

    创建表

    hive> CREATE TABLE users(id int, username string, password string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';
    

    插入查询数据

    这里我们先准备一个数据文件 users.dat,内容如下:

    1,user1,password1
    2,user2,password2
    3,user3,password3
    4,user4,password4
    5,user5,password5
    

    向数据表导入数据

    # 从本地文件系统导入
    hive> LOAD DATA LOCAL INPATH '/tmp/users.dat' INTO TABLE users;
    
    # 从 HDFS 导入
    hive> LOAD DATA INPATH '/tmp/users.dat' INTO TABLE users;
    

    导入数据后,使用 HQL 来查询结果

    hive> select * from users;
    OK
    1       user1   password1
    2       user2   password2
    3       user3   password3
    4       user4   password4
    5       user5   password5
    

    此时,我们查看一下这些数据在 HDFS 上是怎样存储的,我在查看

    hive> dfs -ls /user/hive/warehouse/users
    Found 1 items
    -rwxr-xr-x   2 jhadmin supergroup         54 2018-02-05 00:14 /user/hive/warehouse/users/users.dat
    
    hive> dfs -cat /user/hive/warehouse/users/users.dat
    1,user1,password1
    2,user2,password2
    3,user3,password3
    4,user4,password4
    5,user5,password5
    

    下面我们再插入一条记录看看,此时终端会出现MapReduce作业的相关信息。

    hive> INSERT INTO TABLE users(id, username, password) values (6, 'user6', 'password6');
    ... (MapReduce Job output)
    
    hive> select * from users;
    OK
    6       user6   password6
    1       user1   password1
    2       user2   password2
    3       user3   password3
    4       user4   password4
    5       user5   password5
    

    查看一下 HDFS 的文件信息,可以看到新添加了一个文件000000_0,其中保存着上面插入语句保存的数据。

    hive> dfs -ls /user/hive/warehouse/users
    Found 2 items
    -rwxr-xr-x   2 jhadmin supergroup         22 2018-02-05 00:26 /user/hive/warehouse/users/000000_0
    -rwxr-xr-x   2 jhadmin supergroup         54 2018-02-05 00:14 /user/hive/warehouse/users/users.dat
    
    hive> dfs -cat /user/hive/warehouse/users/000000_0
    6,username6,password6
    

    从上面的结果可以看到,每次单独的 INSERT 语句都会至少产生一个文件,因此在生产环境下还是要避免这样的插入操作,而应该使用批量导入来写入数据。

    上面的查询语句 “select * from users;” 太简单,以至于看不出他是不是使用的 MapReduce 作业来执行查询的,下面我们把查询语句稍微修改一下,就可以看出 Hive 会把 HQL 转换成 MapReduce 作业来执行了。

    hive> select * from users order by id;
    ... (MapReduce Job output)
    OK
    1       user1   password1
    2       user2   password2
    3       user3   password3
    4       user4   password4
    5       user5   password5
    6       user6   password6
    

    相关文章

      网友评论

          本文标题:Hive入门

          本文链接:https://www.haomeiwen.com/subject/meiwxftx.html