美文网首页大数据Kettle数据仓库DW
Data Integration (kettle) 7.0 连接

Data Integration (kettle) 7.0 连接

作者: data_haozi | 来源:发表于2017-06-26 20:05 被阅读3306次

    背景

    最近需要将mysql的数据库的数据导入到hive里,期间遇到了很多坑,这次来总结一下。

    步骤

    1.启动hiveServer2

    kettle 是通过jdbc 来连接hive的,而jdbc 方式连接hive需要启动hiveServer2(thrift接口程序),执行如下命令来启动hiveServer2
    ./hive --service hiveserver2 --hiveconf hive.server2.thrift.port=10001 --hiveconf hive.server2.thrift.bind.host=[SERVER_IP]

    2. 修改plugin.properties 文件

    文件位置:KETTLE_HOME/plugins/pentaho-big-data-plugin/plugin.properties
    修改active.hadoop.configuration=hdp25(我使用的是apache hadoop,其他版本的hadoop选择相应的版本)


    image.png

    3. 下载对应的hive jar包

    从服务器下载hive jar文件到之前的hdp25/lib文件夹下,主要注意hive-开头的:


    image.png

    4.kettle里创建数据库连接

    选择连接类型为hadoop hive2,填写好主机名称、数据库名称,以及之前hiveServer2的端口号,以及用户名和密码,如下:


    image.png

    问题汇总

    1. no suitable driver exception

        at java.sql.DriverManager.getConnection(DriverManager.java:689)
        at java.sql.DriverManager.getConnection(DriverManager.java:247)
        at org.pentaho.di.core.database.Database.connectUsingClass(Database.java:567)
        ... 48 more```
    如果出现上面的错误一般是步骤2中配置不正确,这个问题我纠结了好久,可能因为KETTLE_HOME/lib目录下添加了一些jar包,导致后来不管怎么修改都不生效,期间还重新解压了kettle。
    #### 2.Required field 'client_protocol' is unset! 
    ```org.pentaho.di.core.exception.KettleDatabaseException: 
    Error occurred while trying to connect to the database
    
    Error connecting to database: (using class org.apache.hive.jdbc.HiveDriver)
    Could not establish connection to jdbc:hive2://xxx.xxx.xx.xx:10001/testing: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{use:database=testing})```
    如果是出现上面的错,一般是kettle 的hive jar包和服务器的hive的jar包版本不匹配,解决的办法就是步骤3,从服务器下载相应的hive jar文件,确保两端版本一致。
    #### 3.Connection refused: connect
    ``` org.pentaho.di.core.exception.KettleDatabaseException: 
    Error occurred while trying to connect to the database
    
    Error connecting to database: (using class org.apache.hive.jdbc.HiveDriver)
    Could not open client transport with JDBC Uri: jdbc:hive2:///xxx.xxx.xx.xx:10001/testing: java.net.ConnectException: Connection refused: connect
    

    出现上面的错,一般是两端连接出错,确保hiveServer2已启动,以及用户名和密码正确。

    4. hive 的insert into values 1.4版本以下不支持

    在使用hive做表输出,插入到hive数据库的时候,insert into 会有问题

    2017/06/26 15:00:51 - 表输出.0 -   at org.apache.hive.jdbc.Utils.verifySuccess(Utils.java:121)
    2017/06/26 15:00:51 - 表输出.0 -   at org.apache.hive.jdbc.Utils.verifySuccessWithInfo(Utils.java:109)
    2017/06/26 15:00:51 - 表输出.0 -   at org.apache.hive.jdbc.HiveStatement.execute(HiveStatement.java:231)
    2017/06/26 15:00:51 - 表输出.0 -   at org.apache.hive.jdbc.HiveStatement.executeUpdate(HiveStatement.java:369)
    2017/06/26 15:00:51 - 表输出.0 -   at org.apache.hive.jdbc.HivePreparedStatement.executeUpdate(HivePreparedStatement.java:117)
    2017/06/26 15:00:51 - 表输出.0 -   at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    2017/06/26 15:00:51 - 表输出.0 -   at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) ...
    

    那么,1.4版本以下如何导入数据到hive呢,请参考我的另外一篇文章kettle 将mysql 导入到hive(借助Hadoop File Output组件)。主要思想是将数据文件导入到hdfs,然后再通过lhive 的load 语法来将hdfs的数据文件导入的hive。


    欢迎大家赞赏、转载、点赞、评论。

    相关文章

      网友评论

      • 86795339970d:跪求楼主!
      • 86795339970d:楼主:No suitable driver found for jdbc:hive2,你文中的提到的这个问题怎么解决的啊,谢谢
      • 5f2e3c5af00e:你写文章这天是我的生日

      本文标题:Data Integration (kettle) 7.0 连接

      本文链接:https://www.haomeiwen.com/subject/zvvjcxtx.html