美文网首页
Spark读取Hive时schema版本不匹配的解决方法

Spark读取Hive时schema版本不匹配的解决方法

作者: 汤圆毛毛 | 来源:发表于2021-12-15 11:16 被阅读0次

    当使用Spark进行Hive数据操作时,提示如下:

    Hive Schema version 2.3.0 does not match metastore's schema version 1.2.0 Metastore is not upgraded or corrupt
    

    即Spark中采用的Hive metastore版本 和 Hive环境中配置的metastore的版本不一致。

    解决:

    1. 将存储hive meta信息的mysql中所配置的schema version 修改为Spark中采用的metastore版本。


      image.png
    1. 在hive环境的hive-site.xml配置文件中增加(或修改)如下配置:
    <property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
    </property>
    

    修改完hive-site.xml后需重启hive集群。

    相关文章

      网友评论

          本文标题:Spark读取Hive时schema版本不匹配的解决方法

          本文链接:https://www.haomeiwen.com/subject/quoufrtx.html