一. 问题描述
StarRocks版本 2.5.5
现在需要使用hive外表,然后根据官网的的命令创建了hive resource
CREATE EXTERNAL RESOURCE “hive0”
PROPERTIES (
“type” = “hive”,
“hive.metastore.uris” = “thrift://myhadoop:9083”
);
然后查询报错:
starrocks [42000][1064] hdfsOpenFile failed
二. 解决方案
StarRocks的committer在论坛回复我了,原来是打包的问题。
没想到打包名字居然是写死的,而且hive catalog居然受到spark 客户端的影响。
spark jar 打包名字需要是 spark-2x.zip
(既不能是spark.zip 也不能是spark-24.zip, 需要在配置文件中写死为 spark-2x.zip)
https://docs.starrocks.io/zh-cn/latest/loading/SparkLoad#配置-spark-客户端 1
网友评论