美文网首页
Ambari安装hadoop遇到的问题(一)

Ambari安装hadoop遇到的问题(一)

作者: 艾_文 | 来源:发表于2017-08-11 18:00 被阅读0次

1、failure: repodata/repomd.xml frommysql56-community:[Errno 256] No more mirrors to try.

http://s3.amazonaws.com/dev.hortonworks.com/HDP-UTILS-1.1.0.21/repos/mysql-ppc64le/repodata/repomd.xml:[Errno 14] curl#6 - "Could not resolve host: s3.amazonaws.com; Unknownerror"

解决方案:查找到配置安装包路径的源文件,删除掉。然后重新添加有效的的yum源文件配置

2、parent directory /usr/hdp/current/spark-client/confdoesn't exist(没有找到conf)

解决方案:创建软连接到conf (执行 :ln-s /etc/spark/conf ./conf�)

3、

问题:启动hive metastore没有找到对应的数据库hive。

解决方案:在对应的服务器下,

(1)创建hive用户:CREATE USER ‘hive’@'%' IDENDIFIED BY 'hive';

(2)给hive用户赋权:grant all privileges on *.* to hive@’%’;

(3)通过hive用户登录mysql:mysql –h127.0.0.1 –uhive –p

创建hive数据库:create database hive;

4、包冲突

--查找已安装的包  rpm -qa |grep 冲突的包名

--删除包                rpm -e 冲突的包名

--安装包                yum install 新包名

其中要更换的两个包:

mariadb-libs-5.5.50-1.el7_2.ppc64le

libtirpc-0.2.4-0.6.el7.ppc64le

在每台服务器上安装

libtirpc1-0.2.3-6.4.1.ppc64le.rpm

libtirpc-devel-0.2.3-6.4.1.ppc64le.rpm

for i `seq 138 140`;do scp lib* 10.19.88.$i:/tmp/ ;done (将包循环拷贝到138、139、140服务器上)

相关文章

网友评论

      本文标题:Ambari安装hadoop遇到的问题(一)

      本文链接:https://www.haomeiwen.com/subject/mojrrxtx.html