
启动slaveB的datanode时,permission denied
检查:
master与slave之间能互相免密登陆,配置没问题。
想到权限问题:master账户名为apple,slave账户名为hadoop,master机能正常登陆slave机,但账户名不同,没有操作权限。
纠正:
修改slave机的账户名(将slave机账户名统一为apple)
1.先以其他用户登陆slaveB,再切换为root用户

2.创建新用户
输入:# usermod -l apple -d /home/apple -m hadoop
-l 新的登陆名称,-d 用户新的主目录,-m将家目录内容移至新位置 (与 -d 一起使用) 最后hadoop是原用户名

3.修改新用户组名
输入:# groupmod -n apple hadoop
-n用来修改新组名,后跟参数新名和旧组名

4.查看apple的用户信息
输入:# id apple

5.回到master,输入start-dfs.sh
启动成功

6.在slaveB中,检查进程
输入jps

DataNode成功启动
至此,问题解决
网友评论