美文网首页玩转大数据大数据Hadoop
【Hadoop踩坑】HDFS上传、删除文件失败

【Hadoop踩坑】HDFS上传、删除文件失败

作者: 此生望尽天涯路 | 来源:发表于2018-06-09 20:49 被阅读14次

    这里有好几个版本的解决方案,用来解决这个问题。

    图片.png

    Hadoop部署在我的4台Linux虚拟机,我是用window下的eclipse连接master主节点,进行HDFS文件操作以及MapReduce程序的运行。结果碰到了HDFS文件操作失败。在网上查找了相关资料,现在总结如下:

    方案一:也是我认为最简单的方案
    直接修改对应目录的权限:
    Hadoop fs -chmod 777 filepath

    上传文件失败.png

    方案二:从配置文件中进行权限处理
    在hadoop的 hdfs-site.xml 配置文件中取消权限校验,即加入以下配置:

    <property>
        <name>dfs.permissions</name>
        <value>false</value>
     </property>
    

    方案三:
    右击计算机-->管理--->用户和组-->admin。。。改为与Linux下集群主机名相同

    参考资料:

    1. Permission denied: user=administrator, access=WRITE, inode="/":root:supergroup:drwxr-xr-x

    2.Eclipse远程连接hadoop的hdfs时, 报 Permission denied错误 - CSDN博客

    相关文章

      网友评论

        本文标题:【Hadoop踩坑】HDFS上传、删除文件失败

        本文链接:https://www.haomeiwen.com/subject/pvlxeftx.html