为了账号安全,请及时绑定邮箱和手机立即绑定

【Hadoop踩坑】HDFS上传、删除文件失败

标签:
Hadoop

这里有好几个版本的解决方案,用来解决这个问题。

webp

图片.png

Hadoop部署在我的4台Linux虚拟机,我是用window下的eclipse连接master主节点,进行HDFS文件操作以及MapReduce程序的运行。结果碰到了HDFS文件操作失败。在网上查找了相关资料,现在总结如下:

方案一:也是我认为最简单的方案
直接修改对应目录的权限:
Hadoop fs -chmod 777 filepath

webp

上传文件失败.png


方案二:从配置文件中进行权限处理
在hadoop的 hdfs-site.xml 配置文件中取消权限校验,即加入以下配置:

<property>
    <name>dfs.permissions</name>
    <value>false</value>
 </property>

方案三:
右击计算机-->管理--->用户和组-->admin。。。改为与Linux下集群主机名相同



作者:枫雪浅语
链接:https://www.jianshu.com/p/18d67ff8e6ef


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消