Hadoop datanode启动失败:Hadoop安装目录权限的问题

2019-03-28 14:16|来源: 网络

安装了伪分布式Hadoop,启动时很纠结(很多处提示输入root密码),而且启动后访问namenode的web页面发现没有datanode

原因是:

解压hadoop发布包时su到了root,启动hadoop的时候没有将hadoop安装目录的所有者改成hadoop用户

解决:

$ sudo chown -R hadoop:hadoop /opt/hadoop-0.2.203.0

重启hadoop搞定

相关问答

更多
  • 如果你已经进入hadoop/bin目录下,应该是 ./hadoop fs -mkdir /input 如果你没有进入hadoop/bin目录,你应该打全路径或相对路径 假设你的hadoop安装在/home/hadoop下,你可以打 /home/hadoop/bin/hadoop fs -mkdir /input 一般情况下你都在/home/hadoop默认目录下,你可以打 bin/hadoop fs -mkdir /input
  • ,就当是抛砖引玉了。 相信楼主知道,hadoop的文件系统叫做hdfs,就是hadoop分布式分布式文件系统的中文简写。这个系统是对google的gfs的开源实现。下面来回答问题。 首先是节点故障: google在他们那篇gfs的论文中说,google在使用gfs曾说过,google在使用gfs时遇到过各种各样的问题,主要有:应用程序bug、操作系统的bug、人为失误,甚至还有硬盘、内存、连接器、网络以及电源失效。在一个大型的系统中,硬盘内存等等组件的老化,过度使用(因为数据读写非常频繁)等问题也是不容忽视 ...
  • 我认为问题出在您的/etc/hosts文件中。 确保配置正确。 我的/etc/hosts文件如下所示: 127.0.0.1 localhost 192.168.0.1 master mypcname 192.168.0.18 slave1 192.168.0.12 slave2 192.168.0.17 slave3 为主人和 127.0.0.1 localhost 192.168.0.1 master 192.168.0.18 slave ...
  • 上述错误表明权限问题。 您必须确保hadoop用户具有/ usr / local / hadoop的适当权限。 为此,您可以尝试: sudo chown -R hadoop /usr/local/hadoop/ 要么 sudo chmod 777 /usr/local/hadoop/ The errors above suggest a permissions problem. You have to make sure that the hadoop user has the proper ...
  • datanode1的namespaceID与当前的namenode不匹配。也许你从另一个集群中复制了/ usr / local / hadoop / tmp / dfs / data目录。如果datanode1的数据不相关,你可以删除/ usr / local / hadoop datanode1的/ tmp / dfs / * the namespaceID of datanode1 do not match the current namenode's.Maybe you copied the /usr ...
  • 每次启动服务时,您必须格式化namenode。 Namenode应该只格式化一次。 解决方案是删除临时文件夹,然后格式化namenode并启动服务。 下次无论何时启动服务,都不要格式化namenode bcz,此步骤必须只执行一次。 You must be formatting namenode everytime when you are starting service. Namenode should be formatted only once. The solution is to delete ...
  • 修改/etc/hosts以包含主机名环回映射: 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 127.0.1.1 is-joshbloom-hadoop ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 您的问题是您的机器不知道如何解析主机名is-joshbloom-hadoop到特定 ...
  • 实际上,如果您使用Cloudera CDH(推荐安装它的方式)的包裹,它将位于/ opt / cloudera / parcels / CDH中,而这又将符号链接到实际的CDH宗地。 在这个目录下,你会发现非常类似于在/下开源Apache Hadoop的结构。 更多的,如果你浏览/你会发现Hadoop正常的二进制文件是符号链接,通过替代方式指向CDH活动宗地。 例如检查/usr/bin/hadoop 。 此安装策略使Cloudera能够在一秒钟内激活新的CDH,并且看起来像普通的Apache Hadoop结 ...
  • 停止所有hadoop服务 删除dfs / namenode 从slave和master中删除dfs / datanode 检查Hadoop文件夹的保留: sudo chmod -R 755 / usr / local / hadoop 重启Hadoop 检查/验证文件夹权限。 sudo chmod -R 755 / home / hadoop / appdata 如果仍有问题,请检查日志文件 Stop all hadoop services Delete dfs/namenode Delete dfs/da ...
  • 该错误表示权限问题。 hadoop用户需要hadoop文件夹的适当权限。 尝试在终端中运行以下命令: sudo chown -R hadoop /usr/local/Cellar/hadoop/2.3.0/ The error indicates a permissions problem. The hadoop user needs the proper privileges to the hadoop folder. Try running the following in Terminal: sud ...