知识点
相关文章
更多最近更新
更多Hadoop 异常记录 ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times
2019-03-28 13:56|来源: 网络
当我把Hadoop、hbase安装配置(具体参考这里)好了之后,启动hbase的shell交互模式,输入命令却出现了下面这样的错误:
ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times
这是为什么呢,Master为什么没有启动起来呢?
查看logs目录下的Master日志,发现有以下信息:
2012-02-01 14:41:52,867 FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.
org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.apache.hadoop.hdfs.protocol.ClientProtocol version mismatch. (client = 42, server = 41)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:364)
at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:113)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:215)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:177)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:82)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1378)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196)
at org.apache.hadoop.fs.Path.getFileSystem(Path.java:175)
at org.apache.hadoop.hbase.util.FSUtils.getRootDir(FSUtils.java:363)
at org.apache.hadoop.hbase.master.MasterFileSystem.<init>(MasterFileSystem.java:81)
at org.apache.hadoop.hbase.master.HMaster.finishInitialization(HMaster.java:342)
at org.apache.hadoop.hbase.master.HMaster.run(HMaster.java:279)
2012-02-01 14:41:52,870 INFO org.apache.hadoop.hbase.master.HMaster: Aborting
2012-02-01 14:41:52,870 DEBUG org.apache.hadoop.hbase.master.HMaster: Stopping service threads
很明显,日志中说RPC协议不一致所造成的,恍然见明白因为我在hbase的配置文件中将rootdir设置为hdfs,如果这两者的RPC协议不一致就会导致这个问题。
解决方法:
将hbase/lib目录下的hadoop-core的jar文件删除,将hadoop目录下的hadoop-0.20.2-core.jar拷贝到hbase/lib下面,然后重新启动hbase即可。
相关问答
更多-
抱歉碰不到机器可能无法确定问题的具体原因,但从你的问题看出你可能走入了一个误区——认为Hbase启动或安装出现问题 从原理上讲,在集群中Zookeeper中会通过投票方式选举出一个Zookeeper为主,其余类似于主的热备 而主Zookeeper会指定Hmaster,并由指定的Hmaster来进行Hbase的操作 现在你的报错是ZooKeeper create failed after 4 attempts(Zookeeper尝试创建并失败4次导致最终无法创建)带来的后果就是你的Hmaster未选举出(并离 ...
-
无法找到CDH的org.apache.hadoop.hbase.mapreduce(Cannot find org.apache.hadoop.hbase.mapreduce for CDH)[2022-11-24]
CDH maven依赖关系存在问题。 我创建了一个常规的Java项目,并手动添加了存在于我的/ usr / lib / hbase目录中的JAR,并摆脱了这个错误。 There is an issue with CDH maven dependencies. I created a regular Java project and manually added JARs present in my /usr/lib/hbase directory and got rid of this error. -
这是Hadoop的另一个链接,可能有助于理解Application Master(如上所述@nigge)。 http://hadoop.apache.org/docs/stable/hadoop-yarn/hadoop-yarn-site/WritingYarnApplications.html Here's another link from Hadoop which may help understanding the Application Master (as @nigge noted above) ...
-
将commons-configuration-xxjar添加到构建路径。 你可以在$HADOOP_HOME/lib下找到它。 为我工作。 Add the commons-configuration-x.x.jar to your build path. You can find it under $HADOOP_HOME/lib. Worked for me.
-
我不知道这是否是您的问题,但如果您不访问同一主机中的所有内容,则使用本地主机通常是个问题。 所以不要使用localhost! 一般来说不要改变localhost的定义。 Localhost是127.0.0.1的定义。 您将hbase.rootdir定义为hdfs:// master:54310 / hbase和hbase.zookeeper.quorum作为主。 什么是主人? 它确实应该是主机的主要以太网接口的完全限定的域名。 该接口的IP地址的反向DNS应该解析为您填入这些字段的相同FQDN。 (或者如果 ...
-
您无法访问群集节点。 检查防火墙和网络设置。 确保端口也可以连接。 这是堆栈跟踪中的错误: Exception in thread "main" org.apache.hadoop.hbase.MasterNotRunningException: com.google.protobuf.ServiceException: java.net.UnknownHostException: unknown host: datanode2 此外,您不需要在代码中指定HBase群集属性。 将hbase-site.xm ...
-
您似乎正在配置客户端以尝试连接到私有IP地址 (10.99.XX)上的zookeeper仲裁。 我假设您已经设置了一个VPC ,这是您的CloudHub工作人员连接到您的专用网络所必需的。 您的UnknownHostException意味着您要连接的HBase服务器托管在AWS上,该服务器定义了与错误消息中的私有域名类似的私有域名。 那么可能发生的是这样的: Mule连接到Zookeeper,询问有哪些HBase节点,然后返回ip-10-99-XX.ap-southeast-2.compute.intern ...
-
执行Hive命令时出错(Error while executing Hive Command)[2023-11-11]
嗨Kumar,这是由于我的主节点服务自动启动和停止。 我通过检查该端口上正在运行的服务来解决此错误。 然后我重新启动hadoop服务。 然后下次所有服务正常运行。 Hi Kumar, This is due to my master node service automatically starts & stops. I resolve this error by cheking which service is running on that port. Then I Restart the hadoop ... -
我做对了 export PIG_CLASSPATH = $ PIG_HOME / pig-0.12.0-withouthadoop.jar:$ HBASE_HOME / hbase-0.94.1.jar:$ HBASE_HOME / lib / *:$ HADOOP_COMMON_LIB_NATIVE_DIR / lib / *:$ PIG_CLASSPATH I got it right export PIG_CLASSPATH=$PIG_HOME/pig-0.12.0-withouthadoop.jar ...
-
看起来像一个特定的表并且其区域已损坏(您可以如您所述从hbase shell访问其他表),请在特定的表名称上尝试hbase hbck ,这可能会解决此问题 其他选项 :您可以通过增加打开区域所需的线程数来解决这个问题,以便可以为本地索引表分配元区域甚至线程仍在等待删除死锁。
hbase.regionserver.executor.openregion.threads 100