Hadoop心跳机制源码分析

2019-03-28 13:42|来源: 网络

正文:

一.体系背景

首先和大家说明一下:Hadoop的心跳机制的底层是通过RPC机制实现的,这篇文章我只介绍心跳实现的代码,对于底层的具体实现,大家可以参考我的另几篇文章:

1. Hadoop的RPC机制(参考: http://www.linuxidc.com/Linux/2012-06/62081.htm )
2. 动态代理(参考 :http://www.linuxidc.com/Linux/2012-06/62079.htm
3. Java NIO(参考 : http://www.linuxidc.com/Linux/2012-06/62080.htm )

以上三篇文章和这篇文章完整地分析了hadoop的数据传输过程。大家可以当成一个体系来阅读。

二.心跳机制

1. hadoop集群是master/slave模式,master包括Namenode和Jobtracker,slave包括Datanode和Tasktracker。

2. master启动的时候,会开一个ipc server在那里,等待slave心跳。

3. slave启动时,会连接master,并每隔3秒钟主动向master发送一个“心跳”,这个时间可 以通过”heartbeat.recheck.interval”属性来设置。将自己的状态信息告诉master,然后master也是通过这个心跳的返回值,向slave节点传达指令。

4. 需要指出的是:namenode与datanode之间的通信,jobtracker与tasktracker之间的通信,都是通过“心跳”完成的。

三.Datanode、Namenode心跳源码分析

既然“心跳”是Datanode主动给Namenode发送的。那Datanode是怎么样发送的呢?下面贴出Datanode.class中的关键代码:

代码一:

  1. /**  
  2.    * 循环调用“发送心跳”方法,直到shutdown  
  3.    * 调用远程Namenode的方法  
  4.    */  
  5.   public void offerService() throws Exception {   
  6. •••   
  7.     while (shouldRun) {   
  8.       try {   
  9.         long startTime = now();   
  10.          // heartBeatInterval是在启动Datanode时根据配置文件设置的,是心跳间隔时间   
  11.         if (startTime - lastHeartbeat > heartBeatInterval) {   
  12.           lastHeartbeat = startTime;   
  13. //Datanode发送心跳   
  14.           DatanodeCommand[] cmds = namenode.sendHeartbeat(dnRegistration,   
  15.                                                        data.getCapacity(),   
  16.                                                        data.getDfSUSEd(),   
  17.                                                        data.getRemaining(),   
  18.                                                        xmitsInProgress.get(),   
  19.                                                        getXceiverCount());   
  20.           myMetrics.addHeartBeat(now() - startTime);   
  21.             
  22.           if (!processCommand(cmds))   
  23.             continue;   
  24.         }   
  25.           
  26.       •••   
  27.       }   
  28.     } // while (shouldRun)   
  29.   } // offerService  

需要注意的是:发送心跳的对象并不是datanode,而是一个名为namenode的对象,难道在datanode端就直接有个namenode的引用吗?其实不然,我们来看看这个namenode吧:

代码二:

public DatanodeProtocol namenode = null;  

namenode其实是一个DatanodeProtocol的引用,在对hadoop RPC机制分析的文章中我提到过,这是一个Datanode和Namenode通信的协议,其中有许多未实现的接口方法,sendHeartbeat()就是其中的一个。下面看看这个namenode对象是怎么被实例化的吧:

代码三:

  1. this.namenode = (DatanodeProtocol)    
  2.     RPC.waitForProxy(DatanodeProtocol.class,   
  3.                      DatanodeProtocol.versionID,   
  4.                      nameNodeAddr,    
  5.                      conf);  

其实这个namenode并不是Namenode的一个对象,而只是一个Datanode端对Namenode的代理对象,正是这个代理完成了“心跳”。代理的底层实现就是RPC机制了。参考:http://www.linuxidc.com/Linux/2012-06/62081.htm

相关问答

更多
  • 在Eclipse中新建一个java项目,将src下的文件复制到项目的src下,然后导入lib下的jar文件,即可查看源码了。网上有教程
  • jquery 源码 分析[2022-08-08]

    看完之后对对象和原型的理解帮助会非常大。 但最好等用jquery比较熟悉之后再看源码,那么会对理解比较有好处,也会比较容易看懂。 最好从jquery核心处开始看,看懂$.fn.init以及基本方法之后再看别的$.extend的时候就比较容易了。
  • 关于内核的书不在多,而是要精,强烈推荐 《Linux内核设计与实现》,英文名Linux Kernel Development,机械工业出版社,¥35, 美国Robert Love著,陈莉君译。 此书是当今首屈一指的入门最佳图书。作者是为2.6内核加入了抢占的人,对调度部分非常精通,而调度是整个系统的核心,因此本书是很权威的。对没怎么深入内核的人来说,这是强烈推荐的一本书。
  • 为了增强Hadoop的安全机制, 从2009年起, Apache专门抽出一个团队,为Hadoop增加安全认证和授权机制,至今为止,已经可用。   Apache Hadoop 1.0.0版本和Cloudera CDH3之后的版本添加了安全机制,如果你将Hadoop升级到这两个版本,可能会导致Hadoop的一些应用不可用。   Hadoop提供了两种安全机制:Simple和Kerberos。Simple机制(默认情况,Hadoop采用该机制)采用了SAAS协议。 也就是说,用户提交作业时,你说你是XXX(在Jo ...
  • 不好意思,我现在才看到消息, 我会尽快发到您的邮箱的。
  • 把你编译后的hadoop源码丢到原来的hadoop集群环境中去 即覆盖hadoop安装目录下的原hadoop-core-xxx.jar 同样的所有节点都需要更新 然后重启集群
  • 谁说入口就一定是WinMain?很多自定义入口,而且控制台程序默认入口为main,对于MFC的入口,实际上他也是从WinMain开始的,只是WinMain并不在程序中显示,你去查一下头文件就知道了,或者在头文件WinMain设置断点,实际上他还会断在WinMain上,另外好像还有一个AfxMain,我忘记了你自己看头文件
  • 具体参考Eclipse查看hadoop源代码出现Source not found,是因为没有添加.zip在我们hadoop编程中,经常遇到像看看hadoop的某个类中函数的功能。但是我们会遇到一种情况就是Source not found。遇到这个问题,该如何解决。因为我们已经引入了包,为什么会找不到。如果不了解怎么引入的可以参考:hadoop开发方式总结及操作指导http://www.aboutyun.com/thread-6950-1-1.html看到上面现象,是因为我们每天添加.zip。该如何添加zip ...
  • map分类,reduce整合,通过相同的key将需要的信心通过map整合到同一个reduce中,在reduce中实现算法
  • Hadoop有asm 3.2而我使用的是ASM 5.在ASM5中,ClassVisitor是一个超类,而在3.2中它是一个接口。 出于某种原因,错误是Throwable(信任Shevek),catch块只捕获异常。 任何hadoop日志都没有捕获throwable错误。 因此,调试非常困难。 使用jar jar链接修复asm版本问题,现在一切正常。 如果你正在使用Hadoop并且某些东西不起作用并且没有日志显示任何错误,那么请尝试抓住Throwable。 阿伦 Hadoop had asm 3.2 and ...