怎么用Hadoop源码分析心跳机制

发布时间:2021-10-29 16:12:42 作者:柒染
来源:亿速云 阅读:164

这篇文章将为大家详细讲解有关怎么用Hadoop源码分析心跳机制,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。

一.心跳机制

1. hadoop集群是master/slave模式,master包括Namenode和Jobtracker,slave包括Datanode和Tasktracker。

2. master启动的时候,会开一个ipc server在那里,等待slave心跳。

3. slave启动时,会连接master,并每隔3秒钟主动向master发送一个“心跳”,这个时间可 以通过”heartbeat.recheck.interval”属性来设置。将自己的状态信息告诉master,然后master也是通过这个心跳的返回值,向slave节点传达指令。

4. 需要指出的是:namenode与datanode之间的通信,jobtracker与tasktracker之间的通信,都是通过“心跳”完成的。

二.Datanode、Namenode心跳源码分析

既然“心跳”是Datanode主动给Namenode发送的。那Datanode是怎么样发送的呢?下面贴出Datanode.class中的关键代码:

代码一:

/**     * 循环调用“发送心跳”方法,直到shutdown     * 调用远程Namenode的方法     */   public void offerService() throws Exception {  •••      while (shouldRun) {        try {          long startTime = now();           // heartBeatInterval是在启动Datanode时根据配置文件设置的,是心跳间隔时间          if (startTime - lastHeartbeat > heartBeatInterval) {            lastHeartbeat = startTime;  //Datanode发送心跳            DatanodeCommand[] cmds = namenode.sendHeartbeat(dnRegistration,                                                         data.getCapacity(),                                                         data.getDfsUsed(),                                                         data.getRemaining(),                                                         xmitsInProgress.get(),                                                         getXceiverCount());            myMetrics.addHeartBeat(now() - startTime);                       if (!processCommand(cmds))              continue;          }                 •••        }      } // while (shouldRun)    } // offerService

需要注意的是:发送心跳的对象并不是datanode,而是一个名为namenode的对象,难道在datanode端就直接有个namenode的引用吗?其实不然,我们来看看这个namenode吧:

代码二:

public DatanodeProtocol namenode = null;

namenode其实是一个DatanodeProtocol的引用,在对hadoop RPC机制分析的文章中我提到过,这是一个Datanode和Namenode通信的协议,其中有许多未实现的接口方法,sendHeartbeat()就是其中的一个。下面看看这个namenode对象是怎么被实例化的吧:

代码三:

this.namenode = (DatanodeProtocol)       RPC.waitForProxy(DatanodeProtocol.class,                       DatanodeProtocol.versionID,                       nameNodeAddr,                        conf);

其实这个namenode并不是Namenode的一个对象,而只是一个Datanode端对Namenode的代理对象,正是这个代理完成了“心跳”。代理的底层实现就是RPC机制了。

三.Tasktracker、Jobtracker心跳源码分析

同样我们从Tasktracker入手,下面贴出Tasktracker.class的关键代码:

代码四:

代码一:  State offerService() throws Exception {      long lastHeartbeat = System.currentTimeMillis();      while (running && !shuttingDown) {       •••                    // 发送心跳,调用代码二          HeartbeatResponse heartbeatResponse = transmitHeartBeat(now);         •••      return State.NORMAL;    }   代码二:  HeartbeatResponse transmitHeartBeat(long now) throws IOException {     •••      HeartbeatResponse heartbeatResponse = jobClient.heartbeat(status,                                                                 justStarted,                                                                justInited,                                                                askForNewTask,                                                            heartbeatResponseId);                                •••      return heartbeatResponse;    }

其实我觉得分析到这里大家就可以自己分析了,jobClient也是一个协议:

代码五:

InterTrackerProtocol jobClient;

该协议用于定义Tasktracker和Jobtracker的通信。同样,它也是一个代理对象:

代码六:

this.jobClient = (InterTrackerProtocol)       UserGroupInformation.getLoginUser().doAs(          new PrivilegedExceptionAction<Object>() {        public Object run() throws IOException {          return RPC.waitForProxy(InterTrackerProtocol.class,              InterTrackerProtocol.versionID,              jobTrackAddr, fConf);        }      });

终于,hadoop底层通信整个系列的源码分析全部完成了。

关于怎么用Hadoop源码分析心跳机制就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

推荐阅读:
  1. Java Netty实现心跳机制过程解析
  2. SpringBoot如何整合Netty心跳机制

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

hadoop

上一篇:Pureftpd和PostgreSQL联合怎么使用

下一篇:Mysql数据分组排名实现的示例分析

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》