hadoop动态增加和删除节点方法介绍

发布时间:2020-08-27 20:28:14 作者:liuyazhuang
来源:脚本之家 阅读:386

上一篇文章中我们介绍了Hadoop编程基于MR程序实现倒排索引示例的有关内容,这里我们看看如何在Hadoop中动态地增加和删除节点(DataNode)。

假设集群操作系统均为:CentOS 6.7 x64

Hadoop版本为:2.6.3

一、动态增加DataNode

1、准备新的DataNode节点机器,配置SSH互信,可以直接复制已有DataNode中.ssh目录中的authorized_keys和id_rsa

2、复制Hadoop运行目录、hdfs目录及tmp目录至新的DataNode

3、在新DataNode上启动hadoop

..sbin/hadoop-daemon.sh start datanode 
..sbin/yarn-daemon.sh start datanode 

4、在NameNode上刷新节点

..bin/hdfs dfsadmin -refreshNodes 
..sbin/start-balancer.sh 

5、为方便下次启动,可以将新DataNode的域名和ip加入/etc/hosts中

二、动态删除DataNode

1、配置NameNode的hdfs-site.xml,适当减小dfs.replication副本数,增加dfs.hosts.exclude配置

<property> 
  <name>dfs.hosts.exclude</name> 
  <value>/usr/local/hadoop2/etc/hadoop/excludes</value> 
 </property> 

2、在对应路径(/etc/hadoop/)下新建excludes文件,并写入待删除DataNode的ip或域名
3、在NameNode上刷新所有DataNode

..bin/hdfs dfsadmin -refreshNodes 
..sbin/start-balancer.sh 

4、此时,可以在web检测界面(ip:50070)上可以观测到DataNode逐渐变为Dead。

总结

以上就是本文关于hadoop动态增加和删除节点方法介绍的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站:浅谈七种常见的Hadoop和Spark项目案例、hadoop重新格式化HDFS步骤解析等,有什么问题可以直接留言,小编会及时回复大家的。感谢朋友们对本站的支持!

推荐阅读:
  1. hadoop及hbase集群增加节点
  2. hadoop+Spark+hbase集群动态增加节点

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

hadoop 节点

上一篇:简述Java编程语言对象的容纳

下一篇:Python从单元素字典中获取key和value的实例

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》