ubuntu

Ubuntu Hadoop 集群扩容步骤

小樊
40
2025-08-15 23:50:20
栏目: 智能运维

以下是Ubuntu Hadoop集群扩容步骤(基于Hadoop 2.x/3.x版本):

一、前期准备

  1. 环境检查

    • 确保新节点安装JDK(java -version)和Hadoop(hadoop version),版本需与集群一致。
    • 配置SSH免密登录(主节点到新节点)。
    • /etc/hosts中添加新节点IP与主机名映射,并同步到集群所有节点。
  2. 同步配置文件

    • 将主节点$HADOOP_HOME/etc/hadoop/下的core-site.xmlhdfs-site.xmlyarn-site.xml等配置文件拷贝到新节点对应目录。

二、添加新节点

  1. 修改主节点配置

    • $HADOOP_HOME/etc/hadoop/workers(或slaves)文件中添加新节点主机名。
    • 若启用白名单,编辑hdfs-site.xml,在<property name="dfs.hosts">中添加新节点IP或主机名。
  2. 启动新节点服务

    • 在新节点执行:
      # 启动DataNode  
      $HADOOP_HOME/sbin/hadoop-daemon.sh start datanode  
      # 启动NodeManager(YARN)  
      $HADOOP_HOME/sbin/yarn-daemon.sh start nodemanager  
      

三、验证与优化

  1. 检查节点状态

    • 查看HDFS节点:hdfs dfsadmin -report 或访问NameNode Web界面(http://<namenode>:9870)。
    • 查看YARN节点:http://<resourcemanager>:8088/cluster/nodes
  2. 数据均衡(可选)

    • 若新节点存储利用率低,执行均衡操作:
      hdfs balancer -threshold 10  # 参数为磁盘使用率差异阈值(%)  
      

四、注意事项

参考来源:

0
看了该问题的人还看了