ubuntu

Ubuntu如何实现HDFS的高可用性

小樊
35
2025-11-17 05:14:30
栏目: 智能运维

Ubuntu实现HDFS高可用

一 架构与前置条件

二 关键配置示例

<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://mycluster</value>
  </property>
  <property>
    <name>ha.zookeeper.quorum</name>
    <value>zk1:2181,zk2:2181,zk3:2181</value>
  </property>
</configuration>
<configuration>
  <!-- 集群标识与 NameNode 列表 -->
  <property>
    <name>dfs.nameservices</name>
    <value>mycluster</value>
  </property>
  <property>
    <name>dfs.ha.namenodes.mycluster</name>
    <value>nn1,nn2</value>
  </property>

  <!-- RPC 与 HTTP 地址 -->
  <property>
    <name>dfs.namenode.rpc-address.mycluster.nn1</name>
    <value>ubuntu1:8020</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address.mycluster.nn2</name>
    <value>ubuntu2:8020</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.mycluster.nn1</name>
    <value>ubuntu1:9870</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.mycluster.nn2</value>
    <value>ubuntu2:9870</value>
  </property>

  <!-- QJM 共享编辑日志 -->
  <property>
    <name>dfs.namenode.shared.edits.dir</name>
    <value>qjournal://jn1:8485;jn2:8485;jn3:8485/mycluster</value>
  </property>
  <property>
    <name>dfs.journalnode.edits.dir</name>
    <value>/data/hadoop/journal</value>
  </property>

  <!-- 客户端故障转移代理 -->
  <property>
    <name>dfs.client.failover.proxy.provider.mycluster</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  </property>

  <!-- 隔离方法(SSH 示例,需配置免密与私钥路径) -->
  <property>
    <name>dfs.ha.fencing.methods</name>
    <value>sshfence</value>
  </property>
  <property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/root/.ssh/id_rsa</value>
  </property>

  <!-- 启用自动故障转移 -->
  <property>
    <name>dfs.ha.automatic-failover.enabled</name>
    <value>true</value>
  </property>

  <!-- 副本与本地目录(示例) -->
  <property>
    <name>dfs.replication</name>
    <value>3</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/data/hadoop/dfs/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/data/hadoop/dfs/data</value>
  </property>
</configuration>

三 部署与启动步骤

  1. 分发配置:将修改好的 core-site.xml、hdfs-site.xml 等分发到所有节点,确保一致。
  2. 启动 ZooKeeper:在 zk1/zk2/zk3 执行:
    • zkServer.sh start
    • zkServer.sh status(确认 Leader/Follower 角色正常)
  3. 启动 JournalNode:在 jn1/jn2/jn3 执行:
    • hdfs --daemon start journalnode(Hadoop 3.x 推荐)
    • 若启动失败需清理目录后重试:rm -rf /data/hadoop/journal/*
  4. 格式化 NameNode(首次):
    • nn1 执行:hdfs namenode -format
    • 初始化共享编辑日志:hdfs namenode -initializeSharedEdits
  5. 启动 nn1 的 NameNode:hdfs --daemon start namenode
  6. 在 nn2 同步元数据并启动:
    • hdfs namenode -bootstrapStandby
    • hdfs --daemon start namenode
  7. 初始化 ZKFC(自动故障转移所需):在 nn1 执行:hdfs zkfc -formatZK
  8. 启动 ZKFC 守护进程(nn1、nn2):hdfs --daemon start zkfc
  9. 启动 DataNode(所有 DataNode 节点):hdfs --daemon start datanode
  10. 一键启动(可选):start-dfs.sh
  11. 验证与观察:
    • 查看状态:hdfs haadmin -getServiceState nn1 / nn2(应一 activestandby
    • 访问 Web:http://ubuntu1:9870、http://ubuntu2:9870。

四 验证与故障转移

0
看了该问题的人还看了