升级Ubuntu环境下Hadoop版本的步骤
/etc/hadoop目录下所有文件)和HDFS数据(hdfs-site.xml中dfs.namenode.name.dir、dfs.datanode.data.dir指定的目录),防止升级过程中数据丢失。hdfs dfsadmin -report确认所有DataNode处于健康状态(无“Dead”或“Decommissioning”节点);确保YARN集群无运行中的任务(yarn application -list显示无活跃应用)。dfs.replication默认值仍为3,但部分参数名称调整)、新增功能及已知问题。hadoop.apache.org),下载所需版本的安装包(如hadoop-3.3.6.tar.gz)。/usr/local/),避免与旧版本同目录冲突:sudo tar -xzvf hadoop-3.3.6.tar.gz -C /usr/local/
sudo mv /usr/local/hadoop-3.3.6 /usr/local/hadoop  # 可选:重命名目录
~/.bashrc(或/etc/profile),更新Hadoop相关环境变量,确保指向新版本路径:export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64  # 根据实际JDK路径调整
source ~/.bashrc(或source /etc/profile)使环境变量立即生效。sbin目录,停止NameNode和DataNode:cd $HADOOP_HOME/sbin
./stop-dfs.sh
-upgrade参数启动NameNode,触发HDFS文件系统升级:hdfs --daemon start namenode -upgrade
# 在每个DataNode节点上执行
hdfs --daemon stop datanode
hdfs --daemon start datanode
hdfs dfsadmin -upgradeProgress status  # 查看简要状态
hdfs dfsadmin -upgradeProgress details  # 查看详细进度
hdfs dfsadmin -finalizeUpgrade
./stop-yarn.sh
-upgrade参数启动ResourceManager:yarn --daemon start resourcemanager -upgrade
# 在每个NodeManager节点上执行
yarn --daemon stop nodemanager
yarn --daemon start nodemanager
yarn node -list查看所有NodeManager是否已注册,yarn application -list查看是否有新任务能正常提交。jps命令确认所有必要的Hadoop进程已启动(如NameNode、DataNode、ResourceManager、NodeManager):jps
hdfs dfs -ls /查看根目录是否存在;hdfs dfs -put test.txt /上传文件测试写入功能。yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar pi 10 100运行示例作业,验证MapReduce功能。# 停止新版本服务
./stop-dfs.sh
./stop-yarn.sh
# 启动旧版本服务(需保留旧版本目录)
$OLD_HADOOP_HOME/sbin/start-dfs.sh
$OLD_HADOOP_HOME/sbin/start-yarn.sh
finalizeUpgrade之前执行,否则旧版本数据已被清理。