以下是在Ubuntu上搭建HDFS集群的步骤:
sudo apt update和sudo apt install openjdk-8-jdk安装OpenJDK 8,并通过java -version验证安装。sudo nano /etc/hostname设置主机名,在/etc/hosts中添加主机名和IP的映射关系。wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz,然后解压到指定目录。~/.bashrc或/etc/profile,添加export HADOOP_HOME=/path/to/hadoop和export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin,并使用source命令使配置生效。fs.defaultFS为hdfs://主机名:9000,指定hadoop.tmp.dir。dfs.replication、dfs.namenode.name.dir、dfs.datanode.data.dir等属性。yarn.nodemanager.aux - services为mapreduce_shuffle,指定yarn.resourcemanager.hostname。$HADOOP_HOME/etc/hadoop/slaves文件中添加所有DataNode的主机名。hdfs namenode -format,仅在首次启动时执行。start-dfs.sh和start-yarn.sh启动HDFS和YARN服务。jps命令查看进程,访问http://主节点IP:50070查看HDFS Web界面,确认集群状态正常。