以下是在Ubuntu上搭建HDFS集群的步骤:
sudo apt update
和sudo apt install openjdk-8-jdk
安装OpenJDK 8,并通过java -version
验证安装。sudo nano /etc/hostname
设置主机名,在/etc/hosts
中添加主机名和IP的映射关系。wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
,然后解压到指定目录。~/.bashrc
或/etc/profile
,添加export HADOOP_HOME=/path/to/hadoop
和export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
,并使用source
命令使配置生效。fs.defaultFS
为hdfs://主机名:9000
,指定hadoop.tmp.dir
。dfs.replication
、dfs.namenode.name.dir
、dfs.datanode.data.dir
等属性。yarn.nodemanager.aux - services
为mapreduce_shuffle
,指定yarn.resourcemanager.hostname
。$HADOOP_HOME/etc/hadoop/slaves
文件中添加所有DataNode的主机名。hdfs namenode -format
,仅在首次启动时执行。start-dfs.sh
和start-yarn.sh
启动HDFS和YARN服务。jps
命令查看进程,访问http://主节点IP:50070
查看HDFS Web界面,确认集群状态正常。