Ubuntu中HDFS启动步骤
在启动HDFS前,需完成以下基础配置:
sudo apt update && sudo apt install openjdk-8-jdk安装,通过java -version验证安装成功。/usr/local/hadoop)。执行wget https://downloads.apache.org/hadoop/core/hadoop-3.3.1/hadoop-3.3.1.tar.gz下载,tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/解压。~/.bashrc文件,添加export HADOOP_HOME=/usr/local/hadoop(Hadoop安装路径)和export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin(Hadoop命令路径),执行source ~/.bashrc使配置生效。进入Hadoop配置目录($HADOOP_HOME/etc/hadoop),修改以下文件:
<property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property>(localhost表示单机模式,集群模式需替换为NameNode主机名)。<property><name>dfs.replication</name><value>1</value></property> <!-- 单机模式副本数为1 -->
<property><name>dfs.namenode.name.dir</name><value>/path/to/hadoop/hdfs/namenode</value></property> <!-- NameNode元数据存储路径 -->
<property><name>dfs.datanode.data.dir</name><value>/path/to/hadoop/hdfs/datanode</value></property> <!-- DataNode数据存储路径 -->
sudo mkdir -p /path/to/hadoop/hdfs/namenode和sudo mkdir -p /path/to/hadoop/hdfs/datanode创建目录,确保Hadoop用户有读写权限(chown -R hadoop:hadoop /path/to/hadoop/hdfs)。首次启动HDFS前,需格式化NameNode以初始化元数据(注意:格式化会清除已有数据,仅首次启动或重置时执行)。执行hdfs namenode -format,等待命令完成(提示“NameNode formatted successfully”即为成功)。
执行start-dfs.sh命令(位于$HADOOP_HOME/sbin目录),该脚本会自动启动NameNode(主节点)和DataNode(数据节点)守护进程。若需单独启动DataNode,可执行hadoop-daemon.sh start datanode(单机模式无需此步)。
jps命令,若输出包含NameNode、DataNode(及SecondaryNameNode,可选),说明HDFS进程已启动。http://localhost:9000(默认端口),若看到HDFS文件系统状态页面(显示“Live Nodes”数量≥1),则说明HDFS启动成功。