在Linux上安装HDFS(Hadoop分布式文件系统)通常涉及以下几个步骤。以下是一个基本的指南,假设你使用的是基于Debian的系统(如Ubuntu),并且你已经安装了Java(Hadoop需要Java运行时环境)。
Hadoop需要Java运行时环境。你可以使用以下命令安装OpenJDK:
sudo apt update
sudo apt install openjdk-11-jdk
验证Java安装:
java -version
从Apache Hadoop官方网站下载最新版本的Hadoop。你可以使用wget
命令下载:
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
然后解压文件:
tar -xzvf hadoop-3.3.4.tar.gz -C /usr/local/
重命名解压后的目录(可选):
sudo mv /usr/local/hadoop-3.3.4 /usr/local/hadoop
编辑Hadoop的配置文件。主要配置文件包括core-site.xml
、hdfs-site.xml
、yarn-site.xml
和mapred-site.xml
。你可以将这些文件复制到$HADOOP_HOME/etc/hadoop
目录下并进行编辑。
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/data/datanode</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
在首次启动HDFS之前,你需要格式化NameNode:
hdfs namenode -format
启动HDFS和YARN:
start-dfs.sh
start-yarn.sh
检查Hadoop进程是否正在运行:
jps
你应该看到以下进程:
访问HDFS Web界面:
http://localhost:50070
http://localhost:8088
停止HDFS和YARN:
stop-dfs.sh
stop-yarn.sh
slaves
文件(在$HADOOP_HOME/etc/hadoop
目录下),列出所有DataNode的主机名。通过以上步骤,你应该能够在Linux上成功安装和配置HDFS。