在Ubuntu上配置HDFS涉及多个步骤,以下是一个基本的指南:
HDFS依赖于Java运行环境,因此需要先安装JDK。可以使用包管理器(如apt-get)安装OpenJDK:
sudo apt update
sudo apt install openjdk-11-jdk
验证Java安装:
java -version
从Apache Hadoop官方网站下载适合你系统的Hadoop版本,并解压到指定目录。例如:
wget https://downloads.apache.org/hadoop/core/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzf hadoop-3.3.1.tar.gz -C /usr/local/
编辑~/.bashrc文件,添加Hadoop的bin目录到系统的PATH环境变量中:
echo 'export HADOOP_HOME=/usr/local/hadoop-3.3.1' >> ~/.bashrc
echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> ~/.bashrc
source ~/.bashrc
编辑Hadoop的核心配置文件core-site.xml和hdfs-site.xml:
core-site.xml:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>
首次使用HDFS前,需要执行以下命令来初始化NameNode:
hdfs namenode -format
启动NameNode和DataNode:
start-dfs.sh
在所有节点之间配置SSH免密登录,以便无需密码即可互相访问。生成SSH密钥并分发到所有节点:
ssh-keygen -t rsa
ssh-copy-id slave1
ssh-copy-id slave2
# 重复对每个DataNode节点执行
在master节点上执行以下命令测试连接:
ssh slave1
定期监控HDFS的性能指标,如读写速度、延迟等,以便及时发现问题并进行调整。可以使用hdfs dfsadmin -report命令查看集群状态。