配置CentOS上的Hadoop分布式文件系统(HDFS)涉及多个步骤,包括安装Java环境、配置SSH免密登录、下载和解压Hadoop、配置Hadoop环境变量、修改配置文件以及启动HDFS服务。以下是一个详细的步骤指南:
首先,确保你的CentOS系统上安装了Java运行环境。你可以从Oracle官网下载并安装JDK。
wget https://download.oracle.com/otn/java/jdk/8u212-b09/d7fc27d8d8f94d369ac70d8d89f8a2f29d/jdk-8u212-linux-x64.tar.gz
tar -zxvf jdk-8u212-linux-x64.tar.gz -C /usr/local/
export JAVA_HOME=/usr/local/jdk1.8.0_212
export PATH=$JAVA_HOME/bin:$PATH
为了在节点之间进行无密码登录,需要配置SSH密钥。
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
下载所需版本的Hadoop安装包,并解压到指定目录。
wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.16.2.tar.gz
tar -zxvf hadoop-2.6.0-cdh5.16.2.tar.gz -C /usr/local/
export HADOOP_HOME=/usr/local/hadoop-2.6.0-cdh5.16.2
export PATH=$HADOOP_HOME/bin:$PATH
编辑/etc/profile
文件,添加Hadoop环境变量。
vi /etc/profile
export HADOOP_HOME=/usr/local/hadoop-2.6.0-cdh5.16.2
export PATH=$HADOOP_HOME/bin:$PATH
source /etc/profile
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoop</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/hdfs/datanode</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
在/etc/hadoop
目录下创建或编辑slaves
文件,添加所有DataNode的主机名。
node2
node3
在NameNode节点上执行以下命令格式化文件系统。
hdfs namenode -format
在NameNode节点上启动HDFS服务。
start-dfs.sh
可以通过Web界面验证HDFS配置是否成功。
http://namenode:50070
请注意,以上步骤是一个基本的指南,具体配置可能会根据你的实际环境和需求有所不同。确保在进行任何配置更改后,都进行了适当的测试以验证其正确性。