在CentOS上部署和配置Hadoop分布式文件系统(HDFS)是一个相对复杂的过程,但以下步骤将指导你完成整个过程。以下是基于CentOS 7的详细步骤:
安装JDK:
/usr/lib/java-1.8.0
。/etc/profile
文件,添加以下内容:export JAVA_HOME=/usr/lib/java-1.8.0/jdk1.8.0_131
export JRE_HOME=/usr/lib/java-1.8.0/jre1.8.0_131
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64:$JAVA_HOME/jre/lib/amd64/server
source /etc/profile
安装SSH:
sudo yum install -y openssh-server openssh-clients
sudo systemctl start sshd
sudo systemctl enable sshd
ssh-keygen -t rsa -P ""
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh localhost
安装Hadoop:
/usr/local/hadoop
。/etc/profile
文件,添加以下内容:export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
配置 core-site.xml
:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
配置 hdfs-site.xml
:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/datanode</value>
</property>
</configuration>
格式化NameNode:
hdfs namenode -format
启动HDFS:
sbin/start-dfs.sh
验证启动:
jps
命令查看启动的进程,确保NameNode和DataNode进程已启动。http://localhost:50070
,查看HDFS的Web界面。通过以上步骤,你应该能够在CentOS上成功部署和配置HDFS。如果在启动过程中遇到问题,请检查日志文件以获取更多信息。