在CentOS上配置Hadoop分布式文件系统(HDFS)涉及多个步骤,以下是一个基本的快速配置指南:
JAVA_HOME
环境变量。sudo yum install java-1.8.0-openjdk-devel
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export PATH=$JAVA_HOME/bin:$PATH
/usr/local/hadoop
)。wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
tar -xzvf hadoop-3.3.4.tar.gz -C /usr/local/
/etc/profile
文件,添加以下环境变量。export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
保存文件后,运行以下命令使配置生效。source /etc/profile
ssh-keygen -t rsa
ssh-copy-id user@nodeX
/etc/sysconfig/network-scripts/ifcfg-eth0
),设置静态IP、子网掩码和网关。DEVICE=eth0
BOOTPROTO=static
IPADDR=192.168.1.100
NETMASK=255.255.255.0
GATEWAY=192.168.1.1
ONBOOT=yes
sudo yum install ntp
sudo ntpdate ntp.aliyun.com
core-site.xml
):<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode_hostname:9000</value>
</property>
</configuration>
hdfs-site.xml
):<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/path/to/namenode/data</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/path/to/datanode/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
在NameNode节点上执行以下命令格式化NameNode:
hdfs namenode -format
在NameNode节点上执行以下命令启动HDFS集群:
start-dfs.sh
jps
命令检查HDFS守护进程是否已启动。http://namenode_hostname:50070
查看HDFS Web UI。stop-dfs.sh
以上步骤提供了一个基本的指南,具体的配置可能会根据Hadoop版本和具体需求有所不同。建议参考Hadoop官方文档进行详细配置。