以下是在CentOS上配置HDFS的详细步骤:
sudo yum install java-1.8.0-openjdk-devel安装JDK 8或更高版本,并通过java -version验证安装。/etc/sysconfig/network-scripts/ifcfg-ens33等文件,确保节点间能通信。同时配置主机名,修改/etc/hostname和/etc/hosts文件。/usr/local/hadoop。编辑/etc/profile.d/hadoop.sh文件,添加export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk、export HADOOP_HOME=/usr/local/hadoop和export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin,然后执行source /etc/profile.d/hadoop.sh使配置生效。
fs.defaultFS为hdfs://namenode:9000,还可配置hadoop.tmp.dir等。dfs.replication(副本数)、dfs.namenode.name.dir(NameNode数据目录)、dfs.datanode.data.dir(DataNode数据目录)等。在NameNode节点上执行ssh-keygen -t rsa生成密钥对,然后使用ssh-copy-id将公钥复制到所有DataNode节点,实现无密码登录。
在NameNode节点上执行hdfs namenode -format,仅在首次启动前执行。
在NameNode节点上执行start-dfs.sh启动HDFS集群。
使用jps命令检查NameNode、DataNode等进程是否正常运行,也可通过访问http://namenode:50070查看HDFS状态。
使用firewall-cmd命令开放Hadoop所需端口,如9000、50010、50070等,然后执行firewall-cmd --reload使配置生效。
以上步骤为基本配置,实际生产环境中可根据需求进行优化,如配置高可用性等。