ping命令互相访问;修改/etc/hosts文件配置主机名与IP映射(如192.168.1.10 namenode、192.168.1.11 datanode1)。yum install -y java-1.8.0-openjdk-devel安装;配置JAVA_HOME环境变量(export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk),并添加至/etc/profile使生效。ssh-keygen -t rsa(直接回车默认路径);ssh-copy-id datanode1、ssh-copy-id datanode2(替换为实际节点主机名);ssh datanode1(无需输入密码)。wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz;/usr/local):tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/;ln -s /usr/local/hadoop-3.3.1 /usr/local/hadoop;HADOOP_HOME环境变量:编辑/etc/profile.d/hadoop.sh,添加export HADOOP_HOME=/usr/local/hadoop、export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin,执行source /etc/profile.d/hadoop.sh使生效。<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value> <!-- NameNode的RPC地址 -->
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value> <!-- 临时文件目录 -->
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value> <!-- 数据副本数(生产环境建议≥3) -->
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/data/namenode</value> <!-- NameNode元数据存储路径 -->
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/data/datanode</value> <!-- DataNode数据存储路径 -->
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value> <!-- 使用YARN作为资源管理器 -->
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value> <!-- Shuffle服务 -->
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
$HADOOP_HOME/etc/hadoop/hadoop-env.sh,找到# export JAVA_HOME=行,修改为export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk。hdfs namenode -format(首次启动需格式化,清除旧元数据)。start-dfs.sh(自动启动NameNode、DataNode及SecondaryNameNode);jps,NameNode节点应显示NameNode、SecondaryNameNode,DataNode节点应显示DataNode。http://namenode:9870(Hadoop 3.x版本默认端口),查看集群状态、节点列表及存储信息;hdfs dfs -df -h。core-site.xml、hdfs-site.xml等配置文件需保持一致;hadoop.tmp.dir、dfs.namenode.name.dir、dfs.datanode.data.dir等目录存在且有读写权限(chown -R hadoop:hadoop /usr/local/hadoop,hadoop为用户组);systemctl stop firewalld);setenforce 0)或修改/etc/selinux/config文件。