在CentOS上设置HDFS(Hadoop分布式文件系统)涉及多个步骤,包括安装必要的软件、配置环境变量、修改Hadoop配置文件、格式化NameNode以及启动和验证HDFS服务。以下是一个基本的步骤指南:
sudo yum install java-1.8.0-openjdk-devel -y
ssh-keygen -t rsa
ssh-copy-id localhost
从Apache Hadoop官网下载对应版本的Hadoop安装包,例如Hadoop 3.3.4。
wget https://archive.apache.org/dist/hadoop/core/hadoop-3.3.4/hadoop-3.3.4.tar.gz
tar -xzvf hadoop-3.3.4.tar.gz -C /opt/
编辑 /etc/profile
文件,添加Hadoop的路径和库路径。
echo "export HADOOP_HOME=/opt/hadoop-3.3.4" >> /etc/profile
echo "export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin" >> /etc/profile
source /etc/profile
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/datanode</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
在NameNode节点上执行以下命令,初始化文件系统。
hdfs namenode -format
启动NameNode和DataNode服务。
/opt/hadoop-3.3.4/sbin/start-dfs.sh
使用以下命令检查HDFS状态。
hdfs dfsadmin -report
访问NameNode的Web界面:http://localhost:50070
cat /etc/passwd
查看口令文件,检查是否有多个 user_id0
的账户。chattr +i
命令给 /etc/passwd
、/etc/shadow
、/etc/group
和 /etc/gshadow
文件加上不可更改属性。