centos

HDFS在CentOS如何配置

小樊
33
2025-02-21 03:05:41
栏目: 智能运维

在CentOS上配置HDFS(Hadoop分布式文件系统)涉及多个步骤,包括安装必要的软件、配置环境变量、设置主机名和IP地址、配置SSH免密登录等。以下是一个基本的配置步骤指南:

1. 安装Java环境

HDFS需要Java运行环境,首先确保已经安装了Java。

yum install -y java-1.8.0-openjdk

然后配置Java环境变量:

vi /etc/profile

添加以下内容:

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export PATH=$JAVA_HOME/bin:$PATH

保存并退出,然后使配置生效:

source /etc/profile

验证Java安装:

java -version

2. 安装Hadoop

下载并解压Hadoop安装包:

wget https://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.16.2.tar.gz
tar -zxvf hadoop-2.6.0-cdh5.16.2.tar.gz -C /usr/local/
mv /usr/local/hadoop-2.6.0-cdh5.16.2 /usr/local/hadoop

配置环境变量:

vi /etc/profile

添加以下内容:

export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"

保存并退出,然后使配置生效:

source /etc/profile

3. 配置SSH免密登录

生成SSH密钥:

ssh-keygen -t rsa

将公钥复制到本机的authorized_keys文件中:

ssh-copy-id root@localhost

4. 配置Hadoop环境变量

编辑Hadoop配置文件:

vi /usr/local/hadoop/etc/hadoop/core-site.xml

添加以下内容:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop-master:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
</configuration>

编辑hdfs-site.xml:

vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml

添加以下内容:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/hadoop/hdfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/hadoop/hdfs/datanode</value>
    </property>
</configuration>

5. 配置主机名和IP地址

修改主机名:

hostnamectl set-hostname hadoop-master

编辑/etc/hosts文件:

vi /etc/hosts

添加以下内容:

192.168.1.1 hadoop-master
192.168.1.2 hadoop-slave1
192.168.1.3 hadoop-slave2

6. 格式化NameNode

在启动Hadoop集群前需要格式化NameNode:

hdfs namenode -format

7. 启动Hadoop

启动HDFS:

/usr/local/hadoop/sbin/start-dfs.sh

8. 验证配置

使用以下命令检查HDFS状态:

hdfs dfsadmin -report

访问Web界面:

http://hadoop-master:50070

以上步骤提供了一个基本的HDFS配置流程,具体配置可能会因版本和环境的不同而有所差异。建议参考官方文档或相关教程进行详细配置。

0
看了该问题的人还看了