在Linux系统上安装Hadoop的步骤大致可以分为以下几个部分:
安装Java JDK:
java -version
检查Java是否已经安装。sudo apt-get install openjdk-8-jdk
。选择合适的Linux发行版:
配置SSH免密登录:
/etc/sudoers
文件以允许特定用户无需密码执行 sudo
命令。关闭防火墙(可选但推荐):
sudo systemctl stop firewalld
sudo systemctl disable firewalld
修改SELinux(可选但推荐):
sudo vi /etc/selinux/config
SELINUX=disabled
下载Hadoop:
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
解压Hadoop安装包:
tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
配置环境变量:
~/.bashrc
或 /etc/profile
文件,添加以下内容:export HADOOP_HOME=/usr/local/hadoop-3.3.1
export PATH=$PATH:$HADOOP_HOME/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HADOOP_HOME/lib
source ~/.bashrc
配置Hadoop:
HADOOP_HOME/etc/hadoop
目录下。core-site.xml
、hdfs-site.xml
、mapred-site.xml
和 yarn-site.xml
等文件,设置HDFS的URI、副本数和其他参数,以及MapReduce和YARN的配置。格式化HDFS:
hdfs namenode -format
启动Hadoop集群:
start-dfs.sh
start-yarn.sh
验证安装:
jps
命令检查Hadoop进程是否正常运行。http://localhost:50070
查看HDFS的状态。http://localhost:8088
查看YARN的状态。sudo
命令提升权限。以上步骤提供了一个基本的Hadoop在Linux上的部署流程。在实际操作中,可能还需要根据具体情况进行调整和优化。建议在部署前详细阅读Hadoop官方文档,并在测试环境中充分验证每一步骤的正确性。