在Debian系统上安装Hadoop的步骤如下:
首先,确保你的Debian系统上已经安装了Java。你可以使用以下命令来安装OpenJDK 8:
sudo apt update
sudo apt install openjdk-8-jdk
验证Java安装成功:
java -version
访问Apache Hadoop官方网站,下载适合你需求的Hadoop版本。例如,下载Hadoop 3.3.1:
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
解压下载的Hadoop安装包到/usr/local
目录:
sudo tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
为了方便使用Hadoop命令,将其路径添加到系统的环境变量中。编辑~/.bashrc
文件:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使环境变量生效:
source ~/.bashrc
进入Hadoop的配置目录/usr/local/hadoop/etc/hadoop
,编辑以下配置文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
为了在Hadoop节点之间实现免密登录,需要生成SSH密钥并分发到各个节点。
在主节点上生成SSH密钥:
ssh-keygen -t rsa
将公钥复制到其他节点的authorized_keys
文件中:
ssh-copy-id hadoop@node2_ip
ssh-copy-id hadoop@node3_ip
在NameNode上运行以下命令格式化HDFS:
hdfs namenode -format
在NameNode上启动Hadoop的NameNode和DataNode:
start-dfs.sh
在ResourceManager上启动YARN:
start-yarn.sh
可以通过Hadoop的Web界面来验证安装是否成功。访问NameNode的Web界面:
http://namenode_ip:9870
通过ResourceManager的Web界面检查Hadoop集群的状态:
http://resourcemanager_ip:8088
以上步骤应该可以帮助你在Debian系统上成功安装和配置Hadoop。如果在安装过程中遇到问题,可以参考Hadoop官方文档或相关社区资源。