在Debian上搭建Hadoop集群涉及多个步骤,包括准备节点、安装Java环境、配置网络、安装Hadoop以及配置Hadoop集群。以下是一个详细的步骤指南:
/etc/network/interfaces
文件,注释掉自动获取IP的部分,并添加静态IP配置。/etc/hosts
文件:添加所有节点的IP地址和主机名。sudo apt-get install openssh-server
ssh-keygen
命令生成SSH密钥。ssh-copy-id
命令将公钥复制到其他节点,实现免密码登录。hadoop
并设置用户组。sudo apt update && sudo apt upgrade
sudo apt install apt-transport-https ca-certificates curl gnupg2 software-properties-common
curl -fsSL https://deb.nodesource.com/setup_14.x | sudo -E bash -
sudo apt-get install -y nodejs
sudo apt update
sudo apt install adoptopenjdk-11-hotspot
java -version
/opt
目录。sudo ln -sf /opt/hadoop-3.2.0 /opt/hadoop
sudo mkdir -p /opt/hadoop/logs
sudo mkdir -p /opt/hadoop/hdfs/name
sudo mkdir -p /opt/hadoop/hdfs/data
/etc/profile.d/hadoop.sh
文件,添加以下内容:export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
/etc/hadoop/hadoop-env.sh
文件,设置 JAVA_HOME
。core-site.xml
:<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
hdfs-site.xml
:<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop/hdfs/name</value>
</property>
</configuration>
yarn-site.xml
:<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
mapred-site.xml
(如果使用MapReduce):<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
hdfs namenode -format
start-dfs.sh
start-yarn.sh
jps
命令检查各个守护进程是否启动。http://master:9000
请注意,以上步骤是一个基本的指南,具体配置可能需要根据实际需求进行调整。在搭建集群之前,建议详细阅读Hadoop官方文档,并根据实际情况进行相应的配置。