在Debian上搭建Hadoop集群涉及多个步骤,包括准备节点、安装Java环境、配置网络、安装Hadoop以及配置Hadoop集群。以下是一个详细的步骤指南:
/etc/network/interfaces 文件,注释掉自动获取IP的部分,并添加静态IP配置。/etc/hosts 文件:添加所有节点的IP地址和主机名。sudo apt-get install openssh-serverssh-keygen 命令生成SSH密钥。ssh-copy-id 命令将公钥复制到其他节点,实现免密码登录。hadoop 并设置用户组。sudo apt update && sudo apt upgradesudo apt install apt-transport-https ca-certificates curl gnupg2 software-properties-common
curl -fsSL https://deb.nodesource.com/setup_14.x | sudo -E bash -
sudo apt-get install -y nodejs
sudo apt update
sudo apt install adoptopenjdk-11-hotspot
java -version/opt 目录。sudo ln -sf /opt/hadoop-3.2.0 /opt/hadoopsudo mkdir -p /opt/hadoop/logs
sudo mkdir -p /opt/hadoop/hdfs/name
sudo mkdir -p /opt/hadoop/hdfs/data
/etc/profile.d/hadoop.sh 文件,添加以下内容:export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile/etc/hadoop/hadoop-env.sh 文件,设置 JAVA_HOME。core-site.xml:<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
hdfs-site.xml:<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop/hdfs/name</value>
</property>
</configuration>
yarn-site.xml:<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
mapred-site.xml(如果使用MapReduce):<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
hdfs namenode -format
start-dfs.sh
start-yarn.sh
jps 命令检查各个守护进程是否启动。http://master:9000请注意,以上步骤是一个基本的指南,具体配置可能需要根据实际需求进行调整。在搭建集群之前,建议详细阅读Hadoop官方文档,并根据实际情况进行相应的配置。