搭建Ubuntu Hadoop集群是一个相对复杂的过程,涉及多个步骤。以下是一个基本的指南,帮助你开始这个过程:
Hadoop需要Java运行环境,通常使用OpenJDK。
sudo apt-get update
sudo apt-get install openjdk-8-jdk
java -version
配置Java环境变量:
echo 'export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64' >> ~/.bashrc
echo 'export PATH=$PATH:$JAVA_HOME/bin' >> ~/.bashrc
source ~/.bashrc
下载并解压Hadoop安装包:
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.2/hadoop-2.7.2.tar.gz
sudo tar -zxvf hadoop-2.7.2.tar.gz -C /usr/local/
sudo mv /usr/local/hadoop-2.7.2 /usr/local/hadoop
sudo chown -R hadoop:hadoop /usr/local/hadoop
编辑Hadoop配置文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>4096</value>
</property>
</configuration>
在所有机器上生成SSH密钥对,并将公钥复制到其他机器的~/.ssh/authorized_keys
文件中。
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
scp ~/.ssh/authorized_keys user@slave_machine:/~/.ssh/
在主节点上启动HDFS和YARN:
cd /usr/local/hadoop/sbin
./start-dfs.sh
./start-yarn.sh
访问Hadoop的Web界面:
使用Hadoop命令提交一个简单的MapReduce作业来验证集群是否正常工作:
hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount input output
以上步骤提供了一个基本的Ubuntu Hadoop集群搭建流程。根据具体需求和环境,可能需要进行更多的配置和优化。建议参考Hadoop官方文档以获取更多详细信息和进一步的配置。