您好,登录后才能下订单哦!
密码登录
登录注册
点击 登录注册 即表示同意《亿速云用户服务条款》
# Linux系统怎样搭建Hadoop集群
## 一、准备工作
### 1. 硬件要求
- 至少3台Linux服务器(1个NameNode + 2个DataNode)
- 每台机器建议配置:
- 4核CPU
- 8GB内存
- 100GB硬盘空间
- 稳定的网络环境(建议千兆内网)
### 2. 软件要求
- Linux系统(推荐CentOS 7/8或Ubuntu 18.04+)
- Java JDK 8+
- Hadoop 3.x(本文以3.3.4为例)
- SSH免密登录配置
## 二、环境配置
### 1. 修改主机名和hosts文件
```bash
# 在所有节点执行(以node1为例)
sudo hostnamectl set-hostname node1
# 编辑/etc/hosts文件
192.168.1.101 node1
192.168.1.102 node2
192.168.1.103 node3
# Ubuntu/Debian
sudo apt install openjdk-8-jdk
# CentOS/RHEL
sudo yum install java-1.8.0-openjdk-devel
# 验证安装
java -version
# 在所有节点生成密钥
ssh-keygen -t rsa
# 将公钥复制到其他节点(在node1执行)
ssh-copy-id node2
ssh-copy-id node3
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
tar -xzvf hadoop-3.3.4.tar.gz -C /opt/
mv /opt/hadoop-3.3.4 /opt/hadoop
# 编辑~/.bashrc
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export JAVA_HOME=$(dirname $(dirname $(readlink -f $(which java))))
# 使配置生效
source ~/.bashrc
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/hadoop/data/datanode</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node1</value>
</property>
</configuration>
node2
node3
scp -r /opt/hadoop node2:/opt/
scp -r /opt/hadoop node3:/opt/
# 仅在NameNode(node1)执行
hdfs namenode -format
# 启动HDFS
start-dfs.sh
# 启动YARN
start-yarn.sh
# 验证进程
jps
# NameNode应有:
# NameNode
# ResourceManager
# DataNode应有:
# DataNode
# NodeManager
# 创建HDFS目录
hdfs dfs -mkdir /test
# 上传本地文件
hdfs dfs -put /etc/hosts /test
# 查看文件
hdfs dfs -ls /test
# 运行MapReduce示例
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar pi 10 100
/etc/ssh/sshd_config
中PermitRootLogin
设置JAVA_HOME
路径正确update-alternatives --config java
检查默认Java版本netstat -tunlp
查看端口占用情况性能调优:
hdfs-site.xml
中的dfs.block.size
(默认128MB)高可用配置:
监控方案:
安全加固:
注意:生产环境部署建议参考官方文档进行更详细的配置,本文仅提供基础集群搭建指南。 “`
这篇文章提供了从环境准备到集群验证的完整流程,包含代码示例和常见问题解决方法。实际部署时需根据具体硬件环境和Hadoop版本调整配置参数。建议在测试环境验证后再部署到生产环境。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。