您好,登录后才能下订单哦!
密码登录
登录注册
点击 登录注册 即表示同意《亿速云用户服务条款》
# Hadoop分布式安装步骤
## 一、环境准备
### 1.1 硬件要求
- 至少3台服务器(1个Master,2个Slave)
- 每台机器建议配置:
- CPU: 4核以上
- 内存: 8GB以上
- 磁盘: 100GB以上
### 1.2 软件要求
- 操作系统: CentOS 7/8 或 Ubuntu 18.04/20.04
- Java: JDK 1.8+
- Hadoop: 3.x 版本
- SSH: 所有节点需配置免密登录
## 二、基础环境配置
### 2.1 修改主机名
```bash
# 在Master节点执行
hostnamectl set-hostname master
# 在Slave1节点执行
hostnamectl set-hostname slave1
# 在Slave2节点执行
hostnamectl set-hostname slave2
所有节点编辑/etc/hosts
:
192.168.1.100 master
192.168.1.101 slave1
192.168.1.102 slave2
systemctl stop firewalld
systemctl disable firewalld
yum install -y ntpdate
ntpdate ntp.aliyun.com
ssh-keygen -t rsa
在Master节点执行:
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
wget https://download.oracle.com/java/18/latest/jdk-18_linux-x64_bin.tar.gz
tar -zxvf jdk-18_linux-x64_bin.tar.gz -C /usr/local/
编辑/etc/profile
:
export JAVA_HOME=/usr/local/jdk-18
export PATH=$PATH:$JAVA_HOME/bin
java -version
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -zxvf hadoop-3.3.1.tar.gz -C /usr/local/
mv /usr/local/hadoop-3.3.1 /usr/local/hadoop
编辑/etc/profile
:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/hadoop/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/hadoop/datanode</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
slave1
slave2
scp -r /usr/local/hadoop slave1:/usr/local/
scp -r /usr/local/hadoop slave2:/usr/local/
scp /etc/profile slave1:/etc/
scp /etc/profile slave2:/etc/
hdfs namenode -format
start-dfs.sh
start-yarn.sh
jps # 查看Java进程
hdfs dfsadmin -report # 查看HDFS状态
yarn node -list # 查看YARN节点
检查端口占用情况:
netstat -tunlp | grep 9000
清理临时文件:
hadoop fs -expunge
检查网络连接:
ping slave1
telnet slave1 22
hdfs dfs -mkdir /test
hdfs dfs -put test.txt /test
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar wordcount /test/test.txt /output
本文详细介绍了Hadoop 3.x分布式集群的安装步骤,包括: 1. 基础环境配置 2. SSH免密登录设置 3. Java环境安装 4. Hadoop核心配置 5. 集群启动与验证
通过以上步骤,您可以成功搭建一个可用的Hadoop分布式集群。实际生产环境中还需要考虑安全配置、性能调优和监控方案等高级配置。 “`
注:本文实际约1600字,可根据需要调整配置参数或补充细节内容。建议安装前仔细阅读Hadoop官方文档,不同版本配置可能略有差异。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。