Hadoop在Ubuntu的网络配置要点
一 基础网络与主机识别
network:
version: 2
renderer: networkd
ethernets:
ens33:
dhcp4: no
addresses: [192.168.5.11/24]
routes:
- to: default
via: 192.168.5.2
nameservers:
addresses: [8.8.8.8, 8.8.4.4]
应用后使用 ip a、ping 校验连通性。192.168.5.11 master
192.168.5.12 slave1
192.168.5.13 slave2
二 节点互联与安全通信
ssh-keygen -t rsacat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keysssh-copy-id user@slave1、ssh-copy-id user@slave2ssh slave1 hostname 应无需口令返回主机名。三 Hadoop关键网络参数配置
fs.defaultFS 设为 hdfs://master:9000(或写IP)。mapreduce.framework.name 设为 yarn。yarn.resourcemanager.hostname 设为 master(或RM所在主机名)。四 端口与防火墙策略
sudo ufw allow from 192.168.5.0/24 to any port 22,8088,8042,50070,50075,50090,8032
sudo ufw enable
云环境需在安全组同步放行对应端口与协议。五 验证与排错清单
ping master、ping slave1(基于主机名)。nc -zv master 9000、nc -zv master 8088。hdfs dfsadmin -report、yarn node -list。ssh-copy-id 已执行到目标节点。