环境准备
JAVA_HOME环境变量。/usr/local/hadoop。/etc/hosts中添加所有节点的主机名与IP映射,确保节点间互通。核心配置文件
core-site.xml:设置默认文件系统(如fs.defaultFS=hdfs://namenode:8020)和临时目录。hdfs-site.xml:配置副本数(dfs.replication)、NameNode和DataNode数据目录、高可用参数(如dfs.nameservices、dfs.ha.namenodes等)。yarn-site.xml:配置ResourceManager和NodeManager参数,启用YARN高可用需设置yarn.resourcemanager.ha.enabled。slaves/masters文件:列出DataNode和ResourceManager节点主机名。权限与安全
hdfs dfs -chown设置文件/目录所有者,hdfs dfs -chmod设置权限。启动与停止
hdfs namenode -format
$HADOOP_HOME/sbin/start-dfs.sh
$HADOOP_HOME/sbin/start-yarn.sh
状态监控
http://namenode:50070http://resourcemanager:8088。jps查看进程,hdfs dfsadmin -report查看节点状态。ZooKeeper集群搭建
zoo.cfg并启动服务。HDFS高可用参数
hdfs-site.xml中设置:
dfs.nameservices:定义集群名称。dfs.ha.namenodes:指定主备NameNode名称。dfs.namenode.shared.edits.dir:配置JournalNode共享存储路径。故障转移测试
hdfs dfs -ls / # 列出目录
hdfs dfs -mkdir /test # 创建目录
hdfs dfs -put localfile /hdfs/path # 上传文件
hdfs dfs -get /hdfs/path localfile # 下载文件
hdfs dfsadmin -refreshNodes # 刷新节点列表
yarn node -list # 查看NodeManager状态
参考资料: