以下是Hadoop在Linux上部署的实用技巧:
环境准备
java -version验证,配置JAVA_HOME环境变量。ssh-keygen生成密钥并分发至集群节点。安装与配置
/usr/local/并创建符号链接。core-site.xml:设置fs.defaultFS为HDFS地址(如hdfs://namenode:9000)。hdfs-site.xml:配置副本数(dfs.replication)、NameNode/DataNode数据目录。yarn-site.xml:指定yarn.nodemanager.aux-services为mapreduce_shuffle。hdfs namenode -format(仅首次启动需执行)。启动与验证
start-dfs.sh(HDFS)和start-yarn.sh(YARN)。jps查看进程,访问Web界面(HDFS:http://namenode:50070,YARN:http://namenode:8088)。优化技巧
-Xmx)、HDFS块大小(dfs.blocksize),关闭swap分区(swapoff -a)。维护与监控
hdfs dfsadmin -report监控集群状态,通过日志(如/var/log/hadoop)排查问题。参考来源: