Linux下Hadoop配置要点如下:
环境准备
JAVA_HOME环境变量。Hadoop安装与基础配置
/usr/local/hadoop)。~/.bashrc或/etc/profile中添加HADOOP_HOME、PATH等,并执行source使生效。核心配置文件修改
fs.defaultFS(HDFS URI,如hdfs://namenode:9820)、临时目录hadoop.tmp.dir。dfs.replication、NameNode和DataNode数据存储路径。mapreduce_shuffle)。mapreduce.framework.name为yarn。集群通信配置
authorized_keys。slaves文件中列出所有DataNode节点主机名。启动与验证
hdfs namenode -format(仅首次启动需执行)。start-dfs.sh(HDFS)、start-yarn.sh(YARN)。jps查看进程,或访问Web界面(HDFS:http://namenode:9870,YARN:http://resourcemanager:8088)。注意:生产环境需根据节点角色(NameNode/ResourceManager、DataNode/NodeManager)调整配置文件,并确保网络连通性。