CentOS上集成HDFS与其他服务需按步骤配置,以下是关键操作:
JAVA_HOME环境变量。authorized_keys,实现无密码通信。HADOOP_HOME、PATH)。core-site.xml:设置默认文件系统URI(如hdfs://localhost:9000)。hdfs-site.xml:配置副本数、数据存储路径等。hdfs namenode -format。start-dfs.sh启动NameNode、DataNode等进程。yarn-site.xml,设置ResourceManager地址及mapreduce_shuffle服务等。start-yarn.sh,通过jps查看ResourceManager、NodeManager进程。wordcount)测试资源调度。zoo.cfg,在NameNode节点创建myid文件。hdfs-site.xml中指定ZooKeeper集群地址、JournalNode共享存储路径,启用自动故障切换。hdfs haadmin -transitionToActive切换主备节点。SPARK_HOME及PATH。spark-env.sh中指定HDFS地址,在core-site.xml中配置Spark临时目录。server.properties,通过HDFS Sink将数据写入HDFS。jps查看各服务进程是否正常运行。http://namenode:50070)、YARN(http://resourcemanager:8088)验证状态。/var/log/hadoop或服务日志,排查配置错误。参考来源:[1,2,4,5,6,7,8,9,10,11]