CentOS上集成HDFS与其他服务需按步骤配置,以下是关键操作:
JAVA_HOME
环境变量。authorized_keys
,实现无密码通信。HADOOP_HOME
、PATH
)。core-site.xml
:设置默认文件系统URI(如hdfs://localhost:9000
)。hdfs-site.xml
:配置副本数、数据存储路径等。hdfs namenode -format
。start-dfs.sh
启动NameNode、DataNode等进程。yarn-site.xml
,设置ResourceManager地址及mapreduce_shuffle
服务等。start-yarn.sh
,通过jps
查看ResourceManager、NodeManager进程。wordcount
)测试资源调度。zoo.cfg
,在NameNode节点创建myid
文件。hdfs-site.xml
中指定ZooKeeper集群地址、JournalNode共享存储路径,启用自动故障切换。hdfs haadmin -transitionToActive
切换主备节点。SPARK_HOME
及PATH
。spark-env.sh
中指定HDFS地址,在core-site.xml
中配置Spark临时目录。server.properties
,通过HDFS Sink将数据写入HDFS。jps
查看各服务进程是否正常运行。http://namenode:50070
)、YARN(http://resourcemanager:8088
)验证状态。/var/log/hadoop
或服务日志,排查配置错误。参考来源:[1,2,4,5,6,7,8,9,10,11]