在Linux中扩展Hadoop集群的步骤如下:
环境检查:
/etc/hosts
文件。Hadoop安装与配置同步:
添加到workers文件(或slaves文件):
$HADOOP_HOME/etc/hadoop/workers
文件中添加新节点的主机名。若启用了白名单,修改dfs.hosts:
$HADOOP_HOME/etc/hadoop/dfs.hosts
文件中。在新节点上执行以下命令:
$HADOOP_HOME/sbin/hadoop-daemon.sh start datanode
$HADOOP_HOME/sbin/yarn-daemon.sh start nodemanager
可选:在主节点上运行balancer以平衡数据。
查看HDFS节点状态:
hdfs dfsadmin -report
查看HDFS节点状态。http://<namenode_host>:9870/dfshealth.html
查看。查看YARN节点状态:
http://<resourcemanager_host>:8088/cluster/nodes
查看。测试任务提交:
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar pi 5 100
测试任务提交。auto_add_node.sh
。请注意,具体的步骤可能会根据Hadoop版本和集群配置有所不同。在执行扩展操作之前,建议详细阅读相关版本的官方文档,并确保所有节点的时间同步,以避免潜在的问题。