要在Debian中稳定运行HDFS,需从环境准备、配置优化、高可用部署及监控维护等方面入手,具体步骤如下:
/etc/hosts),安装Java 8+和Hadoop(从官网下载解压至指定目录)。~/.bashrc中添加HADOOP_HOME和PATH,例如:export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
执行source ~/.bashrc使配置生效。<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/var/lib/hadoop/tmp</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/datanode</value>
</property>
zoo.cfg,设置集群节点和端口(如server.1=master:2888:3888)。/data/journal),并在hdfs-site.xml中配置共享编辑日志路径,例如:<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://master:8485;slave1:8485;slave2:8485/mycluster</value>
</property>
dfs.ha.automatic-failover.enabled为true,并设置SSH免密登录以实现自动故障切换。hdfs namenode -format。start-dfs.sh启动HDFS。hdfs dfsadmin -report查看集群状态,或访问Web界面(http://namenode:9870)确认节点正常。top、htop等工具监控节点资源使用情况,避免CPU/内存过载。/var/log/hadoop下的日志文件,及时处理异常。参考资料: