以下是Ubuntu HDFS配置常见问题及解决方法:
core-site.xml、hdfs-site.xml等配置文件格式错误或参数设置不当,如fs.defaultFS未正确指向NameNode地址。<property>标签闭合,参数值符合要求(如IP、端口正确)。可参考官方文档或使用hdfs-site.xml默认模板。/etc/hosts中添加所有节点的IP与主机名映射,确保格式为IP 主机名,并删除重复或错误的条目。ssh-keygen -t rsa),并将公钥(id_rsa.pub)复制到所有DataNode的~/.ssh/authorized_keys中,确保权限为600。Permission denied错误。chown命令修改HDFS相关目录(如/usr/local/hadoop)的所有者为当前用户,或通过hdfs dfs -chmod调整文件权限。hadoop-hdfs-namenode-*.log日志,若为元数据损坏,可尝试删除hadoop.tmp.dir目录(需先备份数据),然后重新格式化NameNode(hdfs namenode -format)。Connection refused或Heartbeat failed。hdfs-site.xml中dfs.datanode.data.dir路径是否存在且可写,确认防火墙未拦截DataNode端口(默认50010、50020),并确保/etc/hosts配置正确。OutOfMemoryError。hadoop-env.sh中调整HADOOP_HEAPSIZE参数(如设置为4096MB),或优化配置减少内存占用。BlockMissingException。hdfs fsck /命令检查文件系统一致性,删除损坏块(-delete参数),或从备份恢复数据。hdfs dfsadmin -safemode leave手动退出,并检查磁盘空间是否充足。dfs.replication参数(根据集群规模设置为2 - 3),优化dfs.block.size(大文件设为256MB - 512MB),并监控节点负载,升级硬件(如增加内存、SSD存储)。参考来源: