Hadoop在Linux系统上扩展存储主要有**横向扩容(增加节点)和纵向扩容(提升单机存储)**两种方式,具体操作如下:
核心步骤:
hdfs-site.xml
中添加新DataNode的存储目录(如<property><name>dfs.datanode.data.dir</name><value>/data1,/data2</value></property>
)。hdfs-site.xml
的dfs.replication
相关配置中(可选)。hdfs datanode
命令启动服务,新节点会自动注册到NameNode。hdfs balancer
命令,将数据均匀分布到新旧节点,避免单节点负载过高。hdfs dfsadmin -report
查看集群状态,确认新节点已加入且存储空间正常。核心步骤:
fdisk /dev/sdb
(假设新硬盘为/dev/sdb
)进行分区、格式化(如mkfs.xfs /dev/sdb1
)。/data
),编辑/etc/fstab
添加挂载信息(如/dev/sdb1 /data xfs defaults 0 0
),执行mount -a
使配置生效。hdfs-site.xml
,在dfs.datanode.data.dir
中添加新挂载路径(如<value>/data,/opt/hadoop/data</value>
)。hadoop-daemon.sh start datanode
或systemctl restart hadoop-datanode
),使新硬盘生效。df -h
查看磁盘使用情况,确认新硬盘已挂载;通过hdfs dfsadmin -report
查看节点存储状态。参考来源: