您好,登录后才能下订单哦!
本篇内容介绍了“分布式Ceph存储集群集的详细步骤”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
先上几张图展示下目前Ceph存储的大体情况,模拟更换服务器CLIENT3上数据硬盘,ceph存储设备已经有存放数据,观察更换过程及恢复变化。
[root@client3 ~]# systemctl stop ceph-osd@2.service
[root@client3 ~]# umount /var/lib/ceph/osd/ceph-2
[root@client3 ~]# ceph osd out osd.2
[root@client3 ~]# ceph auth del osd.2
[root@client3 ~]# ceph osd rm 2
清空磁盘信息:
[root@client3 ~]# wipefs -af /dev/sdb
磁盘变化:(删除旧磁盘,更换新盘,虚拟机中删除后原50G硬盘,重新添加一个80G硬盘。
此时集群状态
原硬盘50G更换后为80G
[root@master ~]# cd /data/idc-cluster/
[root@master idc-cluster]# ceph-deploy osd prepare client3:/dev/sdb
存储空间也变大了(原来为135G,更改硬盘后存储空间为165G)。
数据依然存在,无变化。
CEPH集群恢复中:
[root@BDDB cephfs]# ceph health
恢复完成:[root@BDDB cephfs]# ceph health
“分布式Ceph存储集群集的详细步骤”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。