Ceph Block Device块设备操作的示例分析

发布时间:2021-12-17 10:15:16 作者:小新
来源:亿速云 阅读:161

这篇文章主要介绍了Ceph Block Device块设备操作的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

使用ceph block device需要如下三个步骤:

1. 在ceph 集群的pool中创建一个Block Device image.

2. ceph Client使用RBD设备与ceph集群的Block Device image进行映射(Map)。

3. ceph Client的User Space便可以挂载(Mount)该RBD设备。

Ceph Block Device块设备操作的示例分析

Step1 创建Block Device Image

首先,需要新建一个pool,如果不想新建pool,可以使用默认pool,即rbd。

命令:ceph osd pool create <creating_pool_name> <pg_num>
参数:creating_pool_name : 要创建的pool的名字
          pg_num : Placement Group的个数
   
    # ceph osd pool create testpool 512
    pool testpool' created

,需要在ceph集群中创建一个Block Device Image。(查看rbd的命令,输入 "man rbd"命令)

命令:rbd create --size {MegaBytes} {pool-name}/{image-name}

例如:在名为“testpool”的pool中创建“bar”的Image,容量是1024MB

# rbd create --size 1024 testpool/bar

查看Block Device Images

# rbd ls testpool

rbd

以及查看一个Block Device Images的详细信息

# rbd info testpool/bar
rbd image 'bar':
size 1024 MB in 256 objects
order 22 (4096 kB objects)
block_name_prefix: rbd_data.5e3b248a65f6
format: 2
features: layering
flags:

Step2 ceph Client使用RBD设备与ceph集群的Block Device image进行映射(Map)

命令: sudo rbd map rbd/myimage --id admin --keyring /path/to/keyring

例如

# sudo rbd map testpool/bar --id admin --keyring /etc/ceph/ceph.client.admin.keyring

dev/rbd0

查看已经映射的Block Device信息

# rbd showmapped
id  pool       image   snap   device   
0   testpool   bar        -       /dev/rbd0

Step3 ceph Client的User Space挂载(Mount)该RBD设备

首先,使用该block device在client-node上创建一个文件系统。

# sudo mkfs.ext4 -m0 /dev/rbd/testpool/bar
mke2fs 1.42.9 (28-Dec-2013)
Discarding device blocks: done                           
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=1024 blocks, Stripe width=1024 blocks
65536 inodes, 262144 blocks
0 blocks (0.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=268435456
8 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
         32768, 98304, 163840, 229376

Allocating group tables: done                           
Writing inode tables: done                           
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done

其次,挂载该文件系统

# sudo mkdir /mnt/ceph-block-device
# sudo mount /dev/rbd/testpool/bar /mnt/ceph-block-device

查看mount信息

# mount

...
/dev/rbd0 on /mnt/ceph-block-device type ext4 (rw,relatime,seclabel,stripe=1024,data=ordered)

* Ceph Block Deviced的其他相关操作

To create a new rbd image that is 100 GB:

rbd create mypool/myimage --size 102400

To use a non-default object size (8 MB):

rbd create mypool/myimage --size 102400 --object-size 8M

To delete an rbd image (be careful!):

rbd rm mypool/myimage

To create a new snapshot:

rbd snap create mypool/myimage@mysnap

To create a copy-on-write clone of a protected snapshot:

rbd clone mypool/myimage@mysnap otherpool/cloneimage

To see which clones of a snapshot exist:

rbd children mypool/myimage@mysnap

To delete a snapshot:

rbd snap rm mypool/myimage@mysnap

To map an image via the kernel with cephx enabled:

rbd map mypool/myimage --id admin --keyfile secretfile

To map an image via the kernel with different cluster name other than default ceph.

rbd map mypool/myimage –cluster cluster name

To unmap an image:

rbd unmap /dev/rbd0

To create an image and a clone from it:

rbd import --image-format 2 image mypool/parent
rbd snap create mypool/parent@snap
rbd snap protect mypool/parent@snap
rbd clone mypool/parent@snap otherpool/child

To create an image with a smaller stripe_unit (to better distribute small writes in some workloads):

rbd create mypool/myimage --size 102400 --stripe-unit 65536B --stripe-count 16

To change an image from one image format to another, export it and then import it as the desired image format:

rbd export mypool/myimage@snap /tmp/img
rbd import --image-format 2 /tmp/img mypool/myimage2

To lock an image for exclusive use:

rbd lock add mypool/myimage mylockid

To release a lock:

rbd lock remove mypool/myimage mylockid client.2485

感谢你能够认真阅读完这篇文章,希望小编分享的“Ceph Block Device块设备操作的示例分析”这篇文章对大家有帮助,同时也希望大家多多支持亿速云,关注亿速云行业资讯频道,更多相关知识等着你来学习!

推荐阅读:
  1. Ceph块设备介绍与安装配置
  2. 分布式存储ceph

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

ceph device

上一篇:单机Ceph如何从Firefly升级到Hammer

下一篇:python匿名函数怎么创建

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》