如何通过Ceph-RBD和ISCSI-target实现硬盘共享

发布时间:2021-11-15 23:57:43 作者:柒染
来源:亿速云 阅读:303

今天就跟大家聊聊有关如何通过Ceph-RBD和ISCSI-target实现硬盘共享,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。

1 问题提出

   现在要求把机房的设备存储都利用起来,建立一个存储池,能满足用多少创建多少而且能够跨平台挂载创建的硬盘。目前,验室的机房目前已经建立起来了CEPH的集群,存储池达到了257TB,于是设想创建一个RBD(RADOS block device),然后通过ISCSI-target把创建的RBD导出来用于客户端的挂载。

2 可行性分析

   上述的问题的实现主要是两部分,一部分是创建RBD,另一部分是通过安装ISCSI-target把RBD导出,用于Ceph集群外主机挂载。目前的实验环境已经可以成功的创建RBD用于Ceph集群内的装有RBD客户端的主机挂载,剩下的就是第二部分的实现。由于Ceph已经支持通过iscsi协议来使用rbd,所以在理论上是可行的。

3 实现过程

3.1 环境说明

实验平台:ubuntu14.04 server,内核:3.13.0-32-generic

Ceph版本:version 0.94.2

服务端 ISCSI-target采用Linux SCSI target framework (tgt)(http://stgt.sourceforge.net/)

服务端IP:172.25.1.55

3.2 创建RBD

在ceph-admin节点执行下面命令:

rbd create --size {megabytes} {pool-name}/{image-name}

比如创建大小为1GB,名为ceph-rbd1的RBD:

rbd create --size 1024 ceph-rbd1

未指定pool-name则默认创建到rbd池里面

查看RBD:rbd ls {poolname} 不加poolname默认查看rbd池下的RBD

查看RBD详细信息:

rbd info {pool-name}/{image-name}

比如查看ceph-rbd1:rbd info ceph-rbd1 不加pool-name默认rbd池

3.3 映射RBD

创建好的RBD需要映射到客户机才能使用,客户机需要内核支持Ceph块设备和文件系统,推荐内核2.6.34或更高版本。

检查Linux版本和对RBD的支持:

modprobe rbd

Linux哲学,不返回消息就是最好的消息。所以modprobe rbd没有返回消息说明内核对rbd支持。

在ceph-osd节点执行下面命令:

rbd map rbd/ceph-rbd1

格式是rbd map {pool-name}/{image-name} 不加{pool-name}默认rbd

查看映射后的RBD在操作系统中的设备名:

rbd showmapped

可以看到创建的RBD在操作系统的设备名是/dev/rbd1

fdisk –l /dev/rbd1#参看分区情况

如果用于本机挂载执行接下来步骤:

mkfs.xfs /dev/rbd1 #格式化RBD
mkdir /mnt/ceph-vol1 #创建挂载点
mount /dev/rbd1 /mnt/ceph-vol1 #挂载RBD,可以写入数据测试一下挂载后的RBD

不过我们的目的是Ceph集群外主机挂载RBD,所以上面的步骤了解一下即可,集群外主机挂载RBD需要用到ISCSI-target。

3.4 配置rbdmap

根据网络文档了解到,创建rbd块设备并rbd map后,如果不及时rbd unmap,关机的时候系统会停留在umount此rbd设备上。所以要配置rbdmap。官方文档无rbdmap的介绍,而且这个脚本也不是官方发布的,为避免遇到这种问题先下载并设置开机启动rbdmap,将来再尝试不加入这个脚本会不会出现问题。

sudo wget https://raw.github.com/ceph/ceph/a4ddf704868832e119d7949e96fe35ab1920f06a/src/init-rbdmap -O /etc/init.d/rbdmap #获得脚本文件
sudo chmod +x /etc/init.d/rbdmap #增加执行权限
sudo update-rc.d rbdmap defaults #添加开机启动

修改rbdmap的配置文件/etc/ceph/rbdmap将映射好的rbd添加进去,注意/etc/ceph/rbdmap路径是wget时的当前路径 ,我wget时是在/etc/ceph路径下的。

vi /etc/ceph/rbdmap
# RbdDevice     Parameters
#poolname/imagename   id=client,keyring=/etc/ceph/ceph.client.keyring
rbd/ceph-rbd1      id=client,keyring=/etc/ceph/ceph.client.keyring

如果使用了cephx那么,keyring=/etc/ceph/ceph.client.keyring就要加上了

3.5 配置ISCSI-target

Linux SCSI target framework (tgt)用来将 Linux 系统仿真成为 iSCSI target 的功能;安装tgt,并检查是否支持rbd:

apt-get install tgt
tgtadm --lld iscsi --op show --mode system | grep rbd

rbd (bsoflags sync:direct)#返回这个信息表明支持rbd

文件的了解:
/etc/tgt/targets.conf:主要配置文件,设定要分享的磁盘格式与哪几颗;

/usr/sbin/tgt-admin:在线查询、删除 target 等功能的设定工具;

/usr/sbin/tgt-setup-lun:建立 target 以及设定分享的磁盘与可使用的客户端等工具软件。

/usr/sbin/tgtadm:手动直接管理的管理员工具 (可使用配置文件取代);

/usr/sbin/tgtd:主要提供 iSCSI target 服务的主程序;

/usr/sbin/tgtimg:建置预计分享的映像文件装置的工具 (以映像文件仿真磁盘);

SCSI 有一套自己分享 target 档名的定义,基本上,藉由 iSCSI 分享出来的 target 檔名都是以 iqn 为开头,意思是:『iSCSI Qualified Name (iSCSI 合格名称)』的意思。那么在 iqn 后面要接啥档名呢?通常是这样的:

iqn.yyyy-mm.<reversed domain name>:identifier

单位网域名的反转写法  :这个分享的target名称

比如:target iqn.2015-9.localhost:iscsi 在接下看的配置中会用到

我们主要是修改 /etc/tgt/targets.conf,把创建好的RBD信息添加进去。

vim /etc/tgt/targets.conf

# 此档案的语法如下:

<target iqn.相关装置的target名称>
    backing-store 存储设备名 -1
    backing-store 存储设备名 -2
</target>
<target iqn.2015-9.localhost:iscsi>
    driver iscsi #驱动
    bs-type rbd # 后端存储类型 – 默认 rdwr, 可选 aio, 等...在这里选rbd
backing-store rbd/ceph-rbd1  # <==LUN 1 (LUN 的编号通常照顺序)Format is <iscsi-pool>/<iscsi-rbd-image>
</target>

backing-store (虚拟的装置), direct-store (实际的装置): 设定装置时,如果你的整个磁盘是全部被拿来当 iSCSI 分享之用,那么才能够使用 direct-store 。不过,根据网络上的其他文件, 似乎说明这个设定值有点危险的样子。所以,基本上还是建议单纯使用模拟的 backing-store 较佳。

当然,配置文件中还有其他的一些参数可以参考:/usr/share/doc/tgt/examples/targets.conf.example里面的内容。

然后重启tgt:/etc/init.d/tgt restart

参看端口是否开启:netstat -tlunp | grep tgt 默认3260端口

观察一下target 相关信息,以及提供的 LUN 数据内容:

tgt-admin –show
Target 1: iqn.2015-9.localhost:iscsi  <==就是我们的 target
    System information:
        Driver: iscsi
        State: ready
    I_T nexus information:
    LUN information:
        LUN: 0
            Type: controller     <==这是个控制器,并非可以用的 LUN 喔!
  ……省略中间……..
        LUN: 1
            Type: disk    <==第一个 LUN (Logical Unit Number)
            SCSI ID: IET     00010001
            SCSI SN: beaf11
            Size: 10995116 MB, Block size: 512 <==容量
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            SWP: No
            Thin-provisioning: No
            Backing store type: rbd
            Backing store path: rbd/ceph-rbd1 <==磁盘所在的实际文件名
            Backing store flags:
    Account information:
    ACL information:
        ALL

至此ISCSI-target就已经配置好了。

3.6 windows客户端挂载

iSCSI initiator:就是能够使用 target 的客户端,通常是服务器。 也就是说,想要连接到 iSCSI target 的服务器,也必须要安装 iSCSI initiator 的相关功能后才能够使用 iSCSI target 提供的磁盘。

上面配置都成功的话就可以进行正常挂载,我是在windows7上面进行的挂载。windows7自带有iSCSI initiator。

打开控制面板—》系统与安全—》管理工具 iSCSI 发起程序

点发现门户然后填入你的服务端IP或DNS

可以看到当前的状态是不活动的,可以点击连接:

 连接成功后相当于挂载了一个硬盘,这时我们可以在磁盘管理中进行分区和格式化等一些操作,格式化成功后可以看到磁盘已经在系统中了。

3.7 linux客户端挂载

本次主要针对的windows客户端挂载,成功的挂载说明服务器端是没有问题的,如果要在linux上进行挂载,只需要安装iSCSI initiator然后进行简单的配置。具体的配置方法下面的参考文献中的鸟哥文章有详细介绍,这里只是说明其是具有可行性的,不进行实例验证了。

注意,linux客户端和windows客户端都是ceph集群外的主机,集群内的不需要用到iscsi就可以进行创建挂载。

看完上述内容,你们对如何通过Ceph-RBD和ISCSI-target实现硬盘共享有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注亿速云行业资讯频道,感谢大家的支持。

推荐阅读:
  1. 通过session会话实现认证和授权
  2. 通过 Python 和 OpenCV 实现目标数量监控

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

ceph iscsi target

上一篇:在.NET中实现Actor模型的不同方式是怎样的

下一篇:如何进行Spark的shuffle实现

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》