ceph rbd块存储简介

其前身就是ceph块设备,为ceph客户端提供基于块的持久存储,通常做为一个额外的磁盘使用,客户可以灵活的使用这个磁盘,可以作为裸设备使用,也可以格式化成文件系统,然后挂载使用。利用librbd库将块数据连续的存储在跨越多个OSD的条带存储空间。

创建rbc块存储

[root@k8s-node3~]#cephosdlspools

rbd块存储默认是存在rbd pool里面的。

先创建一个rbd的pool。

[root@k8s-node3~]#cephosdpoolcreaterbd128##128表示pg的个数

[root@k8s-node3~]#cephosdlspools0rbd,

说明: 0是一个编号。

如果想删除,可以执行如下语句:

[root@k8s-node3~]#cephosdpooldeleterbdrbd--yes-i-really-really-mean-it

下面再创建一个rbd的块存储:

[root@k8s-node1~]#rbdcreatedata--size1024-prbd

、data是我们自己取的rbd块存储的名字;

-p是指定pool,也可以不加-p,不加就默认是rbd pool;

--size指定大小,默认单位是MB。

查看rbd块存储的相关信息:

[root@k8s-node1~]#rbd--imagedatainforbdimage'data':size1024MBin256objects##objects是块的意思order22(4096kBobjects)block_name_prefix:rbd_data.1149238e1f29format:2features:layering,exclusive-lock,object-map,fast-diff,deep-flattenflags: