CEPH RBD集群使用
2017-04-17 13:34
645 查看
准备阶段
RBD client端安装ceph工具集合
创建一个块设备映像
ceph-client-node@ceph-client-node:~$ rbd create harvis_rbd -m 192.168.1.252 -k /etc/ceph/ceph.client.admin.keyring –size 4096
将块设备映像映射到一个块设备
rbd feature disable harvis_rbd fast-diff
rbd feature disable harvis_rbd deep-flatten
rbd feature disable harvis_rbd object-map
rbd feature disable harvis_rbd exclusive-lock
ceph-client-node@ceph-client-node:~$ sudo rbd map harvis_rbd –name client.admin -m 192.168.1.252 -k /etc/ceph/ceph.client.admin.keyring
映射完成,用命令lsblk可以看到
ceph-client-node@ceph-client-node:~$ ls -l /dev/rbd/rbd/harvis_rbd
lrwxrwxrwx 1 root root 10 Apr 17 13:12 /dev/rbd/rbd/harvis_rbd -> ../../rbd0
ceph-client-node@ceph-client-node:~$ ls -l /dev/rbd0
brw-rw—- 1 root disk 251, 0 Apr 17 13:12 /dev/rbd0
将块设备格式化为xfs格式
ceph-client-node@ceph-client-node:~$ sudo mkfs.xfs /dev/rbd/rbd/harvis_rbd
ceph-client-node@ceph-client-node:~$ ls -l /dev/disk/by-uuid/
将新格式化的xfs找个地方挂载上
ceph-client-node@ceph-client-node:~$ sudo mkdir /mnt/ceph-block-device
ceph-client-node@ceph-client-node:~$ sudo mount /dev/rbd/rbd/harvis_rbd /mnt/ceph-block-device
ceph-client-node@ceph-client-node:/mnt/ceph-block-device$ sudo cp /boot/initrd.img-4.4.0-31-generic initrd.img
查看ceph -s观察集群消耗情况,拷贝前消耗178M,拷贝后消耗263M, 差值85M, 文件initrd.img大小21M. 这里有没有使用多副本的策略呢?
RBD client端安装ceph工具集合
创建一个块设备映像
ceph-client-node@ceph-client-node:~$ rbd create harvis_rbd -m 192.168.1.252 -k /etc/ceph/ceph.client.admin.keyring –size 4096
将块设备映像映射到一个块设备
rbd feature disable harvis_rbd fast-diff
rbd feature disable harvis_rbd deep-flatten
rbd feature disable harvis_rbd object-map
rbd feature disable harvis_rbd exclusive-lock
ceph-client-node@ceph-client-node:~$ sudo rbd map harvis_rbd –name client.admin -m 192.168.1.252 -k /etc/ceph/ceph.client.admin.keyring
映射完成,用命令lsblk可以看到
ceph-client-node@ceph-client-node:~$ ls -l /dev/rbd/rbd/harvis_rbd
lrwxrwxrwx 1 root root 10 Apr 17 13:12 /dev/rbd/rbd/harvis_rbd -> ../../rbd0
ceph-client-node@ceph-client-node:~$ ls -l /dev/rbd0
brw-rw—- 1 root disk 251, 0 Apr 17 13:12 /dev/rbd0
将块设备格式化为xfs格式
ceph-client-node@ceph-client-node:~$ sudo mkfs.xfs /dev/rbd/rbd/harvis_rbd
ceph-client-node@ceph-client-node:~$ ls -l /dev/disk/by-uuid/
将新格式化的xfs找个地方挂载上
ceph-client-node@ceph-client-node:~$ sudo mkdir /mnt/ceph-block-device
ceph-client-node@ceph-client-node:~$ sudo mount /dev/rbd/rbd/harvis_rbd /mnt/ceph-block-device
ceph-client-node@ceph-client-node:/mnt/ceph-block-device$ sudo cp /boot/initrd.img-4.4.0-31-generic initrd.img
查看ceph -s观察集群消耗情况,拷贝前消耗178M,拷贝后消耗263M, 差值85M, 文件initrd.img大小21M. 这里有没有使用多副本的策略呢?
相关文章推荐
- 初试 Kubernetes 集群使用 Ceph RBD 块存储
- ceph存储 ceph集群loop使用示例
- ceph存储 ceph集群ceph-deploy部署使用说明
- 通过iscsi协议使用ceph rbd
- CEPH RGW集群和bucket的zone group 不一致导致的404异常解决 及 使用radosgw-admin metadata 命令设置bucket metadata 的方法
- CEPH集群RBD快照创建、恢复、删除、克隆(转)
- openstack nova后端使用ceph rbd(增加在线迁移live_migrate和快照snapshot功能)
- 我所了解的各公司使用的Ceph存储集群
- cinder使用ceph,设置rbd_flatten_volume_from_snapshot的意义
- CEPH集群RBD快照创建、恢复、删除、克隆
- kubernetes的ceph RBD volume(1):使用Ceph RBD作为后端Volume
- 不使用ceph-deploy 手动安装两个节点的Ceph集群
- 我所了解的各公司使用的 Ceph 存储集群 (携程、乐视、有云、宝德云、联通等)
- 使用ceph-deploy安装部署线上ceph分布式存储集群(centos6.6)
- Ceph RBD为Kubernetes集群提供分布式数据存储
- Openstack存储总结之:使用Ceph集群作为后端统一存储
- 通过iscsi协议使用ceph rbd
- openstack nova后端使用ceph rbd(增加在线迁移live_migrate和快照snapshot功能)
- Ceph 集群 client 节点 rdb配置和使用
- kubernetes的ceph RBD volume(2): 使用Ceph RBD作为persistent volume