ceph-磁盘名变化导致osd重启失败
2016-12-08 10:35
721 查看
一个主机上面的osd如下
/dev/sdc osd.4
/dev/sdd osd.5
/dev/sde osd.6
/dev/sdf osd.7
如果 因为某些原因,将/dev/sda或者/dev/sdb磁盘拿掉的话,开机的时候磁盘的序号就会向前便宜,可能情况如下
/dev/sdc -> /dev/sdd
/dev/sdd -> /dev/sdd
/dev/sde -> /dev/sde
/dev/sdf -> /dev/sdf
或者不一定会按照这个顺序变化乱序。
(1)首先可以将每个磁盘的data分区挂载到一个临时目录,在临时目录下查看whoami文件中的内容,该值就表示了这个磁盘属于哪个osd。然后再将该盘的data分区挂载到对应的/var/lib/ceph/osd/ceph-${osdid}目录下。
(2)更改配置文件中osd部分,将该主机对应的osd中的devs和osd journal改为步骤一中获得的新的磁盘对应的分区。
(3)重启osd。
/dev/sdc osd.4
/dev/sdd osd.5
/dev/sde osd.6
/dev/sdf osd.7
如果 因为某些原因,将/dev/sda或者/dev/sdb磁盘拿掉的话,开机的时候磁盘的序号就会向前便宜,可能情况如下
/dev/sdc -> /dev/sdd
/dev/sdd -> /dev/sdd
/dev/sde -> /dev/sde
/dev/sdf -> /dev/sdf
或者不一定会按照这个顺序变化乱序。
(1)首先可以将每个磁盘的data分区挂载到一个临时目录,在临时目录下查看whoami文件中的内容,该值就表示了这个磁盘属于哪个osd。然后再将该盘的data分区挂载到对应的/var/lib/ceph/osd/ceph-${osdid}目录下。
(2)更改配置文件中osd部分,将该主机对应的osd中的devs和osd journal改为步骤一中获得的新的磁盘对应的分区。
(3)重启osd。
相关文章推荐
- HWADDR配置错误导致network重启失败处理
- ceph设置磁盘重启时所属组会变成disk
- ceph集群单个osd超95%导致集群无法读写集群恢复过程
- 一次RAC共享磁盘映射问题导致RAC异常重启的故障处理过程
- Ceph初始安装OSD时使用独立磁盘的问题1
- 重启osd服务失败:Start request repeated too quickly
- rac目录权限导致重启失败(转)
- vxvm的lvfastresync问题导致重启系统lv挂载失败
- 安装GI过程中DD清理磁盘头信息后没有重新oracleasm createdisk 导致重启服务器后找不到ASM磁盘
- ceph配置中的osd_crush_update_on_start如何在osd重启时影响osd在crush中分布
- Linux fstab修改不当导致开机fsck失败而主机无法重启
- 重启osd服务失败:Start request repeated too quickly
- 修改hostname导致mysql重启slave失败的修复方法
- Linux fstab修改不当导致开机fsck失败而主机无法重启
- ceph 添加删除磁盘mon osd mds
- WMF版本变化,导致Windows2008 R2 SP1上安装Lync失败
- 虚拟机突然断电,重启:VMWare虚拟机提示:锁定文件失败,打不开磁盘的解决办法
- 解决安装linux时未挂载文件而导致的重启失败
- Reporting Service 2008 “报表服务器数据库内出错。此错误可能是因连接失败、超时或数据库中磁盘空间不足而导致的”
- 重启osd服务失败:Start request repeated too quickly