[关闭]
@dyj2017 2017-10-20T11:11:43.000000Z 字数 1104 阅读 2869

集群重启某一主机下所有osd down解决办法

ceph 运维 osd


问题描述:

掉电后,上电发现cluster中的主机node3下的所有osd都down掉了,通过命令重启node3的ceph-osd服务,osd依然无法up;通过激活集群所有osd还是不行。

  1. [root@node1 ~]# ceph osd tree
  2. ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
  3. -1 0.05878 root default
  4. -3 0.01959 host node1
  5. 0 hdd 0.00980 osd.0 up 1.00000 1.00000
  6. 3 hdd 0.00980 osd.3 up 1.00000 1.00000
  7. -5 0.01959 host node2
  8. 1 hdd 0.00980 osd.1 up 1.00000 1.00000
  9. 4 hdd 0.00980 osd.4 up 1.00000 1.00000
  10. -7 0.01959 host node3
  11. 2 hdd 0.00980 osd.2 down 0 1.00000
  12. 5 hdd 0.00980 osd.5 down 0 1.00000

解决方法:

1. 删除该主机中的所有osd

通过 删除osd的shell脚本 的博客删除主机下的所有osd

2. 重新创建该主机下的osd

通过admin节点执行下面命令重建osd:

  1. # ceph-deploy osd create node3:/dev/sdb2 node3:/dev/sdc2

3. 激活集群中所有osd

  1. # ceph-deploy osd activate node1:/dev/sdb1 node2:/dev/sdb1 node3:/dev/sdb2 node1:/dev/sdc1 node2:/dev/sdc1 node3:/dev/sdc2

验证osd是否up:

  1. [root@node1 ~]# ceph osd tree
  2. ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
  3. -1 0.05878 root default
  4. -3 0.01959 host node1
  5. 0 hdd 0.00980 osd.0 up 1.00000 1.00000
  6. 3 hdd 0.00980 osd.3 up 1.00000 1.00000
  7. -5 0.01959 host node2
  8. 1 hdd 0.00980 osd.1 up 1.00000 1.00000
  9. 4 hdd 0.00980 osd.4 up 1.00000 1.00000
  10. -7 0.01959 host node3
  11. 2 hdd 0.00980 osd.2 up 1.00000 1.00000
  12. 5 hdd 0.00980 osd.5 up 1.00000 1.00000

参考文档:

http://www.cnblogs.com/boshen-hzb/p/6796604.html

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注