[关闭]
@dyj2017 2017-10-17T10:52:56.000000Z 字数 2118 阅读 4664

不卸载ceph重新获取一个干净的集群环境

ceph ceph环境搭建 运维


部署了一个ceph集群环境,由于种种原因需要回到最开始完全clean的状态,而又不想卸载ceph客户端或者重新搭建虚拟机,此篇博客的目的就是为了解决这一问题。

我的环境:node1的角色为osd,mon,node2和node3的角色都为osd。每个host的系统为centos7,每个host上部署两个osd。ceph版本为luminous (12.4.1 )。之外有一个host作为专门部署ceph的admin节点,系统同样是centos7。

1. ceph环境清理!

在每个ceph节点上执行如下指令,即可将环境清理至刚安装完ceph客户端时的状态!强烈建议在旧集群上搭建之前清理干净环境,否则会发生各种异常情况。

  1. ps aux|grep ceph |awk '{print $2}'|xargs kill -9
  2. ps -ef|grep ceph

确保此时所有ceph进程都已经关闭!!!如果没有关闭,多执行几次

  1. umount /var/lib/ceph/osd/*
  2. rm -rf /var/lib/ceph/osd/*
  3. rm -rf /var/lib/ceph/mon/*
  4. rm -rf /var/lib/ceph/mds/*
  5. rm -rf /var/lib/ceph/bootstrap-mds/*
  6. rm -rf /var/lib/ceph/bootstrap-osd/*
  7. rm -rf /var/lib/ceph/bootstrap-rgw/*
  8. rm -rf /var/lib/ceph/bootstrap-mgr/*
  9. rm -rf /var/lib/ceph/tmp/*
  10. rm -rf /etc/ceph/*
  11. rm -rf /var/run/ceph/*

同时情况admin节点中my-cluster目录下的所有内容:

  1. cd /root/my-cluster/
  2. rm *

虽然这个时候环境已经清理干净,但是ceph却还不能运行,需要执行下面的操作。

2. 重新启动ceph:

在admin节点上执行下面的命令:

  • 创建my-cluster目录之后,进入该目录下创建集群:
  1. ceph-deploy new node1

在每个ceph节点上执行下面的命令:

如果想要随便更新ceph,并且网速不好,需要从https://download.ceph.com/rpm-luminous/el7/x86_64/下载最新安装包放到/var/cache/yum/x86_64/7/Ceph/packages/文件夹下

  • 执行下面的命令重新安装ceph:
  1. sudo yum install ceph epel-release ceph-radosgw
  • 安装完成后,查看ceph版本确定安装成功:
  1. ceph --version
  • 添加防火墙规则:
  1. firewall-cmd --zone=public --add-service=ceph-mon --permanent(仅mon节点执行,如不添加就不能在其他节点执行ceph命令)
  2. firewall-cmd --zone=public --add-service=ceph --permanent
  3. firewall-cmd --reload

3. 在admin节点执行:

  1. ceph-deploy install --release luminous node1 node2 node3

4. 在admin节点初始化mon:

  1. ceph-deploy mon create-initial

5. 赋予各个节点使用命令免用户名权限:

  1. ceph-deploy admin node1 node2 node3

6. 安装ceph-mgr (仅luminous版本,为使用dashboard做准备):

  1. ceph-deploy mgr create node1

7. 添加osd:

  1. ceph-deploy osd createnode1:sdb1 node2:sdb1 node3:sdb1 node1:/dev/sdc1 node2:/dev/sdc1 node3:/dev/sdc1

需要说明的是该sdb是在各个节点上为osd准备的空闲磁盘(无需分区格式化,如果有分区需要指定具体分区),通过如下命令查看:

  1. ssh node1 lsblk -f

最后通过如下命令查看集群状态:

  1. ssh node1 sudo ceph -s

如果显示health_ok,6个osd up就成功了。

但在环境创建完成后,该命令执行后,虽然集群状态为health_ok,但是却显示0个osd。在ceph节点使用ceph osd tree命令后竟然啥都没有,最后需要在admin部署节点,执行如下命令:

  1. ceph-deploy osd activate node1:/dev/sdb1 node2:/dev/sdb1 node3:/dev/sdb1 node1:/dev/sdc1 node2:/dev/sdc1 node3:/dev/sdc1

至此就得到一个干净的ceph环境,这种方法可以彻底清除原来滞留的数据

结束语

第一次使用markdown写博客,参考了 高亮显示linux命令, MarkDown写作技巧 简单完成此篇博客书写语法方面的问题。特别感谢徐小胖的 快速部署ceph ,从该作者的一系列的博客学习很多ceph相关的知识,包括疑难问题解决,运维常用知识等。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注