ceph集群的动态扩展
一、使用ceph-deploy把配置文件和admin 秘钥下发到新添加的节点
在主节点的ceph目录下执行
$: ceph-deploy admin <新节点主机名>
二、新增加一个osd ceph-node3
$:ceph-deploy osd create ceph-node3:/dev/nvme0n1
三、给ceph-node1增加一个元数据的角色(ceph做文件系统时使用)
$:ceph-deploy mds create ceph-node1
四、增加一个新的mon在ceph-node3上面
$:ceph-deploy mon add ceph-node3
五、查看是否添加成功
$:ceph -s
$:ceph -df
ceph的osd的误删和恢复
一、记录当前osd的状态
$: ceph osd tree //查询当前osd的状态
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.35880 root default
-2 0.35880 host x86-131
0 0.35880 osd.0 up 1.00000 1.00000
二、删除一个osd用以下命令
$:ceph osd out osd.0
$:ceph osd crush remove osd.0 //移除osd
$:ceph auth del osd.0 //验证osd是否删除
$:ceph osd rm osd.0 //彻底删除osd
$:systemctl list-unit-files | grep ceph //查询当前的ceph文件名
$:systemctl restart ceph-osd@.service //重启osd服务
$:systemctl stop ceph-osd@0 //停止ceph osd
三、ssh登录删除的ceph节点恢复osd
$:df -h 查看ceph挂载的目录 (默认挂载在/var/lib/ceph/osd/ceph-xx)
$:cd /var/lib/ceph/osd/ceph-xx
$:more fsid //查看其删除osd的序列号
ceph create osd <序列号uuid>
$:ceph auth add osd.xxx osd 'allow *' mon 'allow rxw' -i /var/lib/ceph/osd/ceph-xx/keyring
$:ceph osd crush add xxxx 1.0(权重) host=xxxx
| | |---->主机名
|---->在第一步中查(WEIGH项)
|------>osd号(这里是0)
$:ceph osd in osd.0 //将osd加入集群
$:systemctl start ceph-osd@0 //启动加入集群的osd
$:ceph osd tree //查询状态看是否加入成功