Ceph OSD管理
添加OSD
1 格式化盘
如果添加的盘上面有分区,可以通过如下命令清除(分区上的数据也会被清除)
ceph-deploy disk zap {osd-server-name} {disk-name}
2 添加OSD
ceph-deploy osd create {osd-server-name} --data /dev/{disk-name} {osd-server-name}
如果出现类似错误:
ceph-node-1 write cluster configuration to
/etc/ceph/{cluster}.conf ceph_deploy.osd RuntimeError:
config file /etc/ceph/ceph.conf exists with different content; use
--overwrite-conf to overwrite ceph_deploy GenericError: Failed to create 1 OSDs
同步配置文件到其他节点
ceph-deploy --overwrite-conf config push {ceph-node-hostname}
或mv后再次启动服务
mv /etc/ceph/ceph.conf /etc/ceph/ceph.conf.bak
删除OSD(此步骤需要在Down掉的OSD所在节点上操作)
1 查看OSD信息
ceph osd tree
2 暂停要删除OSD的服务
systemctl stop ceph-osd@8
3 取消挂载
安装OSD时,会将osd.8挂载至/var/lib/ceph/osd/ceph-8,因此,删除OSD时,需要首先取消OSD挂载
umount /var/lib/ceph/osd/ceph-8/
4 设置OSD为OUT:对应权重reweight会变为0
ceph osd out 8
5 删除OSD
从集群中删除(如添加则将rm修改为in)
ceph osd rm osd.8
从CRUSH中删除,然后通过ceph osd crush dump确认没有对应信息
ceph osd crush rm osd.8
删除osd.12的认证信息,然后通过ceph auth list确认有没有对应信息
ceph auth del osd.8
清空磁盘数据
wipefs -af /dev/nvme0n1
6 lsblk查看硬盘信息,osd.8是/dev/nvme0n1
[root@ceph-node-1 ~]# lsblk
vme0n1 259:0 0 447.1G 0 disk
└─ceph--b023ab1b--308d--4e1d--b756--206d45addd7b-osd--block--8904048d--ccdd--41d5--aaee--b3b498a7d46f
253:3 0 447.1G 0 lvm
7 删除ceph osd lvm映射关系
dmsetup remove ceph--b023ab1b--308d--4e1d--b756--206d45addd7b-osd--block--8904048d--ccdd--41d5--aaee--b3b498a7d46f
8 移除LV
lvremove /dev/mapper/ceph--b023ab1b--308d--4e1d--b756--206d45addd7b-osd--block--8904048d--ccdd--41d5--aaee--b3b498a7d46f
参考学习自:
https://blog.51cto.com/14758677/2510025
https://www.cnblogs.com/deny/p/14214963.html