在创建ceph集群的时候,因为没有提前清除分区表,直接执行以下命令
2.告诉Ceph使用任何可用和未使用的存储设备:
ceph orch apply osd --all-available-devices
然后这个磁盘有了文件类型lvm和uuid
我尝试用一下命令清空
dd if=/dev/zero of=/dev/sdj bs=512 count=1
发现这个lvm无法删除,在网上尝试各种办法都无法清除,我直接part进去里面没发现任何分区,我尝试自己创建一个分区然后在使用dd 命令清除,发现自己创建的sdj1清除掉了,但是这个ceph的还在,有什么办法解决吗