重启ceph的时候,在配置主管理节点查看ceph的状态的时候报错。
报错原因是忘记在node2,node3节点加UDEV规则,使得vdb1和vdb2重启后,属主属组仍然是ceph,在配置的ceph的三个节点加入以下的规则,在重启三台主机。
[root@node1~]# vim /etc/udev/rules.d/90-cephdisk.rules
ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"
[root@node1~]# vim /etc/udev/rules.d/90-cephdisk.rules
ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"
[root@node2~]# vim /etc/udev/rules.d/90-cephdisk.rules
扫描二维码关注公众号,回复:
2301897 查看本文章
ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"
[root@node3~]# vim /etc/udev/rules.d/90-cephdisk.rules
ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"