重启ceph的错误health HEALTH_ERR [56 pgs are stuck inactive for more than 300 seconds]

重启ceph的时候,在配置主管理节点查看ceph的状态的时候报错。


报错原因是忘记在node2,node3节点加UDEV规则,使得vdb1vdb2重启后,属主属组仍然是ceph,在配置的ceph的三个节点加入以下的规则,在重启三台主机。

[root@node1~]# vim /etc/udev/rules.d/90-cephdisk.rules

ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"

[root@node1~]# vim /etc/udev/rules.d/90-cephdisk.rules

ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"

[root@node2~]# vim /etc/udev/rules.d/90-cephdisk.rules

扫描二维码关注公众号,回复: 2301897 查看本文章

ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"

[root@node3~]# vim /etc/udev/rules.d/90-cephdisk.rules

ACTION=="add",KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"



猜你喜欢

转载自blog.csdn.net/zhydream77/article/details/81041503