]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados: edit "Placement Groups Never Get Clean" 60046/head
authorZac Dover <zac.dover@proton.me>
Sun, 29 Sep 2024 06:10:29 +0000 (16:10 +1000)
committerZac Dover <zac.dover@proton.me>
Mon, 30 Sep 2024 04:13:35 +0000 (14:13 +1000)
Make grammar improvements (and correct a verb disagreement) in the
section "Placement Groups Never Get Clean" in
doc/rados/troubleshooting/troubleshooting-pg.rst.

Signed-off-by: Zac Dover <zac.dover@proton.me>
(cherry picked from commit 2baa027b13c0b4ac8b9fb864858a42e010ca8948)

doc/rados/troubleshooting/troubleshooting-pg.rst

index 80512dd9c9e8e6fe8a181ccebafbda982055e12a..06630ddd2df43c92fdeb9a33d6c8f45eeb78bce2 100644 (file)
@@ -5,16 +5,16 @@
 Placement Groups Never Get Clean
 ================================
 
-If, after you have created your cluster, any Placement Groups (PGs) remain in
-the ``active`` status, the ``active+remapped`` status or the
-``active+degraded`` status and never achieves an ``active+clean`` status, you
-likely have a problem with your configuration.
+Placement Groups (PGs) that remain in the ``active`` status, the
+``active+remapped`` status or the ``active+degraded`` status and never achieve
+an ``active+clean`` status might indicate a problem with the configuration of
+the Ceph cluster. 
 
-In such a situation, it may be necessary to review the settings in the `Pool,
-PG and CRUSH Config Reference`_ and make appropriate adjustments.
+In such a situation, review the settings in the `Pool, PG and CRUSH Config
+Reference`_ and make appropriate adjustments.
 
 As a general rule, run your cluster with more than one OSD and a pool size
-greater than two object replicas.
+of greater than two object replicas.
 
 .. _one-node-cluster: