]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados: edit troubleshooting-pg.rst 54229/head
authorZac Dover <zac.dover@proton.me>
Fri, 27 Oct 2023 05:22:34 +0000 (15:22 +1000)
committerZac Dover <zac.dover@proton.me>
Sat, 28 Oct 2023 03:47:43 +0000 (13:47 +1000)
s/placement group/pool/ in a sentence that, prior to this change, was
confusing. Suitable for backports prior to Reef.

Signed-off-by: Zac Dover <zac.dover@proton.me>
(cherry picked from commit 97512a3e3c28d9aae7e61c30bbe66987298960a9)

doc/rados/troubleshooting/troubleshooting-pg.rst

index bde7bd543871314cffc68fca9210903f65d1060a..5d17f8214ec8d885627ebd9864d3af5302119323 100644 (file)
@@ -405,11 +405,11 @@ Can't Write Data
 ================
 
 If the cluster is up, but some OSDs are down and you cannot write data, make
-sure that you have the minimum number of OSDs running for the placement group.
-If you don't have the minimum number of OSDs running, Ceph will not allow you
-to write data because there is no guarantee that Ceph can replicate your data.
-See ``osd_pool_default_min_size`` in the :ref:`Pool, PG, and CRUSH Config
-Reference <rados_config_pool_pg_crush_ref>` for details.
+sure that you have the minimum number of OSDs running in the pool. If you don't
+have the minimum number of OSDs running in the pool, Ceph will not allow you to
+write data to it because there is no guarantee that Ceph can replicate your
+data. See ``osd_pool_default_min_size`` in the :ref:`Pool, PG, and CRUSH
+Config Reference <rados_config_pool_pg_crush_ref>` for details.
 
 
 PGs Inconsistent