]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados: edit troubleshooting-pg.rst 54218/head
authorZac Dover <zac.dover@proton.me>
Fri, 27 Oct 2023 05:22:34 +0000 (15:22 +1000)
committerZac Dover <zac.dover@proton.me>
Fri, 27 Oct 2023 05:26:03 +0000 (15:26 +1000)
s/placement group/pool/ in a sentence that, prior to this change, was
confusing. Suitable for backports prior to Reef.

Signed-off-by: Zac Dover <zac.dover@proton.me>
doc/rados/troubleshooting/troubleshooting-pg.rst

index 4af2cf347efb4675000ad789c98d53d9e9d062ef..74d04bd9ffe39ff5c342aa9e0840d86e018f44eb 100644 (file)
@@ -405,11 +405,11 @@ Can't Write Data
 ================
 
 If the cluster is up, but some OSDs are down and you cannot write data, make
-sure that you have the minimum number of OSDs running for the placement group.
-If you don't have the minimum number of OSDs running, Ceph will not allow you
-to write data because there is no guarantee that Ceph can replicate your data.
-See ``osd_pool_default_min_size`` in the :ref:`Pool, PG, and CRUSH Config
-Reference <rados_config_pool_pg_crush_ref>` for details.
+sure that you have the minimum number of OSDs running in the pool. If you don't
+have the minimum number of OSDs running in the pool, Ceph will not allow you to
+write data to it because there is no guarantee that Ceph can replicate your
+data. See ``osd_pool_default_min_size`` in the :ref:`Pool, PG, and CRUSH
+Config Reference <rados_config_pool_pg_crush_ref>` for details.
 
 
 PGs Inconsistent