]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados/operations: Additional improvements to placement-groups.rst 63644/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Mon, 2 Jun 2025 18:35:23 +0000 (14:35 -0400)
committerAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Mon, 2 Jun 2025 18:35:23 +0000 (14:35 -0400)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
doc/rados/operations/placement-groups.rst

index 3f52b07b1897ded50491cb83e68b35128724685c..40b6a12b2f5fad6f632bbeec695f132364d7443f 100644 (file)
@@ -391,7 +391,7 @@ The autoscaler attempts to satisfy the following conditions:
 
 - The number of PG replicas per OSD should be proportional to the amount of data in the
   pool.
-- There should by default 50-100 PGs per pool, taking into account the replication
+- There should by default be 50-100 PGs per pool, taking into account the replication
   overhead or erasure-coding fan-out of each PG's replicas across OSDs.
 
 Use of Placement Groups
@@ -610,7 +610,7 @@ Memory, CPU and network usage
 Every PG in the cluster imposes memory, network, and CPU demands upon OSDs and
 Monitors. These needs must be met at all times and are increased during recovery.
 Indeed, one of the main reasons PGs were developed was to decrease this overhead
-by aggregating RADOS objects into sets of a manageable size.
+by aggregating RADOS objects into sets of a manageable size.
 
 For this reason, limiting the number of PGs saves significant resources.