]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados/operations: Additional improvements to placement-groups.rst 63649/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Mon, 2 Jun 2025 18:35:23 +0000 (14:35 -0400)
committerZac Dover <zac.dover@proton.me>
Mon, 9 Jun 2025 12:56:05 +0000 (22:56 +1000)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
(cherry picked from commit 201e34119ab8628f5c99763212613678ec29dde3)

doc/rados/operations/placement-groups.rst

index cddc70ebc8eaf0c750f0672c0fceb49fa73e4c6b..f10b427c4a90921b8eb24b1076d2c31ce040a0cd 100644 (file)
@@ -381,7 +381,7 @@ The autoscaler attempts to satisfy the following conditions:
 
 - The number of PG replicas per OSD should be proportional to the amount of data in the
   pool.
-- There should by default 50-100 PGs per pool, taking into account the replication
+- There should by default be 50-100 PGs per pool, taking into account the replication
   overhead or erasure-coding fan-out of each PG's replicas across OSDs.
 
 Use of Placement Groups
@@ -600,7 +600,7 @@ Memory, CPU and network usage
 Every PG in the cluster imposes memory, network, and CPU demands upon OSDs and
 Monitors. These needs must be met at all times and are increased during recovery.
 Indeed, one of the main reasons PGs were developed was to decrease this overhead
-by aggregating RADOS objects into sets of a manageable size.
+by aggregating RADOS objects into sets of a manageable size.
 
 For this reason, limiting the number of PGs saves significant resources.