]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados/operations: Additional improvements to placement-groups.rst 63650/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Mon, 2 Jun 2025 18:35:23 +0000 (14:35 -0400)
committerZac Dover <zac.dover@proton.me>
Tue, 3 Jun 2025 21:25:05 +0000 (07:25 +1000)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
(cherry picked from commit 201e34119ab8628f5c99763212613678ec29dde3)

doc/rados/operations/placement-groups.rst

index b00d563adc451b5f4ac3d182d3ffbe1dc065eb47..0f3f7e9f4b509b8d9aa58747deec8abca2e45418 100644 (file)
@@ -391,7 +391,7 @@ The autoscaler attempts to satisfy the following conditions:
 
 - The number of PG replicas per OSD should be proportional to the amount of data in the
   pool.
-- There should by default 50-100 PGs per pool, taking into account the replication
+- There should by default be 50-100 PGs per pool, taking into account the replication
   overhead or erasure-coding fan-out of each PG's replicas across OSDs.
 
 Use of Placement Groups
@@ -610,7 +610,7 @@ Memory, CPU and network usage
 Every PG in the cluster imposes memory, network, and CPU demands upon OSDs and
 Monitors. These needs must be met at all times and are increased during recovery.
 Indeed, one of the main reasons PGs were developed was to decrease this overhead
-by aggregating RADOS objects into sets of a manageable size.
+by aggregating RADOS objects into sets of a manageable size.
 
 For this reason, limiting the number of PGs saves significant resources.