]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados: remove PGcalc from docs 55902/head
authorZac Dover <zac.dover@proton.me>
Sun, 3 Mar 2024 10:28:00 +0000 (20:28 +1000)
committerZac Dover <zac.dover@proton.me>
Sun, 3 Mar 2024 10:42:18 +0000 (20:42 +1000)
Remove mention of the "PG calc" tool from the documentation. I have
removed all mention of this in one fell swoop to help posterity restore
mention of this tool if we decide we need to do so.

Signed-off-by: Zac Dover <zac.dover@proton.me>
(cherry picked from commit ccb851d2a431647124754e1252df66ed11d0e900)

doc/rados/operations/placement-groups.rst
doc/rados/operations/pools.rst
doc/radosgw/pools.rst

index f5fc4e9b9e46f76ad6043bbc3e2160d5a0003a52..c2d4412da9ffae0582eb7331832529a5b0079bd1 100644 (file)
@@ -640,9 +640,6 @@ pools, each with 512 PGs on 10 OSDs, the OSDs will have to handle ~50,000 PGs
 each. This cluster will require significantly more resources and significantly
 more time for peering.
 
-For determining the optimal number of PGs per OSD, we recommend the `PGCalc`_
-tool.
-
 
 .. _setting the number of placement groups:
 
@@ -908,4 +905,3 @@ about it entirely (if it is too new to have a previous version). To mark the
 
 .. _Create a Pool: ../pools#createpool
 .. _Mapping PGs to OSDs: ../../../architecture#mapping-pgs-to-osds
-.. _pgcalc: https://old.ceph.com/pgcalc/
index d6c97467a9a478783a718fbfdf5733ca03e6a6c8..14c0f996579828b0e2d14427e05448897e77e9e0 100644 (file)
@@ -18,15 +18,14 @@ Pools provide:
   <../erasure-code>`_, resilience is defined as the number of coding chunks
   (for example, ``m = 2`` in the default **erasure code profile**).
 
-- **Placement Groups**: You can set the number of placement groups (PGs) for
-  the pool. In a typical configuration, the target number of PGs is
-  approximately one hundred PGs per OSD. This provides reasonable balancing
-  without consuming excessive computing resources.  When setting up multiple
-  pools, be careful to set an appropriate number of PGs for each pool and for
-  the cluster as a whole. Each PG belongs to a specific pool: when multiple
-  pools use the same OSDs, make sure that the **sum** of PG replicas per OSD is
-  in the desired PG-per-OSD target range. To calculate an appropriate number of
-  PGs for your pools, use the `pgcalc`_ tool.
+- **Placement Groups**: The :ref:`autoscaler <pg-autoscaler>` sets the number
+  of placement groups (PGs) for the pool. In a typical configuration, the
+  target number of PGs is approximately one-hundred and fifty PGs per OSD. This
+  provides reasonable balancing without consuming excessive computing
+  resources. When setting up multiple pools, set an appropriate number of PGs
+  for each pool and for the cluster as a whole. Each PG belongs to a specific
+  pool: when multiple pools use the same OSDs, make sure that the **sum** of PG
+  replicas per OSD is in the desired PG-per-OSD target range. 
 
 - **CRUSH Rules**: When data is stored in a pool, the placement of the object
   and its replicas (or chunks, in the case of erasure-coded pools) in your
@@ -873,8 +872,6 @@ Managing pools that are flagged with ``--bulk``
 ===============================================
 See :ref:`managing_bulk_flagged_pools`.
 
-
-.. _pgcalc: https://old.ceph.com/pgcalc/
 .. _Pool, PG and CRUSH Config Reference: ../../configuration/pool-pg-config-ref
 .. _Bloom Filter: https://en.wikipedia.org/wiki/Bloom_filter
 .. _setting the number of placement groups: ../placement-groups#set-the-number-of-placement-groups
index bb1246c1fcac922ef33133858967108686ca5159..acd6a6321145959ba1bf562568c91839568d7234 100644 (file)
@@ -11,16 +11,13 @@ multiple zones.
 Tuning
 ======
 
-When ``radosgw`` first tries to operate on a zone pool that does not
-exist, it will create that pool with the default values from
-``osd pool default pg num`` and ``osd pool default pgp num``. These defaults
-are sufficient for some pools, but others (especially those listed in
-``placement_pools`` for the bucket index and data) will require additional
-tuning. We recommend using the `Ceph Placement Group’s per Pool
-Calculator <https://old.ceph.com/pgcalc/>`__ to calculate a suitable number of
-placement groups for these pools. See
-`Pools <http://docs.ceph.com/en/latest/rados/operations/pools/#pools>`__
-for details on pool creation.
+When ``radosgw`` first tries to operate on a zone pool that does not exist, it
+will create that pool with the default values from ``osd pool default pg num``
+and ``osd pool default pgp num``. These defaults are sufficient for some pools,
+but others (especially those listed in ``placement_pools`` for the bucket index
+and data) will require additional tuning. See `Pools
+<http://docs.ceph.com/en/latest/rados/operations/pools/#pools>`__ for details
+on pool creation.
 
 .. _radosgw-pool-namespaces: