]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/radosgw/operations: Document how to fix empty autoscale-status output 47256/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Mon, 25 Jul 2022 03:14:02 +0000 (20:14 -0700)
committerAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Mon, 25 Jul 2022 03:54:56 +0000 (20:54 -0700)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
doc/rados/operations/placement-groups.rst

index d8d1a532bb659dfb753349ed4754197c2753b1fa..d170d207c7ea1c875e29137f73d46e4f44ab9ff1 100644 (file)
@@ -117,6 +117,27 @@ with large amount of PGs for performance purposes. On the other hand,
 pools without the ``bulk`` flag are expected to be smaller e.g.,
 .mgr or meta pools.
 
+.. note::
+
+   If ``ceph osd pool autoscale-status`` returns no output at all, most likely
+   you have at least one pool that spans multiple CRUSH roots.  One scenario is
+   when a new deployment auto-creates the ``.mgr`` pool on the ``default`` CRUSH
+   root, then subsequent pools are created with rules that constrain them to a
+   specific shadow CRUSH tree.  If one, for example, creates an RBD metadata pool
+   constrained to ``deviceclass = ssd`` and an RBD data pool constrained to
+   ``deviceclass = hdd``, this will occur.  This may be remedied by simply
+   constraining the spanning pool to one device class.  In the above scenario
+   most likely there is a ``replicated-ssd`` CRUSH rule defined, so one would
+   run the below if the ``.mgr`` pool should be constrained to ``ssd`` devices:
+
+.. code-block:: bash
+
+   root# ceph osd pool set .mgr crush_rule replicated-ssd
+   set pool 1 crush_rule to replicated-ssd
+
+This will result in a small amount of backfill traffic that should complete
+quickly.
+
 
 Automated scaling
 -----------------