]> git.apps.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
Revert "common: default pg_autoscale_mode=on for new pools"
authorDavid Zafman <dzafman@redhat.com>
Tue, 17 Sep 2019 21:40:57 +0000 (14:40 -0700)
committerDavid Zafman <dzafman@redhat.com>
Tue, 17 Sep 2019 21:51:08 +0000 (14:51 -0700)
This reverts commit 91e4fc24e785a25884125df6762ab2304bf8908b.

Fixes: https://tracker.ceph.com/issues/41900
Signed-off-by: David Zafman <dzafman@redhat.com>
PendingReleaseNotes
src/common/options.cc
src/test/cli/osdmaptool/clobber.t
src/test/cli/osdmaptool/create-print.t
src/test/cli/osdmaptool/create-racks.t

index 798cda04d2d297a6a7031b0307e661d831233bea..5dabadd4d17177d4ae6548bad23ff5ac7b023025 100644 (file)
 
 * New OSD daemon command dump_scrub_reservations which reveals the
   scrub reservations that are held for local (primary) and remote (replica) PGs.
-
-* The ``pg_autoscale_mode`` is now set to ``on`` by default for newly
-  created pools, which means that Ceph will automatically manage the
-  number of PGs.  To change this behavior, or to learn more about PG
-  autoscaling, see :ref:`pg-autoscaler`.  Note that existing pools in
-  upgraded clusters will still be set to ``warn`` by default.
-
index 8693f82e44ab56ff12fe6d928420c4e75b70457f..31298b74ebe83f2ae4cfcedefde317f4cf636d7a 100644 (file)
@@ -2625,7 +2625,7 @@ std::vector<Option> get_global_options() {
     .set_description(""),
 
     Option("osd_pool_default_pg_autoscale_mode", Option::TYPE_STR, Option::LEVEL_ADVANCED)
-    .set_default("on")
+    .set_default("warn")
     .set_flag(Option::FLAG_RUNTIME)
     .set_enum_allowed({"off", "warn", "on"})
     .set_description("Default PG autoscaling behavior for new pools"),
index c78138c9b632a78460d81aeef4e18d406baefb91..e44c5dbe7c66f11c4968ce07b863f5e2ba0481f6 100644 (file)
@@ -25,7 +25,7 @@
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 3
   
@@ -51,7 +51,7 @@
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 64 pgp_num 64 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 64 pgp_num 64 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 1
   
index 7f3a033c2d49c5e961c805f75b8213894f4baaf7..cb608a66ecaae8095e7d8655df88aeb84f126985 100644 (file)
@@ -85,7 +85,7 @@
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 3
   
@@ -94,5 +94,5 @@
   osdmaptool: writing epoch 1 to myosdmap
   $ osdmaptool --print myosdmap | grep 'pool 1'
   osdmaptool: osdmap file 'myosdmap'
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
   $ rm -f myosdmap
index 6a27cb07de513fd51502f02f2c278ee92ad035ea..5fe3cf874c8d1bf95fc024272f84f23b771c65ad 100644 (file)
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 239
   
   osdmaptool: writing epoch 1 to om
   $ osdmaptool --print om | grep 'pool 1'
   osdmaptool: osdmap file 'om'
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
   $ rm -f om