]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
common: default pg_autoscale_mode=on for new pools 30112/head
authorSage Weil <sage@redhat.com>
Tue, 3 Sep 2019 15:54:47 +0000 (10:54 -0500)
committerSage Weil <sage@redhat.com>
Thu, 12 Sep 2019 15:42:36 +0000 (10:42 -0500)
Signed-off-by: Sage Weil <sage@redhat.com>
PendingReleaseNotes
src/common/options.cc
src/test/cli/osdmaptool/clobber.t
src/test/cli/osdmaptool/create-print.t
src/test/cli/osdmaptool/create-racks.t

index 1f819531271f575413a85e5fe642f3346f43f979..6e42ef314cf9d360436a75fb009ebbf3b518bc21 100644 (file)
 
 * New OSD daemon command dump_scrub_reservations which reveals the
   scrub reservations that are held for local (primary) and remote (replica) PGs.
+
+* The ``pg_autoscale_mode`` is now set to ``on`` by default for newly
+  created pools, which means that Ceph will automatically manage the
+  number of PGs.  To change this behavior, or to learn more about PG
+  autoscaling, see :ref:`pg-autoscaler`.  Note that existing pools in
+  upgraded clusters will still be set to ``warn`` by default.
+
index 5ccc6142046adfc7d6031d14265fb37f2d85d49d..e5bca3c184100736e5d70af6e5fe86a5302e5bbe 100644 (file)
@@ -2625,7 +2625,7 @@ std::vector<Option> get_global_options() {
     .set_description(""),
 
     Option("osd_pool_default_pg_autoscale_mode", Option::TYPE_STR, Option::LEVEL_ADVANCED)
-    .set_default("warn")
+    .set_default("on")
     .set_flag(Option::FLAG_RUNTIME)
     .set_enum_allowed({"off", "warn", "on"})
     .set_description("Default PG autoscaling behavior for new pools"),
index e44c5dbe7c66f11c4968ce07b863f5e2ba0481f6..c78138c9b632a78460d81aeef4e18d406baefb91 100644 (file)
@@ -25,7 +25,7 @@
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 3
   
@@ -51,7 +51,7 @@
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 64 pgp_num 64 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 64 pgp_num 64 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 1
   
index cb608a66ecaae8095e7d8655df88aeb84f126985..7f3a033c2d49c5e961c805f75b8213894f4baaf7 100644 (file)
@@ -85,7 +85,7 @@
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 3
   
@@ -94,5 +94,5 @@
   osdmaptool: writing epoch 1 to myosdmap
   $ osdmaptool --print myosdmap | grep 'pool 1'
   osdmaptool: osdmap file 'myosdmap'
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 192 pgp_num 192 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
   $ rm -f myosdmap
index 5fe3cf874c8d1bf95fc024272f84f23b771c65ad..6a27cb07de513fd51502f02f2c278ee92ad035ea 100644 (file)
   nearfull_ratio 0
   min_compat_client jewel
   
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
   
   max_osd 239
   
   osdmaptool: writing epoch 1 to om
   $ osdmaptool --print om | grep 'pool 1'
   osdmaptool: osdmap file 'om'
-  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode warn last_change 0 flags hashpspool stripe_width 0 application rbd
+  pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 15296 pgp_num 15296 autoscale_mode on last_change 0 flags hashpspool stripe_width 0 application rbd
   $ rm -f om