]> git.apps.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
test: enable pool applications for new pools
authorJason Dillaman <dillaman@redhat.com>
Tue, 27 Jun 2017 01:15:57 +0000 (21:15 -0400)
committerJason Dillaman <dillaman@redhat.com>
Wed, 19 Jul 2017 17:13:01 +0000 (13:13 -0400)
Signed-off-by: Jason Dillaman <dillaman@redhat.com>
32 files changed:
qa/suites/rados/singleton-nomsgr/all/export-after-evict.yaml
qa/suites/rados/singleton-nomsgr/all/full-tiering.yaml
qa/suites/rados/singleton-nomsgr/all/multi-backfill-reject.yaml
qa/suites/rados/singleton/all/pg-removal-interruption.yaml
qa/suites/rados/singleton/all/thrash_cache_writeback_proxy_none.yaml
qa/suites/rados/thrash/d-require-luminous/at-end.yaml
qa/suites/rados/thrash/workloads/cache-agent-big.yaml
qa/suites/rados/thrash/workloads/cache-agent-small.yaml
qa/suites/rados/thrash/workloads/cache-pool-snaps-readproxy.yaml
qa/suites/rados/thrash/workloads/cache-pool-snaps.yaml
qa/suites/rados/thrash/workloads/cache-snaps.yaml
qa/suites/rados/thrash/workloads/cache.yaml
qa/suites/rbd/cli/pool/ec-data-pool.yaml
qa/suites/rbd/cli/pool/replicated-data-pool.yaml
qa/suites/rbd/librbd/pool/replicated-data-pool.yaml
qa/suites/rbd/qemu/pool/ec-cache-pool.yaml
qa/suites/rbd/qemu/pool/ec-data-pool.yaml
qa/suites/rbd/qemu/pool/replicated-data-pool.yaml
qa/suites/smoke/basic/tasks/rados_cache_snaps.yaml
qa/suites/upgrade/hammer-jewel-x/tiering/2-setup-cache-tiering/0-create-base-tier/create-ec-pool.yaml
qa/suites/upgrade/hammer-jewel-x/tiering/2-setup-cache-tiering/0-create-base-tier/create-replicated-pool.yaml
qa/workunits/ceph-helpers-root.sh
qa/workunits/ceph-helpers.sh
qa/workunits/cephtool/test.sh
qa/workunits/mon/rbd_snaps_ops.sh
qa/workunits/rados/test_alloc_hint.sh
qa/workunits/rados/test_cache_pool.sh
qa/workunits/rados/test_pool_quota.sh
qa/workunits/rbd/cli_generic.sh
qa/workunits/rbd/krbd_data_pool.sh
qa/workunits/rbd/permissions.sh
qa/workunits/rbd/verify_pool.sh

index 1b777ab0f00b753fc76524441b5e259bce3b6654..e7fafe9ac48d716b97afbbf4c92046343a098f52 100644 (file)
@@ -18,6 +18,7 @@ tasks:
 - exec:
     client.0:
     - ceph osd pool create base-pool 4
+    - ceph osd pool application enable base-pool rados
     - ceph osd pool create cache-pool 4
     - ceph osd tier add base-pool cache-pool
     - ceph osd tier cache-mode cache-pool writeback
index 5eb42f4dd6390cf0fffcf894f3f78b80c4cbf06f..b811199d1ea9499c6702fb1a6a9da327f0fb1fe0 100644 (file)
@@ -20,6 +20,7 @@ tasks:
     client.0:
       - ceph osd pool create ec-ca 1 1
       - ceph osd pool create ec 1 1 erasure default
+      - ceph osd pool application enable ec rados
       - ceph osd tier add ec ec-ca
       - ceph osd tier cache-mode ec-ca readproxy
       - ceph osd tier set-overlay ec ec-ca
index cadf3044a1d12806a86f25927fd48ed3e3566d3e..3a9dbde316451d9adcd5808cd7c0ca6945922b97 100644 (file)
@@ -26,6 +26,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create foo 64
+      - sudo ceph osd pool application enable foo rados
       - rados -p foo bench 60 write -b 1024 --no-cleanup
       - sudo ceph osd pool set foo size 3
       - sudo ceph osd out 0 1
index 856b08dd4373512eae1482c67fd141536216d82e..563e0b0e010fb0d65410cd523be6eff448310cb6 100644 (file)
@@ -22,6 +22,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create foo 128 128
+      - sudo ceph osd pool application enable foo rados
       - sleep 5
       - sudo ceph tell osd.0 injectargs -- --osd-inject-failure-on-pg-removal
       - sudo ceph osd pool delete foo foo --yes-i-really-really-mean-it
index 02fee3e88ea7dfbca5d7a2643d6fe1f663538e64..f6b7d2b535c3184558e83e03a904801309f72277 100644 (file)
@@ -23,6 +23,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create base 4
+      - sudo ceph osd pool application enable base rados
       - sudo ceph osd pool create cache 4
       - sudo ceph osd tier add base cache
       - sudo ceph osd tier cache-mode cache writeback
index bb1d7073ccc2daf2736e84c5f8dafb5460cea5b9..de21c635e7fede6345164b8ba671ead197d76634 100644 (file)
@@ -6,6 +6,7 @@ tasks:
   - exec:
       mon.a:
         - ceph osd require-osd-release luminous
+        - ceph osd pool application enable base rados || true
 # make sure osds have latest map
         - rados -p rbd bench 5 write -b 4096
   - ceph.healthy:
index 492ab8d458d546aaef64a1733595045ce5853c1f..bbfe7bf50d1a11607924c1e33e2663be4980ebb9 100644 (file)
@@ -7,6 +7,7 @@ tasks:
     client.0:
       - sudo ceph osd erasure-code-profile set teuthologyprofile crush-failure-domain=osd m=1 k=2
       - sudo ceph osd pool create base 4 4 erasure teuthologyprofile
+      - sudo ceph osd pool application enable base rados
       - sudo ceph osd pool set base min_size 2
       - sudo ceph osd pool create cache 4
       - sudo ceph osd tier add base cache
index efa841937198dd5fbca27b4ad8ba22a7f3c910fe..10d47356a7e29bcc34dbb6fc867fffd0ca53927f 100644 (file)
@@ -7,6 +7,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create base 4
+      - sudo ceph osd pool application enable base rados
       - sudo ceph osd pool create cache 4
       - sudo ceph osd tier add base cache
       - sudo ceph osd tier cache-mode cache writeback
index 007775cee074a6beb9e92311e2f54a5c01264e96..43497431b8d4a0cc958b4f7cf2766a8169baa541 100644 (file)
@@ -6,6 +6,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create base 4
+      - sudo ceph osd pool application enable base rados
       - sudo ceph osd pool create cache 4
       - sudo ceph osd tier add base cache
       - sudo ceph osd tier cache-mode cache readproxy
index a568a340265fda75806610a88191f1662c2a2738..dc3385cb9abf858dde0a381c7c80e1d7d3b1c0bf 100644 (file)
@@ -6,6 +6,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create base 4
+      - sudo ceph osd pool application enable base rados
       - sudo ceph osd pool create cache 4
       - sudo ceph osd tier add base cache
       - sudo ceph osd tier cache-mode cache writeback
index f4e2ffe133cb1265eb6bdfe3acd15a36eadb6e90..486d6dbfafa6f8f106932b288538fdaabf49838b 100644 (file)
@@ -6,6 +6,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create base 4
+      - sudo ceph osd pool application enable base rados
       - sudo ceph osd pool create cache 4
       - sudo ceph osd tier add base cache
       - sudo ceph osd tier cache-mode cache writeback
index 4c5c1b6057d4decc8ed8066545524c4916d23aa5..d63018f0f7412b98b6aa97f4906944b2f8eadd2d 100644 (file)
@@ -6,6 +6,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create base 4
+      - sudo ceph osd pool application enable base rados
       - sudo ceph osd pool create cache 4
       - sudo ceph osd tier add base cache
       - sudo ceph osd tier cache-mode cache writeback
index 32dd2ab90792e50dbb8308682510fd9ab41fb414..9e90369ef50183d8e146d2cc57516990dc817306 100644 (file)
@@ -4,6 +4,7 @@ tasks:
       - sudo ceph osd erasure-code-profile set teuthologyprofile crush-failure-domain=osd m=1 k=2
       - sudo ceph osd pool create datapool 4 4 erasure teuthologyprofile
       - sudo ceph osd pool set datapool allow_ec_overwrites true
+      - rbd pool init datapool
 
 overrides:
   thrashosds:
index 91c8c01e201cc301baeec61eac9bb280af70d38b..c5647dba1c68779ee5d4e83ad929a490c38e9138 100644 (file)
@@ -2,6 +2,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create datapool 4
+      - rbd pool init datapool
 
 overrides:
   ceph:
index 91c8c01e201cc301baeec61eac9bb280af70d38b..c5647dba1c68779ee5d4e83ad929a490c38e9138 100644 (file)
@@ -2,6 +2,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create datapool 4
+      - rbd pool init datapool
 
 overrides:
   ceph:
index 09e8bc3f24b6c8fd60865b597559bb37ac36464e..cfa0fcd7025bc161580c0079470a82d67437b0bd 100644 (file)
@@ -17,3 +17,4 @@ tasks:
       - sudo ceph osd pool set cache hit_set_count 8
       - sudo ceph osd pool set cache hit_set_period 60
       - sudo ceph osd pool set cache target_max_objects 250
+      - rbd pool init rbd
index 75dfc6a45534e26818a5632eabcb1ae8ad494ea4..a63ab270340745cb2b10872c2091fb9a5d2be64b 100644 (file)
@@ -4,6 +4,7 @@ tasks:
       - sudo ceph osd erasure-code-profile set teuthologyprofile crush-failure-domain=osd m=1 k=2
       - sudo ceph osd pool create datapool 4 4 erasure teuthologyprofile
       - sudo ceph osd pool set datapool allow_ec_overwrites true
+      - rbd pool init datapool
 
 overrides:
   thrashosds:
index 91c8c01e201cc301baeec61eac9bb280af70d38b..c5647dba1c68779ee5d4e83ad929a490c38e9138 100644 (file)
@@ -2,6 +2,7 @@ tasks:
 - exec:
     client.0:
       - sudo ceph osd pool create datapool 4
+      - rbd pool init datapool
 
 overrides:
   ceph:
index fa593f496850b6fc97607749547104757feb48a7..e1512cf735e163f014cdc4a6b9812a2dc6fa6081 100644 (file)
@@ -11,6 +11,7 @@ tasks:
 - exec:
     client.0:
     - sudo ceph osd pool create base 4
+    - sudo ceph osd pool application enable base rados
     - sudo ceph osd pool create cache 4
     - sudo ceph osd tier add base cache
     - sudo ceph osd tier cache-mode cache writeback
index f0043afbdf18f4986dfc266e37538c82d4088829..f0e22bf82ecfa56c2dab3116f2fce5f2990bd0bc 100644 (file)
@@ -3,3 +3,4 @@ tasks:
     client.0:
       - ceph osd erasure-code-profile set t-profile crush-failure-domain=osd k=2 m=1
       - ceph osd pool create base-pool 4 4 erasure t-profile
+      - ceph osd pool application enable base-pool rados
index 5a1358149f77053e219534a12b21d5de12796c43..36dc06d91b8df0f1eccd65ae8c90f3db26e1f381 100644 (file)
@@ -2,3 +2,4 @@ tasks:
 - exec:
     client.0:
       - ceph osd pool create base-pool 4
+      - ceph osd pool application enable base-pool rados
index a622bd5ab96e26ffc63c9f4c1d401c6a7d91f0b8..f65f591f4c8b096dd88e38c05f59f72191274c7d 100755 (executable)
@@ -76,6 +76,7 @@ function pool_read_write() {
     ceph osd pool create $test_pool 4 || return 1
     ceph osd pool set $test_pool size $size || return 1
     ceph osd pool set $test_pool min_size $size || return 1
+    ceph osd pool application enable $test_pool rados
 
     echo FOO > $dir/BAR
     timeout $timeout rados --pool $test_pool put BAR $dir/BAR || return 1
index 47174ef3ceb6c8d81e1c33b50519d7531658ca96..265e8a94372f6e2279cbd7a09c80238c7cedc118 100755 (executable)
@@ -419,6 +419,7 @@ function run_mon() {
         ceph osd pool delete rbd rbd --yes-i-really-really-mean-it || return 1
         ceph osd pool create rbd $PG_NUM || return 1
         ceph osd set-backfillfull-ratio .99
+       rbd pool init rbd
     fi
 }
 
index 4c8c9e1f3190ed713c1c62292ecaca4166937d43..5ac3911dc7eb0fd38036e99ec22e17fa81d5fa67 100755 (executable)
@@ -264,6 +264,7 @@ function test_tiering_agent()
   local slow=slow_eviction
   local fast=fast_eviction
   ceph osd pool create $slow  1 1
+  ceph osd pool application enable $slow rados
   ceph osd pool create $fast  1 1
   ceph osd tier add $slow $fast
   ceph osd tier cache-mode $fast writeback
@@ -306,7 +307,9 @@ function test_tiering_1()
 {
   # tiering
   ceph osd pool create slow 2
+  ceph osd pool application enable slow rados
   ceph osd pool create slow2 2
+  ceph osd pool application enable slow2 rados
   ceph osd pool create cache 2
   ceph osd pool create cache2 2
   ceph osd tier add slow cache
@@ -392,6 +395,7 @@ function test_tiering_2()
 {
   # make sure we can't clobber snapshot state
   ceph osd pool create snap_base 2
+  ceph osd pool application enable snap_base rados
   ceph osd pool create snap_cache 2
   ceph osd pool mksnap snap_cache snapname
   expect_false ceph osd tier add snap_base snap_cache
@@ -403,6 +407,7 @@ function test_tiering_3()
 {
   # make sure we can't create snapshot on tier
   ceph osd pool create basex 2
+  ceph osd pool application enable basex rados
   ceph osd pool create cachex 2
   ceph osd tier add basex cachex
   expect_false ceph osd pool mksnap cache snapname
@@ -417,6 +422,7 @@ function test_tiering_4()
   ceph osd pool create eccache 2 2 erasure
   expect_false ceph osd set-require-min-compat-client bobtail
   ceph osd pool create repbase 2
+  ceph osd pool application enable repbase rados
   expect_false ceph osd tier add repbase eccache
   ceph osd pool delete repbase repbase --yes-i-really-really-mean-it
   ceph osd pool delete eccache eccache --yes-i-really-really-mean-it
@@ -426,6 +432,7 @@ function test_tiering_5()
 {
   # convenient add-cache command
   ceph osd pool create slow 2
+  ceph osd pool application enable slow rados
   ceph osd pool create cache3 2
   ceph osd tier add-cache slow cache3 1024000
   ceph osd dump | grep cache3 | grep bloom | grep 'false_positive_probability: 0.05' | grep 'target_bytes 1024000' | grep '1200s x4'
@@ -443,6 +450,7 @@ function test_tiering_6()
 {
   # check add-cache whether work
   ceph osd pool create datapool 2
+  ceph osd pool application enable datapool rados
   ceph osd pool create cachepool 2
   ceph osd tier add-cache datapool cachepool 1024000
   ceph osd tier cache-mode cachepool writeback
@@ -460,6 +468,7 @@ function test_tiering_7()
 {
   # protection against pool removal when used as tiers
   ceph osd pool create datapool 2
+  ceph osd pool application enable datapool rados
   ceph osd pool create cachepool 2
   ceph osd tier add-cache datapool cachepool 1024000
   ceph osd pool delete cachepool cachepool --yes-i-really-really-mean-it 2> $TMPFILE || true
@@ -477,6 +486,7 @@ function test_tiering_8()
   ## check health check
   ceph osd set notieragent
   ceph osd pool create datapool 2
+  ceph osd pool application enable datapool rados
   ceph osd pool create cache4 2
   ceph osd tier add-cache datapool cache4 1024000
   ceph osd tier cache-mode cache4 writeback
@@ -503,7 +513,9 @@ function test_tiering_9()
   # results in a 'pool foo is now (or already was) not a tier of bar'
   #
   ceph osd pool create basepoolA 2
+  ceph osd pool application enable basepoolA rados
   ceph osd pool create basepoolB 2
+  ceph osd pool application enable basepoolB rados
   poolA_id=$(ceph osd dump | grep 'pool.*basepoolA' | awk '{print $2;}')
   poolB_id=$(ceph osd dump | grep 'pool.*basepoolB' | awk '{print $2;}')
 
@@ -1581,6 +1593,7 @@ function test_mon_osd()
 
   ceph osd ls
   ceph osd pool create data 10
+  ceph osd pool application enable data rados
   ceph osd lspools | grep data
   ceph osd map data foo | grep 'pool.*data.*object.*foo.*pg.*up.*acting'
   ceph osd map data foo namespace| grep 'pool.*data.*object.*namespace/foo.*pg.*up.*acting'
@@ -1640,6 +1653,7 @@ function test_mon_osd_pool()
   # osd pool
   #
   ceph osd pool create data 10
+  ceph osd pool application enable data rados
   ceph osd pool mksnap data datasnap
   rados -p data lssnap | grep datasnap
   ceph osd pool rmsnap data datasnap
@@ -1647,6 +1661,7 @@ function test_mon_osd_pool()
   ceph osd pool delete data data --yes-i-really-really-mean-it
 
   ceph osd pool create data2 10
+  ceph osd pool application enable data2 rados
   ceph osd pool rename data2 data3
   ceph osd lspools | grep data3
   ceph osd pool delete data3 data3 --yes-i-really-really-mean-it
@@ -1655,10 +1670,12 @@ function test_mon_osd_pool()
   ceph osd pool create replicated 12 12 replicated
   ceph osd pool create replicated 12 12 # default is replicated
   ceph osd pool create replicated 12    # default is replicated, pgp_num = pg_num
+  ceph osd pool application enable replicated rados
   # should fail because the type is not the same
   expect_false ceph osd pool create replicated 12 12 erasure
   ceph osd lspools | grep replicated
   ceph osd pool create ec_test 1 1 erasure
+  ceph osd pool application enable ec_test rados
   set +e
   ceph osd metadata | grep osd_objectstore_type | grep -qc bluestore
   if [ $? -eq 0 ]; then
@@ -1681,6 +1698,7 @@ function test_mon_osd_pool_quota()
 
   # create tmp pool
   ceph osd pool create tmp-quota-pool 36
+  ceph osd pool application enable tmp-quota-pool rados
   #
   # set erroneous quotas
   #
@@ -1857,6 +1875,7 @@ function test_mon_osd_pool_set()
 {
   TEST_POOL_GETSET=pool_getset
   ceph osd pool create $TEST_POOL_GETSET 1
+  ceph osd pool application enable $TEST_POOL_GETSET rados
   wait_for_clean
   ceph osd pool get $TEST_POOL_GETSET all
 
@@ -1871,6 +1890,7 @@ function test_mon_osd_pool_set()
   ceph osd pool set $TEST_POOL_GETSET size $old_size
 
   ceph osd pool create pool_erasure 1 1 erasure
+  ceph osd pool application enable pool_erasure rados
   wait_for_clean
   set +e
   ceph osd pool set pool_erasure size 4444 2>$TMPFILE
@@ -2058,6 +2078,7 @@ function test_mon_osd_tiered_pool_set()
 
   # this is not a tier pool
   ceph osd pool create fake-tier 2
+  ceph osd pool application enable fake-tier rados
   wait_for_clean
 
   expect_false ceph osd pool set fake-tier hit_set_type explicit_hash
@@ -2295,6 +2316,7 @@ function test_mon_cephdf_commands()
   # RAW USED The near raw used per pool in raw total
 
   ceph osd pool create cephdf_for_test 32 32 replicated
+  ceph osd pool application enable cephdf_for_test rados
   ceph osd pool set cephdf_for_test size 2
 
   dd if=/dev/zero of=./cephdf_for_test bs=4k count=1
index a11172d1014f7e2fe6eb2e6a868ad854ac2151ea..3ff7e7603373cd884344028a223e16f6666f34b6 100755 (executable)
@@ -23,11 +23,13 @@ expect 'ceph osd pool create test 256 256' 0
 expect 'ceph osd pool mksnap test snapshot' 0
 expect 'ceph osd pool rmsnap test snapshot' 0
 
+expect 'rbd --pool=test pool init' 0
 expect 'rbd --pool=test --rbd_validate_pool=false create --size=102400 image' 0
 expect 'rbd --pool=test snap create image@snapshot' 22
 
 expect 'ceph osd pool delete test test --yes-i-really-really-mean-it' 0
 expect 'ceph osd pool create test 256 256' 0
+expect 'rbd --pool=test pool init' 0
 expect 'rbd --pool=test create --size=102400 image' 0
 expect 'rbd --pool=test snap create image@snapshot' 0
 expect 'rbd --pool=test snap ls image' 0
index 85be5d75c1ff8d693d8a5887c40f9403d8cbaa79..3e246949df428492d22d0f21ee2aca1dd07e0b6f 100755 (executable)
@@ -109,6 +109,7 @@ setup_osd_data
 POOL="alloc_hint-rep"
 ceph osd pool create "${POOL}" "${NUM_PG}"
 ceph osd pool set "${POOL}" size "${NUM_OSDS}"
+ceph osd pool application enable "${POOL}" rados
 
 OBJ="foo"
 setup_pgid "${POOL}" "${OBJ}"
@@ -156,6 +157,7 @@ POOL="alloc_hint-ec"
 ceph osd erasure-code-profile set "${PROFILE}" k=2 m=1 crush-failure-domain=osd
 ceph osd erasure-code-profile get "${PROFILE}" # just so it's logged
 ceph osd pool create "${POOL}" "${NUM_PG}" "${NUM_PGP}" erasure "${PROFILE}"
+ceph osd pool application enable "${POOL}" rados
 
 OBJ="baz"
 setup_pgid "${POOL}" "${OBJ}"
index 308cb3c03a1461c2dd8f397b24bb82decfea69a4..5975893600a0225e11d14031deb446101b4657f9 100755 (executable)
@@ -10,6 +10,7 @@ expect_false()
 
 # create pools, set up tier relationship
 ceph osd pool create base_pool 2
+ceph osd pool application enable base_pool rados
 ceph osd pool create partial_wrong 2
 ceph osd pool create wrong_cache 2
 ceph osd tier add base_pool partial_wrong
@@ -89,6 +90,7 @@ ceph osd pool delete partial_wrong partial_wrong --yes-i-really-really-mean-it
 
 ## set of base, cache
 ceph osd pool create base 8
+ceph osd pool application enable base rados
 ceph osd pool create cache 8
 
 ceph osd tier add base cache
index 71a9e52fe0cfc1efcc62f1876eef95d3174f351e..0eacefc64b1682981165ed7693d21ab086bfd10e 100755 (executable)
@@ -5,6 +5,7 @@ p=`uuidgen`
 # objects
 ceph osd pool create $p 12
 ceph osd pool set-quota $p max_objects 10
+ceph osd pool application enable $p rados
 
 for f in `seq 1 10` ; do
  rados -p $p put obj$f /etc/passwd
@@ -41,6 +42,7 @@ rados -p $p put three /etc/passwd
 pp=`uuidgen`
 
 ceph osd pool create $pp 12
+ceph osd pool application enable $pp rados
 
 # set objects quota 
 ceph osd pool set-quota $pp max_objects 10
index 24f2439a590541a6ac0020a058ea396ab6d7418c..1c839d234284460f16e71ea84730097c6c071552 100755 (executable)
@@ -290,6 +290,7 @@ test_pool_image_args() {
 
     ceph osd pool delete test test --yes-i-really-really-mean-it || true
     ceph osd pool create test 100
+    rbd pool init test
     truncate -s 1 /tmp/empty /tmp/empty@snap
 
     rbd ls | wc -l | grep 0
index 9c37ff2f81c54fdef47168db0c08b0ec035dbd20..7d72882133988b322086e6b926253e70cfda69d9 100755 (executable)
@@ -99,11 +99,15 @@ function get_num_clones() {
 }
 
 ceph osd pool create repdata 24 24
+rbd pool init repdata
 ceph osd erasure-code-profile set teuthologyprofile crush-failure-domain=osd m=1 k=2
 ceph osd pool create ecdata 24 24 erasure teuthologyprofile
+rbd pool init ecdata
 ceph osd pool set ecdata allow_ec_overwrites true
 ceph osd pool create rbdnonzero 24 24
+rbd pool init rbdnonzero
 ceph osd pool create clonesonly 24 24
+rbd pool init clonesonly
 
 for pool in rbd rbdnonzero; do
     rbd create --size 200 --image-format 1 $pool/img0
index 643b9740e6333669967d552b4f2d999b4b505736..a435a67bb92cae908c4e19c6a04c28fe87df2a10 100755 (executable)
@@ -4,7 +4,9 @@ IMAGE_FEATURES="layering,exclusive-lock,object-map,fast-diff"
 
 create_pools() {
     ceph osd pool create images 100
+    rbd pool init images
     ceph osd pool create volumes 100
+    rbd pool init volumes
 }
 
 delete_pools() {
index 9033343f46f4b0ee40e2ba4d697a8cc1095ae467..48d069160d3037c1fee557a836fcf49c49ba63e6 100755 (executable)
@@ -11,6 +11,7 @@ set_up () {
   tear_down
   ceph osd pool create $POOL_NAME $PG_NUM
   ceph osd pool mksnap $POOL_NAME snap
+  rbd pool init images
 }
 
 trap tear_down EXIT HUP INT