]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
qa/standalone: make sure an osd is running before create_rbd_pool
authorSage Weil <sage@redhat.com>
Tue, 5 Mar 2019 15:19:38 +0000 (09:19 -0600)
committerSage Weil <sage@redhat.com>
Wed, 6 Mar 2019 22:27:56 +0000 (16:27 -0600)
'rbd pool init' now does IO.  Drop the pool, or change the pool size to 1.

Fixes: http://tracker.ceph.com/issues/38585
Signed-off-by: Sage Weil <sage@redhat.com>
qa/standalone/ceph-helpers.sh
qa/standalone/erasure-code/test-erasure-eio.sh
qa/standalone/mon/misc.sh
qa/standalone/mon/osd-crush.sh
qa/standalone/osd/osd-rep-recov-eio.sh

index 37441c7a76b27c6418227168786a4a2f03449bf4..20c3459130255487e2a75452d452deef80ce5198 100755 (executable)
@@ -496,13 +496,17 @@ function test_run_mon() {
 
     setup $dir || return 1
 
-    run_mon $dir a --mon-initial-members=a || return 1
+    run_mon $dir a --mon-initial-members=a --osd_pool_default_size=1 || return 1
+    run_osd $dir 0 || return 1
     create_rbd_pool || return 1
-    # rbd has not been deleted / created, hence it has pool id 0
+    # rbd has not been deleted / created, hence it has pool id 1
     ceph osd dump | grep "pool 1 'rbd'" || return 1
     kill_daemons $dir || return 1
 
-    run_mon $dir a || return 1
+    run_mon $dir a --osd_pool_default_size=3 || return 1
+    run_osd $dir 0 || return 1
+    run_osd $dir 1 || return 1
+    run_osd $dir 2 || return 1
     create_rbd_pool || return 1
     # rbd has been deleted / created, hence it does not have pool id 0
     ! ceph osd dump | grep "pool 1 'rbd'" || return 1
@@ -1550,6 +1554,7 @@ function test_wait_for_clean() {
 
     setup $dir || return 1
     run_mon $dir a --osd_pool_default_size=1 || return 1
+    run_osd $dir 0 || return 1
     run_mgr $dir x || return 1
     create_rbd_pool || return 1
     ! WAIT_FOR_CLEAN_TIMEOUT=1 wait_for_clean || return 1
index 9928877a20be53467da5b98a80c7d621a19b2709..856931728bb2b7d5bd7e9e68e1dffb540541421c 100755 (executable)
@@ -33,7 +33,6 @@ function run() {
         setup $dir || return 1
         run_mon $dir a || return 1
        run_mgr $dir x || return 1
-       create_rbd_pool || return 1
 
         # check that erasure code plugins are preloaded
         CEPH_ARGS='' ceph --admin-daemon $(get_asok_path mon.a) log flush || return 1
index 4416cb451a64504d1d918901f55b8e6018d3ac1a..3e70de85d819401c0cbc69eae4079393eca72904 100755 (executable)
@@ -39,7 +39,6 @@ function TEST_osd_pool_get_set() {
 
     setup $dir || return 1
     run_mon $dir a || return 1
-    create_rbd_pool || return 1
     create_pool $TEST_POOL 8
 
     local flag
index b639bcce99764b3b190caede5a95c23147b38263..6b0f95dc4ec331a96ccfba58dc8808f99443af3f 100755 (executable)
@@ -220,7 +220,7 @@ function TEST_crush_ls_node() {
 
 function TEST_crush_reject_empty() {
     local dir=$1
-    run_mon $dir a || return 1
+    run_mon $dir a --osd_pool_default_size=1 || return 1
     # should have at least one OSD
     run_osd $dir 0 || return 1
     create_rbd_pool || return 1
index 0c6fb1bc7d0e36d61c79208d37c6dbd1c6b8d770..6f4dac2a6b52ec92bee3a2649f3ed99a56f61580 100755 (executable)
@@ -27,13 +27,14 @@ function run() {
     export CEPH_ARGS
     CEPH_ARGS+="--fsid=$(uuidgen) --auth-supported=none "
     CEPH_ARGS+="--mon-host=$CEPH_MON "
-    CEPH_ARGS+="--osd-objectstore=filestore "
+    CEPH_ARGS+="--osd-objectstore=filestore --osd_pool_default_size=1 "
 
     local funcs=${@:-$(set | sed -n -e 's/^\(TEST_[0-9a-z_]*\) .*/\1/p')}
     for func in $funcs ; do
         setup $dir || return 1
         run_mon $dir a || return 1
        run_mgr $dir x || return 1
+       run_osd $dir 0 || return 1
        create_rbd_pool || return 1
 
         $func $dir || return 1