]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
test: reproduce flap peering bug (wip) 40849/head
authorDan van der Ster <daniel.vanderster@cern.ch>
Mon, 10 Jan 2022 10:27:51 +0000 (11:27 +0100)
committerDan van der Ster <daniel.vanderster@cern.ch>
Mon, 10 Jan 2022 10:27:51 +0000 (11:27 +0100)
Signed-off-by: Dan van der Ster <daniel.vanderster@cern.ch>
src/test/CMakeLists.txt
src/test/flap.sh [new file with mode: 0755]

index bd8c3b9bc8eae765c255fb7db30657919d3f9c71..1cfe7990fce0011db90734496f0baeec73c197e9 100644 (file)
@@ -609,6 +609,7 @@ add_ceph_test(run-cli-tests ${CMAKE_CURRENT_SOURCE_DIR}/run-cli-tests)
 #add_ceph_test(test_pidfile.sh ${CMAKE_CURRENT_SOURCE_DIR}/test_pidfile.sh)
 
 add_ceph_test(smoke.sh ${CMAKE_CURRENT_SOURCE_DIR}/smoke.sh)
+add_ceph_test(flap.sh ${CMAKE_CURRENT_SOURCE_DIR}/flap.sh)
 
 if(DEFINED PROMTOOL_EXECUTABLE)
   set(promtool_executable_checked TRUE)
diff --git a/src/test/flap.sh b/src/test/flap.sh
new file mode 100755 (executable)
index 0000000..d5bbdab
--- /dev/null
@@ -0,0 +1,129 @@
+#!/usr/bin/env bash
+
+source $CEPH_ROOT/qa/standalone/ceph-helpers.sh
+
+mon_port=$(get_unused_port)
+
+function run() {
+    local dir=$1
+    shift
+
+    export CEPH_MON="127.0.0.1:$mon_port"
+    export CEPH_ARGS
+    CEPH_ARGS+="--fsid=$(uuidgen) --auth-supported=none "
+    CEPH_ARGS+="--mon-host=$CEPH_MON "
+    CEPH_ARGS+="--osd_min_pg_log_entries=1 --osd_max_pg_log_entries=2 "
+    set -e
+
+    local funcs=${@:-$(set | sed -n -e 's/^\(TEST_[0-9a-z_]*\) .*/\1/p')}
+    for func in $funcs ; do
+        setup $dir || return 1
+       $func $dir || return 1
+        teardown $dir || return 1
+    done
+}
+
+function TEST_flap() {
+    local dir=$1
+
+    run_mon $dir a
+    run_mgr $dir x
+    run_osd $dir 0
+    run_osd $dir 1
+    run_osd $dir 2
+    run_osd $dir 3
+
+    ceph osd pool create foo 64
+    wait_for_clean
+
+    # write lots of objects
+    rados -p foo bench 30 write -b 4096 --no-cleanup
+    wait_for_clean
+
+    # set norebalance so that we don't backfill
+    ceph osd set norebalance
+    wait_for_clean
+
+    # flap an osd, it should repeer and come back clean
+    ceph osd down 0
+    wait_for_clean
+
+    # drain osd.0, then wait for peering
+    ceph osd crush reweight osd.0 0
+    wait_for_peered
+
+    # flap osd.0 while draining, this has been known to incorrectly degrade pgs
+    ceph osd down 0
+    wait_for_osd up 0
+    wait_for_peered
+
+    # now there should be zero undersized or degraded pgs
+    ceph pg debug degraded_pgs_exist | grep -q FALSE
+}
+
+function TEST_flap_ec() {
+    local dir=$1
+
+    run_mon $dir a
+    run_mgr $dir x
+    run_osd $dir 0
+    run_osd $dir 1
+    run_osd $dir 2
+    run_osd $dir 3
+    run_osd $dir 4
+
+    ceph osd erasure-code-profile set myprofile k=2 m=2 crush-failure-domain=osd
+    ceph osd pool create foo 64 erasure myprofile
+    wait_for_clean
+
+    # write lots of objects
+    rados -p foo bench 30 write -b 4096 --no-cleanup
+    wait_for_clean
+
+    # set norebalance so that we don't backfill
+    ceph osd set norebalance
+    wait_for_clean
+
+    # flap an osd, it should repeer and come back clean
+    ceph osd down 0
+    wait_for_clean
+
+    # drain osd.0, then wait for peering
+    ceph osd crush reweight osd.0 0
+    wait_for_peered
+
+    # flap osd.0 while draining, this has been known to incorrectly degrade pgs
+    ceph osd down 0
+    wait_for_osd up 0
+    wait_for_peered
+
+    # now there should be zero undersized or degraded pgs
+    ceph pg debug degraded_pgs_exist | grep -q FALSE
+
+    # PART TWO: frans42 testing
+    # reset osd.0 weight and rebalance
+    ceph osd unset norebalance
+    ceph osd crush reweight osd.0 1
+    wait_for_clean
+    ceph osd set norebalance
+    wait_for_clean
+
+    # add new OSDs
+    run_osd $dir 5
+    run_osd $dir 6
+    wait_for_clean
+
+    # We now have old osds=0,...,4 and
+    # new OSDs 5,6. Flapping an old osd leads to degraded objects.
+    # flap osd.0 while rebalancing
+    ceph osd unset norebalance
+    sleep 10 # let rebalancing progress a bit
+    ceph osd down 0
+    wait_for_osd up 0
+    wait_for_peered
+
+    # now there should be zero undersized or degraded pgs
+    # I don't recall if I saw degraded PGs or only degraded objects.
+    ceph pg debug degraded_pgs_exist | grep -q FALSE
+}
+main flap "$@"