]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
suites: sudo ceph
authorSage Weil <sage@redhat.com>
Fri, 11 Sep 2015 16:14:50 +0000 (12:14 -0400)
committerSage Weil <sage@redhat.com>
Fri, 11 Sep 2015 16:15:01 +0000 (12:15 -0400)
Signed-off-by: Sage Weil <sage@redhat.com>
33 files changed:
suites/fs/basic/inline/yes.yaml
suites/kcephfs/cephfs/inline/yes.yaml
suites/multimds/basic/inline/yes.yaml
suites/multimds/libcephfs/inline/yes.yaml
suites/rados/singleton-nomsgr/all/multi-backfill-reject.yaml
suites/rados/singleton/all/pg-removal-interruption.yaml
suites/rados/singleton/all/thrash_cache_writeback_forward_none.yaml
suites/rados/thrash/workloads/cache-agent-big.yaml
suites/rados/thrash/workloads/cache-agent-small.yaml
suites/rados/thrash/workloads/cache-pool-snaps-readproxy.yaml
suites/rados/thrash/workloads/cache-pool-snaps.yaml
suites/rados/thrash/workloads/cache-snaps.yaml
suites/rados/thrash/workloads/cache.yaml
suites/rados/upgrade/hammer-x-singleton/9-workload/test_cache-pool-snaps.yaml
suites/rbd/basic/cachepool/small.yaml
suites/rbd/cli/cachepool/small.yaml
suites/rbd/librbd/cachepool/small.yaml
suites/rbd/qemu/cachepool/ec-cache.yaml
suites/rbd/qemu/cachepool/small.yaml
suites/rbd/thrash/thrashers/cache.yaml
suites/smoke/basic/tasks/rados_cache_snaps.yaml
suites/upgrade/dumpling-firefly-x/parallel/6-upgrade-sequence/upgrade-by-daemon.yaml
suites/upgrade/firefly-hammer-x/parallel/3-upgrade-sequence/upgrade-mon-osd-mds.yaml
suites/upgrade/firefly-hammer-x/parallel/6-upgrade-sequence/upgrade-by-daemon.yaml
suites/upgrade/firefly-x/parallel/3-upgrade-sequence/upgrade-mon-osd-mds.yaml
suites/upgrade/firefly-x/stress-split-erasure-code/2-workload/ec-cache-create.yaml
suites/upgrade/firefly-x/stress-split-erasure-code/6-workload/ec-cache-agent.yaml
suites/upgrade/firefly-x/stress-split-erasure-code/9-workload/ec-no-lrc.yaml
suites/upgrade/giant-x/parallel/2-workload/parallel_run/test_cache-pool-snaps.yaml
suites/upgrade/giant-x/parallel/2-workload/sequential_run/test_cache-pool-snaps.yaml
suites/upgrade/giant-x/parallel/3-upgrade-sequence/upgrade-mon-osd-mds.yaml
suites/upgrade/hammer-x/parallel/3-upgrade-sequence/upgrade-mon-osd-mds.yaml
suites/upgrade/hammer-x/stress-split-erasure-code/9-workload/ec-no-shec.yaml

index 72a285c590fb4457607563938a54b0c4f84d89cc..fce64c6c11d7ad3a7efa43f2620e73e3aed8889d 100644 (file)
@@ -3,4 +3,4 @@ tasks:
 - ceph:
 - exec:
     client.0:
-      - ceph mds set inline_data true --yes-i-really-mean-it
+      - sudo ceph mds set inline_data true --yes-i-really-mean-it
index 72a285c590fb4457607563938a54b0c4f84d89cc..fce64c6c11d7ad3a7efa43f2620e73e3aed8889d 100644 (file)
@@ -3,4 +3,4 @@ tasks:
 - ceph:
 - exec:
     client.0:
-      - ceph mds set inline_data true --yes-i-really-mean-it
+      - sudo ceph mds set inline_data true --yes-i-really-mean-it
index 4b2c1d9cf49cf75e7e806dc8d1ce41b2865957d1..ae5222f6bcba2f22a5c61fa110a229524a2146c5 100644 (file)
@@ -1,4 +1,4 @@
 tasks:
 - exec:
     client.0:
-      - ceph mds set inline_data true --yes-i-really-mean-it
+      - sudo ceph mds set inline_data true --yes-i-really-mean-it
index 4b2c1d9cf49cf75e7e806dc8d1ce41b2865957d1..ae5222f6bcba2f22a5c61fa110a229524a2146c5 100644 (file)
@@ -1,4 +1,4 @@
 tasks:
 - exec:
     client.0:
-      - ceph mds set inline_data true --yes-i-really-mean-it
+      - sudo ceph mds set inline_data true --yes-i-really-mean-it
index a9ec78a763a3085f7be1400b0295c7b4a4c60cfc..562097e1652be1ebfd0a1af8f1cbf7891bdc55d6 100644 (file)
@@ -17,14 +17,14 @@ tasks:
         osd max pg log entries: 100
 - exec:
     client.0:
-      - ceph osd pool create foo 64
+      - sudo ceph osd pool create foo 64
       - rados -p foo bench 60 write -b 1024 --no-cleanup
-      - ceph osd pool set foo size 3
-      - ceph osd out 0 1
+      - sudo ceph osd pool set foo size 3
+      - sudo ceph osd out 0 1
 - sleep:
     duration: 60
 - exec:
     client.0:
-      - ceph osd in 0 1
+      - sudo ceph osd in 0 1
 - sleep:
     duration: 60
index d574e599341da2a724025035e355beaaa8043663..6764b1c76c2bc9d2ef7a7a9eb27f011d4b22ad87 100644 (file)
@@ -12,13 +12,13 @@ tasks:
     - slow request
 - exec:
     client.0:
-      - ceph osd pool create foo 128 128
+      - sudo ceph osd pool create foo 128 128
       - sleep 5
-      - ceph tell osd.0 injectargs -- --osd-inject-failure-on-pg-removal
-      - ceph osd pool delete foo foo --yes-i-really-really-mean-it
+      - sudo ceph tell osd.0 injectargs -- --osd-inject-failure-on-pg-removal
+      - sudo ceph osd pool delete foo foo --yes-i-really-really-mean-it
 - ceph.wait_for_failure: [osd.0]
 - ceph.restart: [osd.0]
 - exec:
     client.0:
-      - ceph tell osd.0 flush_pg_stats
+      - sudo ceph tell osd.0 flush_pg_stats
 - ceph.healthy:
index 80a222b80a4395aec122dc6da4e7f19693c06b36..d36c0f84c957e88f905d437b037ba6ef816086c5 100644 (file)
@@ -15,23 +15,23 @@ tasks:
     - slow request
 - exec:
     client.0:
-      - ceph osd pool create base 4
-      - ceph osd pool create cache 4
-      - ceph osd tier add base cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay base cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 500
+      - sudo ceph osd pool create base 4
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add base cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay base cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 500
 - background_exec:
     mon.a:
       - while true
       - do sleep 30
       - echo forward
-      - ceph osd tier cache-mode cache forward
+      - sudo ceph osd tier cache-mode cache forward
       - sleep 10
-      - ceph osd pool set cache cache_target_full_ratio .001
+      - sudo ceph osd pool set cache cache_target_full_ratio .001
       - echo cache-try-flush-evict-all
       - rados -p cache cache-try-flush-evict-all
       - sleep 5
@@ -39,14 +39,14 @@ tasks:
       - rados -p cache cache-flush-evict-all
       - sleep 5
       - echo remove overlay
-      - ceph osd tier remove-overlay base
+      - sudo ceph osd tier remove-overlay base
       - sleep 20
       - echo add writeback overlay
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd pool set cache cache_target_full_ratio .8
-      - ceph osd tier set-overlay base cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd pool set cache cache_target_full_ratio .8
+      - sudo ceph osd tier set-overlay base cache
       - sleep 30
-      - ceph osd tier cache-mode cache readforward
+      - sudo ceph osd tier cache-mode cache readforward
       - done
 - rados:
     clients: [client.0]
index d983d9089c6091df8a7186c2d3fda15d3f509c01..1a54cd6a55bc5a4a7df2b0a1ef8f02b857064a86 100644 (file)
@@ -5,17 +5,16 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd erasure-code-profile set teuthologyprofile ruleset-failure-domain=osd
-        m=1 k=2
-      - ceph osd pool create base 4 4 erasure teuthologyprofile
-      - ceph osd pool create cache 4
-      - ceph osd tier add base cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay base cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 5000
+      - sudo ceph osd erasure-code-profile set teuthologyprofile ruleset-failure-domain=osd m=1 k=2
+      - sudo ceph osd pool create base 4 4 erasure teuthologyprofile
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add base cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay base cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 5000
 - rados:
     clients: [client.0]
     pools: [base]
index faf86b38012f2b79da0631e829ca47c89fb83054..96e71cede727ff9f7b09c81ae3bc17ec512a0c4a 100644 (file)
@@ -6,15 +6,15 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create base 4
-      - ceph osd pool create cache 4
-      - ceph osd tier add base cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay base cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create base 4
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add base cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay base cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 250
 - rados:
     clients: [client.0]
     pools: [base]
index 59fa3e24f95cc37ca870caff276f559843acce4c..0f5462b7b8e95aeb3f398b8425dba10b9af05b75 100644 (file)
@@ -5,15 +5,15 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create base 4
-      - ceph osd pool create cache 4
-      - ceph osd tier add base cache
-      - ceph osd tier cache-mode cache readproxy
-      - ceph osd tier set-overlay base cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 3600
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create base 4
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add base cache
+      - sudo ceph osd tier cache-mode cache readproxy
+      - sudo ceph osd tier set-overlay base cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 3600
+      - sudo ceph osd pool set cache target_max_objects 250
 - rados:
     clients: [client.0]
     pools: [base]
index 8df800b3f13a9f2c2a014c2a16616ba3c04fb169..72fddc863d4f2d158878531a68031816c739e7cd 100644 (file)
@@ -5,15 +5,15 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create base 4
-      - ceph osd pool create cache 4
-      - ceph osd tier add base cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay base cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 3600
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create base 4
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add base cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay base cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 3600
+      - sudo ceph osd pool set cache target_max_objects 250
 - rados:
     clients: [client.0]
     pools: [base]
index 10c98aa4382ad0d5e2020f2be7e47ac05c8447ab..2dd1dce1d7ea3f8bf5f5dd3e183efdba259a08a1 100644 (file)
@@ -5,15 +5,15 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create base 4
-      - ceph osd pool create cache 4
-      - ceph osd tier add base cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay base cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 3600
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create base 4
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add base cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay base cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 3600
+      - sudo ceph osd pool set cache target_max_objects 250
 - rados:
     clients: [client.0]
     pools: [base]
index 0f15cad676395748925fb39dcbfa6aaf709d6018..d6d8a8c542d3715c40a1f408c1dce7a8a74e812f 100644 (file)
@@ -5,14 +5,14 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create base 4
-      - ceph osd pool create cache 4
-      - ceph osd tier add base cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay base cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 3600
+      - sudo ceph osd pool create base 4
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add base cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay base cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 3600
 - rados:
     clients: [client.0]
     pools: [base]
index 528050d4b4a194fc6bbf5efec7af6183af7fe496..844b47a5c53b999ed167a396aed0ca6f7e7a1563 100644 (file)
@@ -7,15 +7,15 @@ workunit:
   sequential:
     - exec:
         client.0:
-          - ceph osd pool create base 4
-          - ceph osd pool create cache 4
-          - ceph osd tier add base cache
-          - ceph osd tier cache-mode cache writeback
-          - ceph osd tier set-overlay base cache
-          - ceph osd pool set cache hit_set_type bloom
-          - ceph osd pool set cache hit_set_count 8
-          - ceph osd pool set cache hit_set_period 3600
-          - ceph osd pool set cache target_max_objects 250
+          - sudo ceph osd pool create base 4
+          - sudo ceph osd pool create cache 4
+          - sudo ceph osd tier add base cache
+          - sudo ceph osd tier cache-mode cache writeback
+          - sudo ceph osd tier set-overlay base cache
+          - sudo ceph osd pool set cache hit_set_type bloom
+          - sudo ceph osd pool set cache hit_set_count 8
+          - sudo ceph osd pool set cache hit_set_period 3600
+          - sudo ceph osd pool set cache target_max_objects 250
     - rados:
         clients: [client.0]
         pools: [base]
index f8ed11040fa42ebb695815d840b58898ddb8e97f..8262be33044691b631cb8764b1015b0047c0ab4b 100644 (file)
@@ -1,11 +1,11 @@
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create cache 4
-      - ceph osd tier add rbd cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay rbd cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add rbd cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay rbd cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 250
index f8ed11040fa42ebb695815d840b58898ddb8e97f..8262be33044691b631cb8764b1015b0047c0ab4b 100644 (file)
@@ -1,11 +1,11 @@
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create cache 4
-      - ceph osd tier add rbd cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay rbd cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add rbd cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay rbd cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 250
index f8ed11040fa42ebb695815d840b58898ddb8e97f..8262be33044691b631cb8764b1015b0047c0ab4b 100644 (file)
@@ -1,11 +1,11 @@
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create cache 4
-      - ceph osd tier add rbd cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay rbd cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add rbd cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay rbd cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 250
index 0231237a415eec47d12142540efad4006b42adad..554aba3b5d0477e04323829f5af207409b0cc75f 100644 (file)
@@ -1,14 +1,14 @@
 tasks:
 - exec:
     client.0:
-      - ceph osd erasure-code-profile set teuthologyprofile ruleset-failure-domain=osd m=1 k=2
-      - ceph osd pool delete rbd rbd --yes-i-really-really-mean-it
-      - ceph osd pool create rbd 4 4 erasure teuthologyprofile
-      - ceph osd pool create cache 4
-      - ceph osd tier add rbd cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay rbd cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd erasure-code-profile set teuthologyprofile ruleset-failure-domain=osd m=1 k=2
+      - sudo ceph osd pool delete rbd rbd --yes-i-really-really-mean-it
+      - sudo ceph osd pool create rbd 4 4 erasure teuthologyprofile
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add rbd cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay rbd cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 250
index f8ed11040fa42ebb695815d840b58898ddb8e97f..8262be33044691b631cb8764b1015b0047c0ab4b 100644 (file)
@@ -1,11 +1,11 @@
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create cache 4
-      - ceph osd tier add rbd cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay rbd cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add rbd cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay rbd cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 250
index 5bab78ee8406f10c5a0501c3ba0a681f2c1bd2c6..17544f3f48e2dc165054692fcf4c387e7907f611 100644 (file)
@@ -6,13 +6,13 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd pool create cache 4
-      - ceph osd tier add rbd cache
-      - ceph osd tier cache-mode cache writeback
-      - ceph osd tier set-overlay rbd cache
-      - ceph osd pool set cache hit_set_type bloom
-      - ceph osd pool set cache hit_set_count 8
-      - ceph osd pool set cache hit_set_period 60
-      - ceph osd pool set cache target_max_objects 250
+      - sudo ceph osd pool create cache 4
+      - sudo ceph osd tier add rbd cache
+      - sudo ceph osd tier cache-mode cache writeback
+      - sudo ceph osd tier set-overlay rbd cache
+      - sudo ceph osd pool set cache hit_set_type bloom
+      - sudo ceph osd pool set cache hit_set_count 8
+      - sudo ceph osd pool set cache hit_set_period 60
+      - sudo ceph osd pool set cache target_max_objects 250
 - thrashosds:
     timeout: 1200
index 37ef5092f02c35e41bf12f2c538efe0b894aee5b..a060fbc7d23df586c8a804f618d513e315e9d490 100644 (file)
@@ -11,15 +11,15 @@ tasks:
     timeout: 1200
 - exec:
     client.0:
-    - ceph osd pool create base 4
-    - ceph osd pool create cache 4
-    - ceph osd tier add base cache
-    - ceph osd tier cache-mode cache writeback
-    - ceph osd tier set-overlay base cache
-    - ceph osd pool set cache hit_set_type bloom
-    - ceph osd pool set cache hit_set_count 8
-    - ceph osd pool set cache hit_set_period 3600
-    - ceph osd pool set cache target_max_objects 250
+    - sudo ceph osd pool create base 4
+    - sudo ceph osd pool create cache 4
+    - sudo ceph osd tier add base cache
+    - sudo ceph osd tier cache-mode cache writeback
+    - sudo ceph osd tier set-overlay base cache
+    - sudo ceph osd pool set cache hit_set_type bloom
+    - sudo ceph osd pool set cache hit_set_count 8
+    - sudo ceph osd pool set cache hit_set_period 3600
+    - sudo ceph osd pool set cache target_max_objects 250
 - rados:
     clients:
     - client.0
index 082a63c36fd92abee774b9154b62d5a4666d5feb..9e47aa8f681abc7e0fe952e23797b42a011dd7da 100644 (file)
@@ -19,7 +19,7 @@ upgrade-sequence2:
    - print: "**** running mixed versions of osds and mons"
    - exec:
       mon.b:
-        - ceph osd crush tunables firefly
+        - sudo ceph osd crush tunables firefly
    - install.upgrade:
        mon.b:
    - print: "**** done install.upgrade mon.b to the version from teuthology-suite arg"
index 165fe61047a1bad66857df1eb785b61777bac918..84dca414b0b01bcef1cc4a116af066ce742cc98a 100644 (file)
@@ -21,7 +21,7 @@ upgrade-sequence:
    - exec:
       mon.b:
         # is this command valid?
-        - ceph osd crush tunables firefly
+        - sudo ceph osd crush tunables firefly
    - install.upgrade:
        mon.b:
          branch: hammer
index abd4300fdcaa6504b74e463f22858c3e1e497202..d953c63e67c8463088207329847c3812ba520e8b 100644 (file)
@@ -19,7 +19,7 @@ upgrade-sequence2:
    - print: "**** running mixed versions of osds and mons"
    - exec:
       mon.b:
-        - ceph osd crush tunables hammer
+        - sudo ceph osd crush tunables hammer
    - install.upgrade:
        mon.b:
    - print: "**** done install.upgrade mon.b to the version from teuthology-suite arg"
index 0a87823a8d0b4e982005ec64bde8fe6015c0f078..95199e0588fdfe8481d35149c5fb1a1e4f633b89 100644 (file)
@@ -19,7 +19,7 @@ upgrade-sequence:
    - print: "**** running mixed versions of osds and mons"
    - exec:
       mon.b:
-        - ceph osd crush tunables firefly
+        - sudo ceph osd crush tunables firefly
    - install.upgrade:
        mon.b:
    - print: "**** done install.upgrade mon.b to the version from teuthology-suite arg"
index a593c06117c8275c5ce11b24a0e5f20282a4eb55..cddf366ebcd25c604fada4a1e50ff010e8cb0106 100644 (file)
@@ -6,19 +6,19 @@ overrides:
 tasks:
 - exec:
     client.0:
-      - ceph osd erasure-code-profile set teuthologyprofile ruleset-failure-domain=osd k=2 m=1
-      - ceph osd pool create ecbase 4 4 erasure teuthologyprofile
-      - ceph osd pool create eccache 4
-      - ceph osd tier add ecbase eccache
-      - ceph osd tier cache-mode eccache writeback
-      - ceph osd tier set-overlay ecbase eccache
-      - ceph osd pool set eccache hit_set_type bloom
-      - ceph osd pool set eccache hit_set_count 8
-      - ceph osd pool set eccache hit_set_period 60
-      - ceph osd pool set eccache target_max_objects 250
+      - sudo ceph osd erasure-code-profile set teuthologyprofile ruleset-failure-domain=osd k=2 m=1
+      - sudo ceph osd pool create ecbase 4 4 erasure teuthologyprofile
+      - sudo ceph osd pool create eccache 4
+      - sudo ceph osd tier add ecbase eccache
+      - sudo ceph osd tier cache-mode eccache writeback
+      - sudo ceph osd tier set-overlay ecbase eccache
+      - sudo ceph osd pool set eccache hit_set_type bloom
+      - sudo ceph osd pool set eccache hit_set_count 8
+      - sudo ceph osd pool set eccache hit_set_period 60
+      - sudo ceph osd pool set eccache target_max_objects 250
 - exec:
     client.0:
-      - ceph osd deep-scrub '*'
+      - sudo ceph osd deep-scrub '*'
 - sequential:
   - rados:
       clients: [client.0]
index f7d9377718e3aea723c4a5283ce7947d5e3e926a..501a12ee5353e794f961fc208043992f9769078e 100644 (file)
@@ -1,7 +1,7 @@
 tasks:
 - exec:
     client.0:
-      - ceph osd deep-scrub '*'
+      - sudo ceph osd deep-scrub '*'
 - sequential:
   - rados:
       clients: [client.0]
index 9814a3fa18de1ce49bc90d0c83c8e829e322cce4..566406546ca6032b14210bbde4bbf2a419493e29 100644 (file)
@@ -6,4 +6,4 @@ tasks:
 - exec:
     mon.a:
       - |-
-        ceph osd erasure-code-profile set profile-lrc plugin=lrc 2>&1 | grep "unsupported by:"
+        sudo ceph osd erasure-code-profile set profile-lrc plugin=lrc 2>&1 | grep "unsupported by:"
index 676a9e8e89cbc4f7b81d2ea50ded7d5007a8bf68..99ac5247de21548e8b95084aba34bcbe610cc5a8 100644 (file)
@@ -7,15 +7,15 @@ workload:
     - sequential:
       - exec:
           client.0:
-            - ceph osd pool create base 4
-            - ceph osd pool create cache 4
-            - ceph osd tier add base cache
-            - ceph osd tier cache-mode cache writeback
-            - ceph osd tier set-overlay base cache
-            - ceph osd pool set cache hit_set_type bloom
-            - ceph osd pool set cache hit_set_count 8
-            - ceph osd pool set cache hit_set_period 3600
-            - ceph osd pool set cache target_max_objects 250
+            - sudo ceph osd pool create base 4
+            - sudo ceph osd pool create cache 4
+            - sudo ceph osd tier add base cache
+            - sudo ceph osd tier cache-mode cache writeback
+            - sudo ceph osd tier set-overlay base cache
+            - sudo ceph osd pool set cache hit_set_type bloom
+            - sudo ceph osd pool set cache hit_set_count 8
+            - sudo ceph osd pool set cache hit_set_period 3600
+            - sudo ceph osd pool set cache target_max_objects 250
       - rados:
           clients: [client.0]
           pools: [base]
index d3b83fa7d952a4ba42f0983fa1e1c395b8e72e5b..7c8abe384da6eb8cb47fa2ea3c3a121821166383 100644 (file)
@@ -6,15 +6,15 @@ workload:
   sequential:
     - exec:
         client.0:
-          - ceph osd pool create base 4
-          - ceph osd pool create cache 4
-          - ceph osd tier add base cache
-          - ceph osd tier cache-mode cache writeback
-          - ceph osd tier set-overlay base cache
-          - ceph osd pool set cache hit_set_type bloom
-          - ceph osd pool set cache hit_set_count 8
-          - ceph osd pool set cache hit_set_period 3600
-          - ceph osd pool set cache target_max_objects 250
+          - sudo ceph osd pool create base 4
+          - sudo ceph osd pool create cache 4
+          - sudo ceph osd tier add base cache
+          - sudo ceph osd tier cache-mode cache writeback
+          - sudo ceph osd tier set-overlay base cache
+          - sudo ceph osd pool set cache hit_set_type bloom
+          - sudo ceph osd pool set cache hit_set_count 8
+          - sudo ceph osd pool set cache hit_set_period 3600
+          - sudo ceph osd pool set cache target_max_objects 250
     - rados:
         clients: [client.0]
         pools: [base]
index c39a5687e269abc67fb8607d42a0e808c2866a89..59ae657b1b1198a13cc36a5e7b43618d7fd3697c 100644 (file)
@@ -20,7 +20,7 @@ upgrade-sequence:
 #do we need to use "ceph osd crush tunables giant" ?
    - exec:
       mon.b:
-        - ceph osd crush tunables firefly
+        - sudo ceph osd crush tunables firefly
    - print: "**** done ceph osd crush tunables firefly"
    - install.upgrade:
        mon.b:
index c7cb960db08a975044fb431874fad10d1c70a053..ec5d3f907a2b70f3d2d6eae21b36f24688bdbebd 100644 (file)
@@ -20,7 +20,7 @@ upgrade-sequence:
 #do we need to use "ceph osd crush tunables hammer" ?
    - exec:
       mon.b:
-        - ceph osd crush tunables hammer
+        - sudo ceph osd crush tunables hammer
    - print: "**** done ceph osd crush tunables hammer"
    - install.upgrade:
        mon.b:
index 34c2b188f1f48a4817d5aa366113ceb4bb9cf5e2..7be49a3e2ad7e6da1217a7b37581006e82e3240b 100644 (file)
@@ -6,4 +6,4 @@ tasks:
 - exec:
     mon.a:
       - |-
-        ceph osd erasure-code-profile set profile-shec k=2 m=1 c=1 plugin=shec 2>&1 | grep "unsupported by"
+        sudo ceph osd erasure-code-profile set profile-shec k=2 m=1 c=1 plugin=shec 2>&1 | grep "unsupported by"