]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
ceph-volume tests/functional update dmcrypt test playbooks to use --cluster 24251/head
authorAlfredo Deza <adeza@redhat.com>
Mon, 24 Sep 2018 18:44:31 +0000 (14:44 -0400)
committerAlfredo Deza <adeza@redhat.com>
Mon, 24 Sep 2018 19:21:09 +0000 (15:21 -0400)
Signed-off-by: Alfredo Deza <adeza@redhat.com>
src/ceph-volume/ceph_volume/tests/functional/lvm/centos7/bluestore/dmcrypt/test.yml
src/ceph-volume/ceph_volume/tests/functional/lvm/centos7/filestore/dmcrypt/test.yml
src/ceph-volume/ceph_volume/tests/functional/lvm/xenial/bluestore/dmcrypt/test.yml
src/ceph-volume/ceph_volume/tests/functional/lvm/xenial/filestore/dmcrypt/test.yml

index d882293def7210c86941c5cdf888e3fa170c720d..bebe6dc36ba513c8904bb7d0e2927e3121fe388c 100644 (file)
   tasks:
 
     - name: destroy osd.2
-      command: "ceph osd destroy osd.2 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.2 --yes-i-really-mean-it"
 
     - name: destroy osd.0
-      command: "ceph osd destroy osd.0 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.0 --yes-i-really-mean-it"
 
 - hosts: osds
   become: yes
 
     # osd.2 device
     - name: zap /dev/sdd1
-      command: "ceph-volume lvm zap /dev/sdd1 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdd1 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: redeploy osd.2 using /dev/sdd1
-      command: "ceph-volume lvm create --bluestore --data /dev/sdd1 --osd-id 2"
+      command: "ceph-volume --cluster {{ cluster }} lvm create --bluestore --data /dev/sdd1 --osd-id 2"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     # osd.0 lv
     - name: zap test_group/data-lv1
-      command: "ceph-volume lvm zap test_group/data-lv1"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap test_group/data-lv1"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: redeploy osd.0 using test_group/data-lv1
-      command: "ceph-volume lvm create --bluestore --data test_group/data-lv1 --osd-id 0"
+      command: "ceph-volume --cluster {{ cluster }} lvm create --bluestore --data test_group/data-lv1 --osd-id 0"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
@@ -59,7 +59,7 @@
   tasks:
 
     - name: destroy osd.0
-      command: "ceph osd destroy osd.0 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.0 --yes-i-really-mean-it"
 
 
 - hosts: osds
 
 
     - name: zap test_group/data-lv1
-      command: "ceph-volume lvm zap test_group/data-lv1"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap test_group/data-lv1"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: prepare osd.0 using test_group/data-lv1
-      command: "ceph-volume lvm prepare --bluestore --data test_group/data-lv1 --osd-id 0"
+      command: "ceph-volume --cluster {{ cluster }} lvm prepare --bluestore --data test_group/data-lv1 --osd-id 0"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
index 5dc67ade18c169bb77c31577d3972222d83b978a..c48e4becece7d8ace417acde3699b373c0e76d98 100644 (file)
   tasks:
 
     - name: destroy osd.2
-      command: "ceph osd destroy osd.2 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.2 --yes-i-really-mean-it"
 
     - name: destroy osd.0
-      command: "ceph osd destroy osd.0 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.0 --yes-i-really-mean-it"
 
 
 - hosts: osds
 
     # osd.2 device
     - name: zap /dev/sdd1
-      command: "ceph-volume lvm zap /dev/sdd1 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdd1 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: zap /dev/sdd2
-      command: "ceph-volume lvm zap /dev/sdd2 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdd2 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: redeploy osd.2 using /dev/sdd1
-      command: "ceph-volume lvm create --filestore --data /dev/sdd1 --journal /dev/sdd2 --osd-id 2"
+      command: "ceph-volume --cluster {{ cluster }} lvm create --filestore --data /dev/sdd1 --journal /dev/sdd2 --osd-id 2"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     # osd.0 lv
     - name: zap test_group/data-lv1
-      command: "ceph-volume lvm zap test_group/data-lv1"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap test_group/data-lv1"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: zap /dev/sdc1
-      command: "ceph-volume lvm zap /dev/sdc1 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdc1 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: prepare osd.0 again using test_group/data-lv1
-      command: "ceph-volume lvm prepare --filestore --data test_group/data-lv1 --journal /dev/sdc1 --osd-id 0"
+      command: "ceph-volume --cluster {{ cluster }} lvm prepare --filestore --data test_group/data-lv1 --journal /dev/sdc1 --osd-id 0"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
index b6db0ac2f90fc04c79094ca4e1e7c7d1448fa7e6..19209b1d2113617102991608166657004b9750c9 100644 (file)
   tasks:
 
     - name: destroy osd.2
-      command: "ceph osd destroy osd.2 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.2 --yes-i-really-mean-it"
 
     - name: destroy osd.0
-      command: "ceph osd destroy osd.0 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.0 --yes-i-really-mean-it"
 
 
 - hosts: osds
 
     # osd.2 device
     - name: zap /dev/sdd1
-      command: "ceph-volume lvm zap /dev/sdd1 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdd1 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: redeploy osd.2 using /dev/sdd1
-      command: "ceph-volume lvm create --bluestore --data /dev/sdd1 --osd-id 2"
+      command: "ceph-volume --cluster {{ cluster }} lvm create --bluestore --data /dev/sdd1 --osd-id 2"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     # osd.0 lv
     - name: zap test_group/data-lv1
-      command: "ceph-volume lvm zap test_group/data-lv1"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap test_group/data-lv1"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: redeploy osd.0 using test_group/data-lv1
-      command: "ceph-volume lvm create --bluestore --data test_group/data-lv1 --osd-id 0"
+      command: "ceph-volume --cluster {{ cluster }} lvm create --bluestore --data test_group/data-lv1 --osd-id 0"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
@@ -60,7 +60,7 @@
   tasks:
 
     - name: destroy osd.0
-      command: "ceph osd destroy osd.0 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.0 --yes-i-really-mean-it"
 
 
 - hosts: osds
   tasks:
 
     - name: zap test_group/data-lv1
-      command: "ceph-volume lvm zap test_group/data-lv1"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap test_group/data-lv1"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: prepare osd.0 using test_group/data-lv1
-      command: "ceph-volume lvm prepare --bluestore --data test_group/data-lv1 --osd-id 0"
+      command: "ceph-volume --cluster {{ cluster }} lvm prepare --bluestore --data test_group/data-lv1 --osd-id 0"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
index 5dc67ade18c169bb77c31577d3972222d83b978a..c48e4becece7d8ace417acde3699b373c0e76d98 100644 (file)
   tasks:
 
     - name: destroy osd.2
-      command: "ceph osd destroy osd.2 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.2 --yes-i-really-mean-it"
 
     - name: destroy osd.0
-      command: "ceph osd destroy osd.0 --yes-i-really-mean-it"
+      command: "ceph --cluster {{ cluster }} osd destroy osd.0 --yes-i-really-mean-it"
 
 
 - hosts: osds
 
     # osd.2 device
     - name: zap /dev/sdd1
-      command: "ceph-volume lvm zap /dev/sdd1 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdd1 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: zap /dev/sdd2
-      command: "ceph-volume lvm zap /dev/sdd2 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdd2 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: redeploy osd.2 using /dev/sdd1
-      command: "ceph-volume lvm create --filestore --data /dev/sdd1 --journal /dev/sdd2 --osd-id 2"
+      command: "ceph-volume --cluster {{ cluster }} lvm create --filestore --data /dev/sdd1 --journal /dev/sdd2 --osd-id 2"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     # osd.0 lv
     - name: zap test_group/data-lv1
-      command: "ceph-volume lvm zap test_group/data-lv1"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap test_group/data-lv1"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: zap /dev/sdc1
-      command: "ceph-volume lvm zap /dev/sdc1 --destroy"
+      command: "ceph-volume --cluster {{ cluster }} lvm zap /dev/sdc1 --destroy"
       environment:
         CEPH_VOLUME_DEBUG: 1
 
     - name: prepare osd.0 again using test_group/data-lv1
-      command: "ceph-volume lvm prepare --filestore --data test_group/data-lv1 --journal /dev/sdc1 --osd-id 0"
+      command: "ceph-volume --cluster {{ cluster }} lvm prepare --filestore --data test_group/data-lv1 --journal /dev/sdc1 --osd-id 0"
       environment:
         CEPH_VOLUME_DEBUG: 1