]> git.apps.os.sepia.ceph.com Git - ceph-ansible.git/commitdiff
osd: clarify osd scenario prepare sequence 1264/head
authorSébastien Han <seb@redhat.com>
Wed, 1 Feb 2017 12:59:35 +0000 (13:59 +0100)
committerSébastien Han <seb@redhat.com>
Wed, 1 Feb 2017 12:59:35 +0000 (13:59 +0100)
we now use the name of the scenario in the prepare task.

Signed-off-by: Sébastien Han <seb@redhat.com>
roles/ceph-osd/tasks/scenarios/bluestore.yml
roles/ceph-osd/tasks/scenarios/dmcrypt-dedicated-journal.yml
roles/ceph-osd/tasks/scenarios/dmcrypt-journal-collocation.yml
roles/ceph-osd/tasks/scenarios/journal_collocation.yml
roles/ceph-osd/tasks/scenarios/osd_directory.yml
roles/ceph-osd/tasks/scenarios/raw_multi_journal.yml

index 2c5011c2bbf24dfee3261b68f02bfe9442647467..bf49d43f2d63860f5dee129f026173d4bf3ec048 100644 (file)
@@ -9,7 +9,7 @@
 
 # NOTE (alahouze): if the device is a partition, the parted command below has
 # failed, this is why we check if the device is a partition too.
-- name: automatic prepare osd disk(s) without partitions
+- name: automatic prepare bluestore osd disk(s) without partitions
   command: ceph-disk prepare --bluestore --cluster "{{ cluster }}" "/dev/{{ item.key }}"
   register: prepared_osds
   with_dict: "{{ ansible_devices }}"
@@ -20,7 +20,7 @@
     - bluestore
     - osd_auto_discovery
 
-- name: manually prepare osd disk(s)
+- name: manually prepare bluestore osd disk(s)
   command: ceph-disk prepare --bluestore --cluster "{{ cluster }}" "{{ item.2 }}"
   with_together:
     - "{{ parted_results.results }}"
index 04d3a7b42eece943a68f902635f2f86192655246..fe0b8e3c50ae47327fffa4c4e1ad139ef0bee749 100644 (file)
@@ -9,7 +9,7 @@
 
 # NOTE (alahouze): if the device is a partition, the parted command below has
 # failed, this is why we check if the device is a partition too.
-- name: prepare osd disk(s)
+- name: prepare dmcrypt osd disk(s) with a dedicated journal device
   command: "ceph-disk prepare --dmcrypt --cluster {{ cluster }} {{ item.2 }} {{ item.3 }}"
   with_together:
     - "{{ parted_results.results }}"
index a5431e69225c97c5423a5d40e8a40a0cd0be7cf0..cf656ed15aaeffd425d18529a0df07d50d208c1f 100644 (file)
@@ -9,7 +9,7 @@
 
 # NOTE (alahouze): if the device is a partition, the parted command below has
 # failed, this is why we check if the device is a partition too.
-- name: automatic prepare osd disk(s) without partitions (dmcrypt)
+- name: automatic prepare dmcrypt osd disk(s) without partitions with collocated osd data and journal
   command: ceph-disk prepare --dmcrypt --cluster "{{ cluster }}" "/dev/{{ item.key }}"
   with_dict: "{{ ansible_devices }}"
   when:
@@ -19,7 +19,7 @@
     - dmcrypt_journal_collocation
     - osd_auto_discovery
 
-- name: manually prepare osd disk(s) (dmcrypt)
+- name: manually prepare dmcrypt osd disk(s) with collocated osd data and journal
   command: ceph-disk prepare --dmcrypt --cluster "{{ cluster }}" "{{ item.2 }}"
   with_together:
     - "{{ parted_results.results }}"
index 7d286983e39ab57e58152614ebb557a24e7d08bf..4ea5788f166ee2b106594412c4b1ffd4d6d15e17 100644 (file)
@@ -9,7 +9,7 @@
 
 # NOTE (alahouze): if the device is a partition, the parted command below has
 # failed, this is why we check if the device is a partition too.
-- name: automatic prepare osd disk(s) without partitions
+- name: automatic prepare filestore osd disk(s) without partitions with collocated osd data and journal
   command: ceph-disk prepare --cluster "{{ cluster }}" "/dev/{{ item.key }}"
   register: prepared_osds
   with_dict: "{{ ansible_devices }}"
@@ -20,7 +20,7 @@
     - journal_collocation
     - osd_auto_discovery
 
-- name: manually prepare osd disk(s)
+- name: manually prepare filestore osd disk(s) with collocated osd data and journal
   command: "ceph-disk prepare --cluster {{ cluster }} {{ item.2 }}"
   with_together:
     - "{{ parted_results.results }}"
index f31cfc38f5846c90763e1e3f214439262960cbeb..6778e54c3925af21a805a65d6fd0c3c631e224ce 100644 (file)
 # NOTE (leseb): the prepare process must be parallelized somehow...
 # if you have 64 disks with 4TB each, this will take a while
 # since Ansible will sequential process the loop
-- name: prepare OSD disk(s)
+- name: prepare osd directory disk(s)
   command: "ceph-disk prepare --cluster {{ cluster }} {{ item }}"
   with_items: "{{ osd_directories }}"
   changed_when: false
   when: osd_directory
 
-- name: activate OSD(s)
+- name: activate osd(s)
   command: "ceph-disk activate {{ item }}"
   with_items: "{{ osd_directories }}"
   changed_when: false
 
-- name: start and add the OSD target to the systemd sequence
+- name: start and add osd target(s) to the systemd sequence
   service:
     name: ceph.target
     state: started
index 5321a3ede15668b54ac18cfd7a0ef3e52510e31b..79bc206425d1e008f22d8a3a03fbfa54657f4ead 100644 (file)
@@ -7,7 +7,7 @@
 # if you have 64 disks with 4TB each, this will take a while
 # since Ansible will sequential process the loop
 
-- name: prepare osd disk(s)
+- name: prepare filestore osd disk(s) with a dedicated journal device
   command: "ceph-disk prepare --cluster {{ cluster }} {{ item.1 }} {{ item.2 }}"
   with_together:
     - "{{ parted_results.results }}"