]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph-ansible.git/commitdiff
remove all NBSPs char in stable-3.2 branch
authorGuillaume Abrioux <gabrioux@redhat.com>
Wed, 10 Apr 2019 07:23:17 +0000 (09:23 +0200)
committerGuillaume Abrioux <gabrioux@redhat.com>
Wed, 10 Apr 2019 11:27:48 +0000 (13:27 +0200)
this can cause issues, let's replace all of these chars with real
spaces.

Signed-off-by: Guillaume Abrioux <gabrioux@redhat.com>
RELEASE-NOTE.md
infrastructure-playbooks/purge-cluster.yml
infrastructure-playbooks/rolling_update.yml
roles/ceph-client/tasks/create_users_keys.yml
roles/ceph-common/tasks/facts_mon_fsid.yml
roles/ceph-nfs/tasks/create_rgw_nfs_user.yml
roles/ceph-osd/tasks/openstack_config.yml
roles/ceph-rgw/handlers/main.yml
roles/ceph-validate/tasks/check_ipaddr_mon.yml

index e7bce1102a78d6755e67b53130ed1e30b0b89bd9..f32b5b3e45980967a2347cd8c8f025b555d0a11b 100644 (file)
@@ -556,7 +556,7 @@ Notable changes from stable-3.1
 * [98cb6ed8](https://github.com/ceph/ceph-ansible/commit/98cb6ed8) - tests: avoid yum failures (Guillaume Abrioux)
 * [144b2fce](https://github.com/ceph/ceph-ansible/commit/144b2fce) - python-netaddr is required to generate ceph.conf (Ha Phan)
 * [e91648a7](https://github.com/ceph/ceph-ansible/commit/e91648a7) - rolling_update: add role ceph-iscsi-gw (Sébastien Han)
-* [2890b57c](https://github.com/ceph/ceph-ansible/commit/2890b57c) - Add privilege escalation to iscsi purge tasks (Paul Cuzner)
+* [2890b57c](https://github.com/ceph/ceph-ansible/commit/2890b57c) - Add privilege escalation to iscsi purge tasks (Paul Cuzner)
 * [608ea947](https://github.com/ceph/ceph-ansible/commit/608ea947) - mds: move mds fs pools creation (Guillaume Abrioux)
 * [1c084efb](https://github.com/ceph/ceph-ansible/commit/1c084efb) - rgw: container add option to configure multi-site zone (Sébastien Han)
 * [82884801](https://github.com/ceph/ceph-ansible/commit/82884801) - playbook: follow up on #2553 (Guillaume Abrioux)
index 7dd2401bb2e3482695b1660a6b066cbd2883bd98..0f63cc340897a4b2ad1ba942cd977022bfaca1d8 100644 (file)
@@ -41,7 +41,7 @@
     - "{{ rbdmirror_group_name|default('rbdmirrors') }}"
     - "{{ nfs_group_name|default('nfss') }}"
     - "{{ client_group_name|default('clients') }}"
-    - "{{ mgr_group_name|default('mgrs') }}"
+    - "{{ mgr_group_name|default('mgrs') }}"
 
   become: true
 
   - name: wipe partitions
     shell: |
       wipefs --all "{{ item }}"
-      dd if=/dev/zero of="{{ item }}" bs=1 count=4096
+      dd if=/dev/zero of="{{ item }}" bs=1 count=4096
     with_items: "{{ combined_devices_list }}"
 
   - name: zap ceph journal/block db/block wal partitions
index 7872c7201c735abbd4cf6fc594d25c9ff6715b34..63311681ab441d6d05e0a0319003e198e69fd20b 100644 (file)
 
   pre_tasks:
     - name: non container - get current fsid
-      command: "ceph --cluster {{ cluster }} fsid"
+      command: "ceph --cluster {{ cluster }} fsid"
       register: cluster_uuid_non_container
       delegate_to: "{{ groups[mon_group_name][0] }}"
       when:
         - not containerized_deployment
 
     - name: container - get current fsid
-      command: "docker exec ceph-mon-{{ hostvars[groups[mon_group_name][0]]['ansible_hostname'] }} ceph --cluster {{ cluster }} fsid"
+      command: "docker exec ceph-mon-{{ hostvars[groups[mon_group_name][0]]['ansible_hostname'] }} ceph --cluster {{ cluster }} fsid"
       register: cluster_uuid_container
       delegate_to: "{{ groups[mon_group_name][0] }}"
       when:
index 9151c695dbe75dcb677ed3f83ab8cc5c42307425..d8165d0b1bed39fb1d39f6d201a402438b0adeab 100644 (file)
@@ -70,7 +70,7 @@
   when:
     - cephx
     - keys | length > 0
-    - inventory_hostname == groups.get('_filtered_clients') | first
+    - inventory_hostname == groups.get('_filtered_clients') | first
 
 - name: slurp client cephx key(s)
   slurp:
@@ -82,7 +82,7 @@
   when:
     - cephx
     - keys | length > 0
-    - inventory_hostname == groups.get('_filtered_clients') | first
+    - inventory_hostname == groups.get('_filtered_clients') | first
 
 - name: pool related tasks
   when:
 
 - name: get client cephx keys
   copy:
-    dest: "{{ item.source }}"
+    dest: "{{ item.source }}"
     content: "{{ item.content | b64decode }}"
     mode: "{{ item.item.get('mode', '0600') }}"
     owner: "{{ ceph_uid }}"
index 8b6bc2a4eab0b6afa3ece2bf69fdf854d9e17a1d..5bdbb6d1935f6fda644121249730b606a2a7278b 100644 (file)
@@ -1,24 +1,24 @@
 ---
-- name: check if /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring already exists
+- name: check if /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring already exists
   stat:
-    path: /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring
+    path: /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring
   register: initial_mon_keyring
 
-- name: fail if /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring doesn't exist
+- name: fail if /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring doesn't exist
   fail:
-    msg: "/var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring not found"
+    msg: "/var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring not found"
   when:
     - not initial_mon_keyring.stat.exists
 
 - name: get existing initial mon keyring if it already exists but not monitor_keyring.conf in {{ fetch_directory }}
   shell: |
-    grep key /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring | sed 's/^.*= //'
+    grep key /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring | sed 's/^.*= //'
   register: monitor_keyring
   when:
     - not monitor_keyring_conf.stat.exists
 
 - name: test existing initial mon keyring
-  command: ceph --connect-timeout 3 --cluster {{ cluster }} --keyring /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring -n mon. fsid
+  command: ceph --connect-timeout 3 --cluster {{ cluster }} --keyring /var/lib/ceph/mon/{{ cluster }}-{{ monitor_name }}/keyring -n mon. fsid
   register: test_initial_monitor_keyring
   ignore_errors: true
 
index 73f6e36907c356f97e4d9ff7c140a59d33b5faa5..2df8479085b582ca4e96613c7420b93f56d668fc 100644 (file)
@@ -6,7 +6,7 @@
     - containerized_deployment
 
 - name: check if "{{ ceph_nfs_rgw_user }}" exists
-  command: "{{ docker_exec_cmd_nfs | default('') }} radosgw-admin --cluster {{ cluster }} user info --uid={{ ceph_nfs_rgw_user }}"
+  command: "{{ docker_exec_cmd_nfs | default('') }} radosgw-admin --cluster {{ cluster }} user info --uid={{ ceph_nfs_rgw_user }}"
   run_once: true
   register: rgwuser_exists
   changed_when: false
@@ -16,7 +16,7 @@
     - nfs_obj_gw
 
 - name: create rgw nfs user "{{ ceph_nfs_rgw_user }}"
-  command: "{{ docker_exec_cmd_nfs | default('') }} radosgw-admin --cluster {{ cluster }} user create --uid={{ ceph_nfs_rgw_user }} --display-name='RGW NFS User'"
+  command: "{{ docker_exec_cmd_nfs | default('') }} radosgw-admin --cluster {{ cluster }} user create --uid={{ ceph_nfs_rgw_user }} --display-name='RGW NFS User'"
   run_once: true
   register: rgwuser
   changed_when: false
index a72d5ab8f1107ba03a4ff86b5f63178f1547a4f3..19d00b0a0f05d6f3f6ff68b1d6170c46ab631f20 100644 (file)
@@ -3,7 +3,7 @@
   shell: >
     test "$({{ hostvars[groups[mon_group_name][0]]['docker_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} -s -f json | python -c 'import sys, json; print(json.load(sys.stdin)["osdmap"]["osdmap"]["num_osds"])')" -gt 0 &&
     test "$({{ hostvars[groups[mon_group_name][0]]['docker_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} -s -f json | python -c 'import sys, json; print(json.load(sys.stdin)["osdmap"]["osdmap"]["num_osds"])')" =
-    "$({{ hostvars[groups[mon_group_name][0]]['docker_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} -s -f json | python -c 'import sys, json; print(json.load(sys.stdin)["osdmap"]["osdmap"]["num_up_osds"])')"
+    "$({{ hostvars[groups[mon_group_name][0]]['docker_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} -s -f json | python -c 'import sys, json; print(json.load(sys.stdin)["osdmap"]["osdmap"]["num_up_osds"])')"
   register: wait_for_all_osds_up
   retries: "{{ nb_retry_wait_osd_up }}"
   delay: "{{ delay_wait_osd_up }}"
@@ -83,7 +83,7 @@
 
 - name: copy to other mons the openstack cephx key(s)
   copy:
-    src: "{{ fetch_directory }}/{{ fsid }}/etc/ceph/{{ cluster }}.{{ item.1.name }}.keyring"
+    src: "{{ fetch_directory }}/{{ fsid }}/etc/ceph/{{ cluster }}.{{ item.1.name }}.keyring"
     dest: "/etc/ceph/{{ cluster }}.{{ item.1.name }}.keyring"
     owner: "{{ ceph_uid }}"
     group: "{{ ceph_uid }}"
index f4b6318ca5456ba5a17d34db7a71d7b554fee13e..129078767b31ae36d0a41710486c4b0de394047c 100644 (file)
@@ -1,6 +1,6 @@
 ---
 - name: update period
-  command: "{{ docker_exec_cmd }} radosgw-admin --cluster {{ cluster }} period update --commit"
+  command: "{{ docker_exec_cmd }} radosgw-admin --cluster {{ cluster }} period update --commit"
   delegate_to: "{{ groups[mon_group_name][0] }}"
   run_once: true
 
index e5cb1074f3ce62af7feaf8ad6778ac5f00bfdb07..4e2174a4cf30874bf5f63144dd44438af7470e72 100644 (file)
@@ -3,4 +3,4 @@
   fail:
     msg: "{{ inventory_hostname }} does not have any {{ ip_version }} address on {{ monitor_address_block }}"
   when:
-    - hostvars[inventory_hostname]['ansible_all_' + ip_version + '_addresses'] | ipaddr(hostvars[inventory_hostname]['monitor_address_block']) | length == 0
+    - hostvars[inventory_hostname]['ansible_all_' + ip_version + '_addresses'] | ipaddr(hostvars[inventory_hostname]['monitor_address_block']) | length == 0