]> git.apps.os.sepia.ceph.com Git - ceph-ansible.git/commitdiff
align cephfs pool creation
authorRishabh Dave <ridave@redhat.com>
Tue, 10 Apr 2018 09:32:58 +0000 (11:32 +0200)
committerGuillaume Abrioux <gabrioux@redhat.com>
Thu, 13 Jun 2019 07:44:05 +0000 (09:44 +0200)
The definitions of cephfs pools should match openstack pools.

Signed-off-by: Rishabh Dave <ridave@redhat.com>
Co-Authored-by: Simone Caronni <simone.caronni@teralytics.net>
group_vars/all.yml.sample
group_vars/rhcs.yml.sample
roles/ceph-defaults/defaults/main.yml
roles/ceph-mds/tasks/create_mds_filesystems.yml
roles/ceph-nfs/tasks/start_nfs.yml
roles/ceph-nfs/templates/ganesha.conf.j2
tests/functional/all_daemons/ceph-override.json
tests/functional/all_daemons/group_vars/all
tests/functional/ooo-collocation/hosts

index 305d14e2db86a644741ec9825401a9deea57168e..28bb0ce8b4f9beb3dd8a3fe7ab67e32f0741c142 100644 (file)
@@ -341,24 +341,28 @@ dummy:
 # CEPHFS #
 ##########
 #cephfs: cephfs # name of the ceph filesystem
-#cephfs_data: cephfs_data # name of the data pool for a given filesystem
-#cephfs_metadata: cephfs_metadata # name of the metadata pool for a given filesystem
-
 #cephfs_data_pool:
-#  name: "{{ cephfs_data }}"
-#  pgs: "{{ osd_pool_default_pg_num }}"
+#  name: "{{ cephfs_data if cephfs_data is defined else 'cephfs_data' }}"
+#  pg_num: "{{ osd_pool_default_pg_num }}"
+#  pgp_num: "{{ osd_pool_default_pg_num }}"
+#  rule_name: "replicated_rule"
+#  type: 1
+#  erasure_profile: ""
+#  expected_num_objects: ""
+#  application: "cephfs"
 #  size: "{{ osd_pool_default_size }}"
 #  min_size: "{{ osd_pool_default_min_size }}"
-#  rule_name: "replicated_rule"
-
 #cephfs_metadata_pool:
-#  name: "{{ cephfs_metadata }}"
-#  pgs: "{{ osd_pool_default_pg_num }}"
+#  name: "{{ cephfs_metadata if cephfs_metadata is defined else 'cephfs_metadata' }}"
+#  pg_num: "{{ osd_pool_default_pg_num }}"
+#  pgp_num: "{{ osd_pool_default_pg_num }}"
+#  rule_name: "replicated_rule"
+#  type: 1
+#  erasure_profile: ""
+#  expected_num_objects: ""
+#  application: "cephfs"
 #  size: "{{ osd_pool_default_size }}"
 #  min_size: "{{ osd_pool_default_min_size }}"
-#  rule_name: "replicated_rule"
-
-
 #cephfs_pools:
 #  - "{{ cephfs_data_pool }}"
 #  - "{{ cephfs_metadata_pool }}"
index b67529cb2599e91a4843e23e41cb85f6ffad9714..f1fc0a04fb685034fdb414bd263038c03ce3fda4 100644 (file)
@@ -341,24 +341,28 @@ ceph_rhcs_version: 4
 # CEPHFS #
 ##########
 #cephfs: cephfs # name of the ceph filesystem
-#cephfs_data: cephfs_data # name of the data pool for a given filesystem
-#cephfs_metadata: cephfs_metadata # name of the metadata pool for a given filesystem
-
 #cephfs_data_pool:
-#  name: "{{ cephfs_data }}"
-#  pgs: "{{ osd_pool_default_pg_num }}"
+#  name: "{{ cephfs_data if cephfs_data is defined else 'cephfs_data' }}"
+#  pg_num: "{{ osd_pool_default_pg_num }}"
+#  pgp_num: "{{ osd_pool_default_pg_num }}"
+#  rule_name: "replicated_rule"
+#  type: 1
+#  erasure_profile: ""
+#  expected_num_objects: ""
+#  application: "cephfs"
 #  size: "{{ osd_pool_default_size }}"
 #  min_size: "{{ osd_pool_default_min_size }}"
-#  rule_name: "replicated_rule"
-
 #cephfs_metadata_pool:
-#  name: "{{ cephfs_metadata }}"
-#  pgs: "{{ osd_pool_default_pg_num }}"
+#  name: "{{ cephfs_metadata if cephfs_metadata is defined else 'cephfs_metadata' }}"
+#  pg_num: "{{ osd_pool_default_pg_num }}"
+#  pgp_num: "{{ osd_pool_default_pg_num }}"
+#  rule_name: "replicated_rule"
+#  type: 1
+#  erasure_profile: ""
+#  expected_num_objects: ""
+#  application: "cephfs"
 #  size: "{{ osd_pool_default_size }}"
 #  min_size: "{{ osd_pool_default_min_size }}"
-#  rule_name: "replicated_rule"
-
-
 #cephfs_pools:
 #  - "{{ cephfs_data_pool }}"
 #  - "{{ cephfs_metadata_pool }}"
index 632ffde3d19253dad1f1e6210231df9faf7557a9..d14ab05d0b0498470a4285d05b668bba46a38314 100644 (file)
@@ -333,24 +333,28 @@ mon_host_v2:
 # CEPHFS #
 ##########
 cephfs: cephfs # name of the ceph filesystem
-cephfs_data: cephfs_data # name of the data pool for a given filesystem
-cephfs_metadata: cephfs_metadata # name of the metadata pool for a given filesystem
-
 cephfs_data_pool:
-  name: "{{ cephfs_data }}"
-  pgs: "{{ osd_pool_default_pg_num }}"
+  name: "{{ cephfs_data if cephfs_data is defined else 'cephfs_data' }}"
+  pg_num: "{{ osd_pool_default_pg_num }}"
+  pgp_num: "{{ osd_pool_default_pg_num }}"
+  rule_name: "replicated_rule"
+  type: 1
+  erasure_profile: ""
+  expected_num_objects: ""
+  application: "cephfs"
   size: "{{ osd_pool_default_size }}"
   min_size: "{{ osd_pool_default_min_size }}"
-  rule_name: "replicated_rule"
-
 cephfs_metadata_pool:
-  name: "{{ cephfs_metadata }}"
-  pgs: "{{ osd_pool_default_pg_num }}"
+  name: "{{ cephfs_metadata if cephfs_metadata is defined else 'cephfs_metadata' }}"
+  pg_num: "{{ osd_pool_default_pg_num }}"
+  pgp_num: "{{ osd_pool_default_pg_num }}"
+  rule_name: "replicated_rule"
+  type: 1
+  erasure_profile: ""
+  expected_num_objects: ""
+  application: "cephfs"
   size: "{{ osd_pool_default_size }}"
   min_size: "{{ osd_pool_default_min_size }}"
-  rule_name: "replicated_rule"
-
-
 cephfs_pools:
   - "{{ cephfs_data_pool }}"
   - "{{ cephfs_metadata_pool }}"
index 6689deb4f4d143b3370b5f7d6718166b58bc72d1..a45c2b6d832416609973e36e1c08534976b3c1d2 100644 (file)
@@ -25,8 +25,8 @@
           command: >
             {{ hostvars[groups[mon_group_name][0]]['container_exec_cmd'] | default('') }} ceph --cluster {{ cluster }}
             osd pool create {{ item.name }}
-            {{ item.pg_num | default(item.pgs) | default(osd_pool_default_pg_num) }}
-            {{ item.pgp_num | default(item.pgs) | default(item.pg_num) | default(osd_pool_default_pg_num) }}
+            {{ item.pg_num | default(osd_pool_default_pg_num) }}
+            {{ item.pgp_num | default(item.pg_num) }}
             {{ 'replicated_rule' if not item.rule_name | default('replicated_rule') else item.rule_name | default('replicated_rule') }}
             {{ 1 if item.type|default(1) == 'replicated' else 3 if item.type|default(1) == 'erasure' else item.type|default(1) }}
             {%- if (item.type | default("1") == '3' or item.type | default("1") == 'erasure') and item.erasure_profile != '' %}
           when: (item.min_size | default(osd_pool_default_min_size))|int > ceph_osd_pool_default_min_size
 
         - name: assign application to cephfs pools
-          command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} osd pool application enable {{ item }} cephfs"
+          command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} osd pool application enable {{ item.name }} {{ item.application }}"
           with_items:
-            - "{{ cephfs_data }}"
-            - "{{ cephfs_metadata }}"
+            - "{{ cephfs_data_pool }}"
+            - "{{ cephfs_metadata_pool }}"
           changed_when: false
 
 - name: check and create ceph filesystem
@@ -66,7 +66,7 @@
       failed_when: false
 
     - name: create ceph filesystem
-      command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} fs new {{ cephfs }} {{ cephfs_metadata }} {{ cephfs_data }}"
+      command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} fs new {{ cephfs }} {{ cephfs_metadata_pool.name }} {{ cephfs_data_pool.name }}"
       changed_when: false
       when: check_existing_cephfs.rc != 0
 
index 5813778483db66fb26f73061a8f593be236fcc8a..ee10235265f75eef5d4575cad6652c8f8c04dd2b 100644 (file)
@@ -6,7 +6,7 @@
     when: containerized_deployment | bool
 
   - name: check if rados index object exists
-    shell: "{{ container_exec_cmd_nfs | default('') }} rados -p {{ cephfs_data }} --cluster {{ cluster }} ls|grep {{ ceph_nfs_rados_export_index }}"
+    shell: "{{ container_exec_cmd_nfs | default('') }} rados -p {{ cephfs_data_pool.name }} --cluster {{ cluster }} ls|grep {{ ceph_nfs_rados_export_index }}"
     changed_when: false
     failed_when: false
     register: rados_index_exists
@@ -16,7 +16,7 @@
     run_once: true
 
   - name: create an empty rados index object
-    command: "{{ container_exec_cmd_nfs | default('') }} rados -p {{ cephfs_data }} --cluster {{ cluster }} put {{ ceph_nfs_rados_export_index }} /dev/null"
+    command: "{{ container_exec_cmd_nfs | default('') }} rados -p {{ cephfs_data_pool.name }} --cluster {{ cluster }} put {{ ceph_nfs_rados_export_index }} /dev/null"
     when:
       - ceph_nfs_rados_backend | bool
       - rados_index_exists.rc != 0
index b441db7048baafd2e286983c0a3b399da7ff00eb..e95d6aee16b831334ab2f15f84abdb7fc39519d1 100644 (file)
@@ -33,7 +33,7 @@ RADOS_URLS {
    ceph_conf = '/etc/ceph/{{ cluster }}.conf';
    userid = "{{ ceph_nfs_ceph_user }}";
 }
-%url rados://{{ cephfs_data }}/{{ ceph_nfs_rados_export_index }}
+%url rados://{{ cephfs_data_pool.name }}/{{ ceph_nfs_rados_export_index }}
 
 NFSv4 {
        RecoveryBackend = 'rados_kv';
@@ -41,7 +41,7 @@ NFSv4 {
 RADOS_KV {
        ceph_conf = '/etc/ceph/{{ cluster }}.conf';
        userid = "{{ ceph_nfs_ceph_user }}";
-       pool = "{{ cephfs_data }}";
+       pool = "{{ cephfs_data_pool.name }}";
 }
 {% endif %}
 
index e7d6137a68695214c91c4f8c419436e184da1c82..cd4f4ca00a41e941bd2b0c3d093bcb49690c7b13 100644 (file)
   },
   "cephfs_pools": [
     {
-      "name": "cephfs_metadata",
-      "pgs": 8,
-      "size": 1
+      "name": "cephfs_data",
+      "pg_num": 8,
+      "pgp_num": 8,
+      "rule_name": "replicated_rule",
+      "type": 1,
+      "erasure_profile": "",
+      "expected_num_objects": "",
+      "application": "cephfs",
+      "size": 3,
+      "min_size": 0
     },
     {
-      "name": "cephfs_data",
-      "pgs": 8,
-      "size": 1
+      "name": "cephfs_metadata",
+      "pg_num": 8,
+      "pgp_num": 8,
+      "rule_name": "replicated_rule",
+      "type": 1,
+      "erasure_profile": "",
+      "expected_num_objects": "",
+      "application": "cephfs",
+      "size": 3,
+      "min_size": 0
     }
   ],
   "ceph_mon_docker_memory_limit": "2g"
index a12c41d8df24f0f06bd87992c1ff625ac24ae1d1..21e0918ec72634cff98658dd530c992e92185025 100644 (file)
@@ -30,4 +30,4 @@ openstack_cinder_pool:
   application: rbd
 openstack_pools:
   - "{{ openstack_glance_pool }}"
-  - "{{ openstack_cinder_pool }}"
\ No newline at end of file
+  - "{{ openstack_cinder_pool }}"
index 1275a105b97cb6536677ee9b1e0b625efb185eb5..12f1e35d11dd6147d49a9b7d805f9e18d119789b 100644 (file)
@@ -15,11 +15,31 @@ all:
     ceph_repository: community
     ceph_release: luminous
     ceph_stable: true
-    cephfs_data: manila_data
-    cephfs_metadata: manila_metadata
+    cephfs_data_pool:
+      name: 'manila_data'
+      pg_num: "{{ osd_pool_default_pg_num }}"
+      pgp_num: "{{ osd_pool_default_pg_num }}"
+      rule_name: "replicated_rule"
+      type: 1
+      erasure_profile: ""
+      expected_num_objects: ""
+      application: "cephfs"
+      size: "{{ osd_pool_default_size }}"
+      min_size: "{{ osd_pool_default_min_size }}"
+    cephfs_metadata_pool:
+      name: 'manila_metadata'
+      pg_num: "{{ osd_pool_default_pg_num }}"
+      pgp_num: "{{ osd_pool_default_pg_num }}"
+      rule_name: "replicated_rule"
+      type: 1
+      erasure_profile: ""
+      expected_num_objects: ""
+      application: "cephfs"
+      size: "{{ osd_pool_default_size }}"
+      min_size: "{{ osd_pool_default_min_size }}"
     cephfs_pools:
-    - {name: manila_data, pgs: 8}
-    - {name: manila_metadata, pgs: 8}
+      - "{{ cephfs_data_pool }}"
+      - "{{ cephfs_metadata_pool }}"
     cluster_network: 192.168.96.0/24
     containerized_deployment: true
     devices: [/dev/sda, /dev/sdb, /dev/sdc]