]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephadm: indent yaml specs
authorSebastian Wagner <sewagner@redhat.com>
Wed, 20 Oct 2021 12:45:03 +0000 (14:45 +0200)
committerSebastian Wagner <sewagner@redhat.com>
Tue, 2 Nov 2021 09:02:21 +0000 (10:02 +0100)
properly conform with other service types

Signed-off-by: Sebastian Wagner <sewagner@redhat.com>
(cherry picked from commit 84dce06aa85c2a20ec81b7be38aeed8e83615415)

doc/cephadm/services/osd.rst

index cdc9dda5ae39277c9d6d09f0c111147af988259a..13ba196d006c9b75674d049aa964b4b73bf05c4a 100644 (file)
@@ -441,11 +441,12 @@ Create a file called (for example) ``osd_spec.yml``:
 .. code-block:: yaml
 
     service_type: osd
-    service_id: default_drive_group  <- name of the drive_group (name can be custom)
+    service_id: default_drive_group  # custom name of the osd spec
     placement:
-      host_pattern: '*'              <- which hosts to target, currently only supports globs
-    data_devices:                    <- the type of devices you are applying specs to
-      all: true                      <- a filter, check below for a full list
+      host_pattern: '*'              # which hosts to target
+    spec:
+      data_devices:                  # the type of devices you are applying specs to
+        all: true                    # a filter, check below for a full list
 
 This means :
 
@@ -625,9 +626,10 @@ This example would deploy all OSDs with encryption enabled.
     service_id: example_osd_spec
     placement:
       host_pattern: '*'
-    data_devices:
-      all: true
-    encrypted: true
+    spec:
+      data_devices:
+        all: true
+      encrypted: true
 
 See a full list in the DriveGroupSpecs
 
@@ -665,10 +667,11 @@ This is a common setup and can be described quite easily:
     service_id: osd_spec_default
     placement:
       host_pattern: '*'
-    data_devices:
-      model: HDD-123-foo <- note that HDD-123 would also be valid
-    db_devices:
-      model: MC-55-44-XZ <- same here, MC-55-44 is valid
+    spec:
+      data_devices:
+        model: HDD-123-foo <- note that HDD-123 would also be valid
+      db_devices:
+        model: MC-55-44-XZ <- same here, MC-55-44 is valid
 
 However, we can improve it by reducing the filters on core properties of the drives:
 
@@ -678,10 +681,11 @@ However, we can improve it by reducing the filters on core properties of the dri
     service_id: osd_spec_default
     placement:
       host_pattern: '*'
-    data_devices:
-      rotational: 1
-    db_devices:
-      rotational: 0
+    spec:
+      data_devices:
+        rotational: 1
+      db_devices:
+        rotational: 0
 
 Now, we enforce all rotating devices to be declared as 'data devices' and all non-rotating devices will be used as shared_devices (wal, db)
 
@@ -693,10 +697,11 @@ If you know that drives with more than 2TB will always be the slower data device
     service_id: osd_spec_default
     placement:
       host_pattern: '*'
-    data_devices:
-      size: '2TB:'
-    db_devices:
-      size: ':2TB'
+    spec:
+      data_devices:
+        size: '2TB:'
+      db_devices:
+        size: ':2TB'
 
 Note: All of the above DriveGroups are equally valid. Which of those you want to use depends on taste and on how much you expect your node layout to change.
 
@@ -735,20 +740,22 @@ This can be described with two layouts.
     service_id: osd_spec_hdd
     placement:
       host_pattern: '*'
-    data_devices:
-      rotational: 0
-    db_devices:
-      model: MC-55-44-XZ
-      limit: 2 (db_slots is actually to be favoured here, but it's not implemented yet)
+    spec:
+      data_devices:
+        rotational: 0
+      db_devices:
+        model: MC-55-44-XZ
+        limit: 2 (db_slots is actually to be favoured here, but it's not implemented yet)
     ---
     service_type: osd
     service_id: osd_spec_ssd
     placement:
       host_pattern: '*'
-    data_devices:
-      model: MC-55-44-XZ
-    db_devices:
-      vendor: VendorC
+    spec:
+      data_devices:
+        model: MC-55-44-XZ
+      db_devices:
+        vendor: VendorC
 
 This would create the desired layout by using all HDDs as data_devices with two SSD assigned as dedicated db/wal devices.
 The remaining SSDs(8) will be data_devices that have the 'VendorC' NVMEs assigned as dedicated db/wal devices.
@@ -793,19 +800,21 @@ You can use the 'host_pattern' key in the layout to target certain nodes. Salt t
     service_id: osd_spec_node_one_to_five
     placement:
       host_pattern: 'node[1-5]'
-    data_devices:
-      rotational: 1
-    db_devices:
-      rotational: 0
+    spec:
+      data_devices:
+        rotational: 1
+      db_devices:
+        rotational: 0
     ---
     service_type: osd
     service_id: osd_spec_six_to_ten
     placement:
       host_pattern: 'node[6-10]'
-    data_devices:
-      model: MC-55-44-XZ
-    db_devices:
-      model: SSD-123-foo
+    spec:
+      data_devices:
+        model: MC-55-44-XZ
+      db_devices:
+        model: SSD-123-foo
 
 This applies different OSD specs to different hosts depending on the `host_pattern` key.
 
@@ -841,12 +850,13 @@ The OSD spec for this case would look like the following (using the `model` filt
     service_id: osd_spec_default
     placement:
       host_pattern: '*'
-    data_devices:
-      model: MC-55-44-XZ
-    db_devices:
-      model: SSD-123-foo
-    wal_devices:
-      model: NVME-QQQQ-987
+    spec:
+      data_devices:
+        model: MC-55-44-XZ
+      db_devices:
+        model: SSD-123-foo
+      wal_devices:
+        model: NVME-QQQQ-987
 
 
 It is also possible to specify directly device paths in specific hosts like the following:
@@ -859,14 +869,15 @@ It is also possible to specify directly device paths in specific hosts like the
       hosts:
         - Node01
         - Node02
-    data_devices:
-      paths:
+    spec:
+      data_devices:
+        paths:
         - /dev/sdb
-    db_devices:
-      paths:
+      db_devices:
+        paths:
         - /dev/sdc
-    wal_devices:
-      paths:
+      wal_devices:
+        paths:
         - /dev/sdd