]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephadm: osd: minor fixes in config examples 46880/head
authorAlex Handy <thinko@users.noreply.github.com>
Tue, 28 Jun 2022 17:27:23 +0000 (10:27 -0700)
committerGitHub <noreply@github.com>
Tue, 28 Jun 2022 17:27:23 +0000 (10:27 -0700)
- Corrected drive counts (8 to 10) and rotational flag use (not consistent with HDD) in the "Multiple OSD specs for a single host" example
- Adjusted vendor names in "Multiple hosts with the same disk layout" for consistency of examples

Signed-off-by: Alex Handy <thinko@redhat.com>
doc/cephadm/services/osd.rst

index c4260b84d90a45304388a95e26ec5a963e6b057e..dd1cda84db1c59ee23ebff32b964234c340bafbe 100644 (file)
@@ -643,6 +643,7 @@ See a full list in the DriveGroupSpecs
    :members:
    :exclude-members: from_json
 
+
 Examples
 ========
 
@@ -746,7 +747,7 @@ This can be described with two layouts.
       host_pattern: '*'
     spec:
       data_devices:
-        rotational: 0
+        rotational: 1
       db_devices:
         model: MC-55-44-XZ
         limit: 2 # db_slots is actually to be favoured here, but it's not implemented yet
@@ -762,7 +763,7 @@ This can be described with two layouts.
         vendor: VendorC
 
 This would create the desired layout by using all HDDs as data_devices with two SSD assigned as dedicated db/wal devices.
-The remaining SSDs(8) will be data_devices that have the 'VendorC' NVMEs assigned as dedicated db/wal devices.
+The remaining SSDs(10) will be data_devices that have the 'VendorC' NVMEs assigned as dedicated db/wal devices.
 
 Multiple hosts with the same disk layout
 ----------------------------------------
@@ -782,11 +783,11 @@ Node1-5
 .. code-block:: none
 
     20 HDDs
-    Vendor: Intel
+    Vendor: VendorA
     Model: SSD-123-foo
     Size: 4TB
     2 SSDs
-    Vendor: VendorA
+    Vendor: VendorB
     Model: MC-55-44-ZX
     Size: 512GB
 
@@ -795,11 +796,11 @@ Node6-10
 .. code-block:: none
 
     5 NVMEs
-    Vendor: Intel
+    Vendor: VendorA
     Model: SSD-123-foo
     Size: 4TB
     20 SSDs
-    Vendor: VendorA
+    Vendor: VendorB
     Model: MC-55-44-ZX
     Size: 512GB
 
@@ -827,6 +828,7 @@ You can use the 'placement' key in the layout to target certain nodes.
       db_devices:
         model: SSD-123-foo
 
+
 This applies different OSD specs to different hosts depending on the `placement` key.
 See :ref:`orchestrator-cli-placement-spec`