]> git.apps.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
doc: add notes about --dry-run
authorJoshua Schmid <jschmid@suse.de>
Mon, 6 Jul 2020 09:59:49 +0000 (11:59 +0200)
committerJoshua Schmid <jschmid@suse.de>
Wed, 22 Jul 2020 14:01:56 +0000 (16:01 +0200)
Signed-off-by: Joshua Schmid <jschmid@suse.de>
doc/cephadm/drivegroups.rst
doc/mgr/orchestrator.rst

index e4f9bd8c83dedf7327671f042defbcdac21d1e58..f1dd523e2220473a61d64296a5ea58eaccbefc9c 100644 (file)
@@ -40,6 +40,14 @@ This will go out on all the matching hosts and deploy these OSDs.
 
 Since we want to have more complex setups, there are more filters than just the 'all' filter.
 
+Also, there is a `--dry-run` flag that can be passed to the `apply osd` command, which gives you a synopsis
+of the proposed layout.
+
+Example::
+
+  [monitor 1] # ceph orch apply osd -i /path/to/osd_spec.yml --dry-run
+
+
 
 Filters
 =======
index aefc92d9079662825fc7921b970be8ba911ca377..0e1ed50ddf76c04f8f3e1228735577c6619d4af9 100644 (file)
@@ -154,25 +154,23 @@ Example command::
 Create OSDs
 -----------
 
-Create OSDs on a group of devices on a single host::
+Create OSDs on a set of devices on a single host::
 
     ceph orch daemon add osd <host>:device1,device2
 
 Example::
-
-    # ceph orch daemon add osd node1:/dev/vdd
-    Created 1 OSD on host 'node1' using device '/dev/vdd'
-
+=========
 or::
 
-    ceph orch apply osd -i <json_file/yaml_file>
+    ceph orch apply osd -i <json_file/yaml_file> [--dry-run]
+
 
 Where the ``json_file/yaml_file`` is a DriveGroup specification.
 For a more in-depth guide to DriveGroups please refer to :ref:`drivegroups`
 
 or::
 
-    ceph orch apply osd --all-available-devices
+    ceph orch apply osd --all-available-devices [--dry-run]
 
 If the 'apply' method is used. You will be presented with a preview of what will happen.
 
@@ -261,25 +259,18 @@ The previously set the 'destroyed' flag is used to determined osd ids that will
 If you use OSDSpecs for osd deployment, your newly added disks will be assigned with the osd ids of their replaced
 counterpart, granted the new disk still match the OSDSpecs.
 
-For assistance in this process you can use the 'preview' feature:
-
-Example::
-
-
-    ceph orch apply osd --service-name <name_of_osd_spec> --preview
-    NAME                  HOST  DATA     DB WAL
-    <name_of_osd_spec>    node1 /dev/vdb -  -
+For assistance in this process you can use the '--dry-run' feature:
 
 Tip: The name of your OSDSpec can be retrieved from **ceph orch ls**
 
 Alternatively, you can use your OSDSpec file::
 
-    ceph orch apply osd -i <osd_spec_file> --preview
+    ceph orch apply osd -i <osd_spec_file> --dry-run
     NAME                  HOST  DATA     DB WAL
     <name_of_osd_spec>    node1 /dev/vdb -  -
 
 
-If this matches your anticipated behavior, just omit the --preview flag to execute the deployment.
+If this matches your anticipated behavior, just omit the --dry-run flag to execute the deployment.
 
 
 ..
@@ -318,13 +309,13 @@ error if it doesn't know how to do this transition.
 
 Update the number of monitor hosts::
 
-    ceph orch apply mon <num> [host, host:network...]
+    ceph orch apply mon <num> [host, host:network...] [--dry-run]
 
 Each host can optionally specify a network for the monitor to listen on.
 
 Update the number of manager hosts::
 
-    ceph orch apply mgr <num> [host...]
+    ceph orch apply mgr <num> [host...] [--dry-run]
 
 ..
     .. note::
@@ -400,9 +391,9 @@ The ``name`` parameter is an identifier of the group of instances:
 
 Creating/growing/shrinking/removing services::
 
-    ceph orch apply mds <fs_name> [--placement=<placement>]
-    ceph orch apply rgw <realm> <zone> [--subcluster=<subcluster>] [--port=<port>] [--ssl] [--placement=<placement>]
-    ceph orch apply nfs <name> <pool> [--namespace=<namespace>] [--placement=<placement>]
+    ceph orch apply mds <fs_name> [--placement=<placement>] [--dry-run]
+    ceph orch apply rgw <realm> <zone> [--subcluster=<subcluster>] [--port=<port>] [--ssl] [--placement=<placement>] [--dry-run]
+    ceph orch apply nfs <name> <pool> [--namespace=<namespace>] [--placement=<placement>] [--dry-run]
     ceph orch rm <service_name> [--force]
 
 Where ``placement`` is a :ref:`orchestrator-cli-placement-spec`.
@@ -624,7 +615,7 @@ specification.
 
 3. Apply the new ``ServiceSpec``::
 
-    ceph orch apply -i myservice.yaml
+    ceph orch apply -i myservice.yaml [--dry-run]
 
 Configuring the Orchestrator CLI
 ================================