]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephadm: adjust osd removal docs
authorJoshua Schmid <jschmid@suse.de>
Tue, 28 Jul 2020 07:35:56 +0000 (09:35 +0200)
committerSebastian Wagner <sebastian.wagner@suse.com>
Tue, 4 Aug 2020 14:21:44 +0000 (16:21 +0200)
Signed-off-by: Joshua Schmid <jschmid@suse.de>
(cherry picked from commit 9606f4d6023d2663469b0857ce879ea1ae41c166)

doc/mgr/orchestrator.rst

index f5a13ee2ef8fa53f44365d357148788f4e21bd76..d1d81406df86366328e1da9dcd1ea16dea00d3f2 100644 (file)
@@ -199,16 +199,16 @@ In the case that you have already created the OSD's using the ``all-available-de
     ceph orch osd spec --service-name  osd.all-available-devices --unmanaged
 
 Remove an OSD
--------------------
+-------------
 ::
 
-    ceph orch osd rm <svc_id>... [--replace] [--force]
+    ceph orch osd rm <svc_id(s)> [--replace] [--force]
 
-Removes one or more OSDs from the cluster.
+Evacuates PGs from an OSD and removes it from the cluster.
 
 Example::
 
-    # ceph orch osd rm 4
+    # ceph orch osd rm 0
     Scheduled OSD(s) for removal
 
 
@@ -217,10 +217,10 @@ OSDs that are not safe-to-destroy will be rejected.
 You can query the state of the operation with::
 
     # ceph orch osd rm status
-    NAME  HOST  PGS STARTED_AT
-    osd.7 node1 55 2020-04-22 19:28:38.785761
-    osd.5 node3 3 2020-04-22 19:28:34.201685
-    osd.3 node2 0 2020-04-22 19:28:34.201695
+    OSD_ID  HOST         STATE                    PG_COUNT  REPLACE  FORCE  STARTED_AT
+    2       cephadm-dev  done, waiting for purge  0         True     False  2020-07-17 13:01:43.147684
+    3       cephadm-dev  draining                 17        False    True   2020-07-17 13:01:45.162158
+    4       cephadm-dev  started                  42        False    True   2020-07-17 13:01:45.162158
 
 
 When no PGs are left on the osd, it will be decommissioned and removed from the cluster.
@@ -229,11 +229,28 @@ When no PGs are left on the osd, it will be decommissioned and removed from the
     After removing an OSD, if you wipe the LVM physical volume in the device used by the removed OSD, a new OSD will be created.
     Read information about the ``unmanaged`` parameter in :ref:`orchestrator-cli-create-osds`.
 
+Stopping OSD Removal
+--------------------
+
+You can stop the operation with
+
+::
+
+    ceph orch osd rm stop <svc_id(s)>
+
+Example::
+
+    # ceph orch osd rm stop 4
+    Stopped OSD(s) removal
+
+This will reset the initial state of the OSD and remove it from the queue.
+
+
 Replace an OSD
 -------------------
 ::
 
-    orch osd rm <svc_id>... --replace [--force]
+    orch osd rm <svc_id(s)> --replace [--force]
 
 Example::