]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephadm: Add admonition re restarting an OSD service 62797/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Fri, 11 Apr 2025 14:29:52 +0000 (10:29 -0400)
committerZac Dover <zac.dover@proton.me>
Sun, 13 Apr 2025 23:43:39 +0000 (09:43 +1000)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
(cherry picked from commit 524db4609f5f0b4639828b327cfc972243e08ce7)

doc/cephadm/operations.rst
doc/cephadm/services/osd.rst

index 716f260dae6967a76c71500d2045b4b8e9376f2b..1f72445ef66b0d2ff076773311cab1d1d4b5da93 100644 (file)
@@ -51,17 +51,23 @@ You can stop, start, or restart a daemon with:
 
 .. prompt:: bash #
 
-   ceph orch daemon stop <name>
-   ceph orch daemon start <name>
-   ceph orch daemon restart <name>
+   ceph orch daemon stop <daemonid>
+   ceph orch daemon start <daemonid>
+   ceph orch daemon restart <daemonid>
 
 You can also do the same for all daemons for a service with:   
 
 .. prompt:: bash #
 
-   ceph orch stop <name>
-   ceph orch start <name>
-   ceph orch restart <name>
+   ceph orch stop <serviceid>
+   ceph orch start <serviceid>
+   ceph orch restart <serviceid>
+
+.. note::
+    It is usually not safe to run ``ceph orch restart osd.myosdservice`` on a
+    running cluster, as attention is not paid to CRUSH failure domains, and
+    parallel OSD restarts may lead to temporary data unavailability or in rare
+    cases even data loss.
 
 
 Redeploying or reconfiguring a daemon
index e4f68d20b88d7f4f8f51bfa4aee5adb5ba7fcd48..928cc91282946daabdfed76eaeb5e55acd38202f 100644 (file)
@@ -1144,6 +1144,13 @@ This procedure assumes the existence of two hosts: ``ceph01`` and ``ceph04``.
 post pertinent to its development can be seen here:*
 `Eugen Block's "Cephadm: Activate existing OSDs" blog post <https://heiterbiswolkig.blogs.nde.ag/2025/02/06/cephadm-activate-existing-osds/>`_.
 
+.. note::
+    It is usually not safe to run ``ceph orch restart osd.myosdservice`` on a
+    running cluster, as attention is not paid to CRUSH failure domains, and
+    parallel OSD restarts may lead to temporary data unavailability or in rare
+    cases even data loss.
+
+
 Further Reading
 ===============