]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephadm: add note about OSDs being recreated to OSD removal section 47102/head
authorAdam King <adking@redhat.com>
Tue, 12 Jul 2022 20:54:19 +0000 (16:54 -0400)
committerAdam King <adking@redhat.com>
Thu, 14 Jul 2022 15:09:02 +0000 (11:09 -0400)
Signed-off-by: Adam King <adking@redhat.com>
(cherry picked from commit d4a39cd046b93cb7bb5b7ce0311139d9f6552802)

doc/cephadm/services/osd.rst

index c4260b84d90a45304388a95e26ec5a963e6b057e..70a4ad0cd13d71323ed6d43e32a01c185a6c5e2d 100644 (file)
@@ -245,6 +245,18 @@ Expected output::
 
 OSDs that are not safe to destroy will be rejected.
 
+.. note::
+    After removing OSDs, if the drives the OSDs were deployed on once again
+    become available, cephadm may automatically try to deploy more OSDs
+    on these drives if they match an existing drivegroup spec. If you deployed
+    the OSDs you are removing with a spec and don't want any new OSDs deployed on
+    the drives after removal, it's best to modify the drivegroup spec before removal.
+    Either set ``unmanaged: true`` to stop it from picking up new drives at all,
+    or modify it in some way that it no longer matches the drives used for the
+    OSDs you wish to remove. Then re-apply the spec. For more info on drivegroup
+    specs see :ref:`drivegroups`. For more info on the declarative nature of
+    cephadm in reference to deploying OSDs, see :ref:`cephadm-osd-declarative`
+
 Monitoring OSD State
 --------------------