]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados/operations/bluestore-migration: Add instruction for evacuating
authorDavid Galloway <dgallowa@redhat.com>
Fri, 8 Sep 2017 14:46:21 +0000 (10:46 -0400)
committerAlfredo Deza <adeza@redhat.com>
Fri, 2 Mar 2018 15:18:25 +0000 (10:18 -0500)
host

Signed-off-by: David Galloway <dgallowa@redhat.com>
(cherry picked from commit a9314f0a172b9607180a9212fbe405654365d56a)

doc/rados/operations/bluestore-migration.rst

index b4253e892b004b36f2390371c48497831d7d6501..e144b0ce0ed73f0f4e6ca02e5ea9ff96a28bb6e0 100644 (file)
@@ -126,6 +126,20 @@ the data migrating only once.
 
      ceph osd crush add-bucket $NEWHOST host
 
+   If you would like to use an existing host that is already part of the cluster,
+   and there is sufficient free space on that host so that all of its data can
+   be migrated off, then you can instead do::
+
+     ceph osd crush unlink $NEWHOST default
+
+   where "default" is the immediate ancestor in the CRUSH map. (For smaller
+   clusters with unmodified configurations this will normally be "default", but
+   it might also be a rack name.) This will move the host out of the CRUSH
+   hierarchy and cause all data to be migrated off. Once it is completely empty of
+   data, you can proceed::
+
+     while ! ceph osd safe-to-destroy $(ceph osd ls-tree $NEWHOST); do sleep 60 ; done
+
 #. Provision new BlueStore OSDs for all devices::
 
      ceph-disk prepare --bluestore /dev/$DEVICE