]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados/operations/bluestore-migration: Add instruction for evacuating 17602/head
authorDavid Galloway <dgallowa@redhat.com>
Fri, 8 Sep 2017 14:46:21 +0000 (10:46 -0400)
committerDavid Galloway <dgallowa@redhat.com>
Fri, 8 Sep 2017 14:48:32 +0000 (10:48 -0400)
host

Signed-off-by: David Galloway <dgallowa@redhat.com>
doc/rados/operations/bluestore-migration.rst

index ac9b44beccfc0071ae9f848103f9162a2b89778c..0bf05cec9b837667201108a21cec3bb0c69f529d 100644 (file)
@@ -126,6 +126,20 @@ the data migrating only once.
 
      ceph osd crush add-bucket $NEWHOST host
 
+   If you would like to use an existing host that is already part of the cluster,
+   and there is sufficient free space on that host so that all of its data can
+   be migrated off, then you can instead do::
+
+     ceph osd crush unlink $NEWHOST default
+
+   where "default" is the immediate ancestor in the CRUSH map. (For smaller
+   clusters with unmodified configurations this will normally be "default", but
+   it might also be a rack name.) This will move the host out of the CRUSH
+   hierarchy and cause all data to be migrated off. Once it is completely empty of
+   data, you can proceed::
+
+     while ! ceph osd safe-to-destroy $(ceph osd ls-tree $NEWHOST); do sleep 60 ; done
+
 #. Provision new BlueStore OSDs for all devices::
 
      ceph-disk prepare --bluestore /dev/$DEVICE