]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: update MDS upgrade procedure
authorPatrick Donnelly <pdonnell@redhat.com>
Tue, 30 Mar 2021 21:46:45 +0000 (14:46 -0700)
committerPatrick Donnelly <pdonnell@redhat.com>
Mon, 16 Aug 2021 21:23:31 +0000 (14:23 -0700)
Now that CompatSet changes to the FSMap no longer cause old MDS to
suicide.

Signed-off-by: Patrick Donnelly <pdonnell@redhat.com>
(cherry picked from commit efb70f2b336b119ca99fe2abb79428ab4d3453a2)

PendingReleaseNotes
doc/cephfs/upgrading.rst

index a775bc5668d02d950aa311d913e2b64da0d7e2f4..37beeaf38907bfbadffc9fd9c82ed9e1204813e4 100644 (file)
@@ -9,6 +9,9 @@
   that were storing state in RADOS omap, especially without striping which
   limits scalability.
 
+* MDS upgrades no longer require stopping all standby MDS daemons before
+  upgrading the sole active MDS for a file system.
+
 * RGW: It is possible to specify ssl options and ciphers for beast frontend now.
   The default ssl options setting is "no_sslv2:no_sslv3:no_tlsv1:no_tlsv1_1".
   If you want to return back the old behavior add 'ssl_options=' (empty) to
index e9df8c0c74300738ef751caaf2c24d680ff85a46..2dc29e1298bb1fc5c7815f5f09bacb63ab8e51b6 100644 (file)
@@ -6,13 +6,11 @@ flags to support seamless upgrades of the MDSs without potentially causing
 assertions or other faults due to incompatible messages or other functional
 differences. For this reason, it's necessary during any cluster upgrade to
 reduce the number of active MDS for a file system to one first so that two
-active MDS do not communicate with different versions.  Further, it's also
-necessary to take standbys offline as any new CompatSet flags will propagate
-via the MDSMap to all MDS and cause older MDS to suicide.
+active MDS do not communicate with different versions.
 
 The proper sequence for upgrading the MDS cluster is:
 
-1. Disable and stop standby-replay daemons.
+1. For each file system, disable and stop standby-replay daemons.
 
 ::
 
@@ -27,7 +25,7 @@ command. Older versions of Ceph require you to stop these daemons manually.
     ceph mds fail mds.<X>
 
 
-2. Reduce the number of ranks to 1:
+2. For each file system, reduce the number of ranks to 1:
 
 ::
 
@@ -39,43 +37,20 @@ command. Older versions of Ceph require you to stop these daemons manually.
 
     ceph status # wait for MDS to finish stopping
 
-4. Take all standbys offline, e.g. using systemctl:
-
-::
-
-    systemctl stop ceph-mds.target
-
-5. Confirm only one MDS is online and is rank 0 for your FS:
-
-::
-
-    ceph status
-
-6. Upgrade the single active MDS, e.g. using systemctl:
-
-::
-
-    # use package manager to update cluster
-    systemctl restart ceph-mds.target
-
-7. Upgrade/start the standby daemons.
+4. For each MDS, upgrade packages and restart. Note: to reduce failovers, it is
+   recommended -- but not strictly necessary -- to first upgrade standby daemons.
 
 ::
 
     # use package manager to update cluster
     systemctl restart ceph-mds.target
 
-8. Restore the previous max_mds for your cluster:
+5. For each file system, restore the previous max_mds and allow_standby_replay settings for your cluster:
 
 ::
 
     ceph fs set <fs_name> max_mds <old_max_mds>
-
-9. Restore setting for ``allow_standby_replay`` (if applicable):
-
-::
-
-    ceph fs set <fs_name> allow_standby_replay true
+    ceph fs set <fs_name> allow_standby_replay <old_allow_standby_replay>
 
 
 Upgrading pre-Firefly file systems past Jewel