]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: multimds is no longer experimental 15154/head
authorJohn Spray <john.spray@redhat.com>
Thu, 18 May 2017 10:54:13 +0000 (06:54 -0400)
committerJohn Spray <john.spray@redhat.com>
Fri, 23 Jun 2017 16:07:34 +0000 (17:07 +0100)
Signed-off-by: John Spray <john.spray@redhat.com>
doc/cephfs/experimental-features.rst
doc/cephfs/mantle.rst

index bdfa998a99e2cfbe99e24f404e30964fe8e7e6e7..5e5b414ecbea50d3e44110fad8a4bbe121a67823 100644 (file)
@@ -23,22 +23,7 @@ failures within it are unlikely to make non-inlined data inaccessible
 Inline data has always been off by default and requires setting
 the "inline_data" flag.
 
-Multi-MDS filesystem clusters
------------------------------
-CephFS has been designed from the ground up to support fragmenting the metadata
-hierarchy across multiple active metadata servers, to allow horizontal scaling
-to arbitrary throughput requirements. Unfortunately, doing so requires a lot
-more working code than having a single MDS which is authoritative over the
-entire filesystem namespace.
-
-Multiple active MDSes are generally stable under trivial workloads, but often
-break in the presence of any failure, and do not have enough testing to offer
-any stability guarantees. If a filesystem with multiple active MDSes does
-experience failure, it will require (generally extensive) manual intervention.
-There are serious known bugs.
-
-Multi-MDS filesystems have always required explicitly increasing the "max_mds"
-value and have been further protected with the "allow_multimds" flag for Jewel.
+
 
 Mantle: Programmable Metadata Load Balancer
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
@@ -102,3 +87,21 @@ the ``allow_dirfrags`` flag on the filesystem:
 
     ceph fs set <filesystem name> allow_dirfrags
 
+Multiple active metadata servers
+--------------------------------
+
+Prior to the *Luminous* (12.2.x) release, running multiple active metadata
+servers within a single filesystem was considered experimental.  Creating
+multiple active metadata servers is now permitted by default on new
+filesystems.
+
+Filesystems created with older versions of Ceph still require explicitly
+enabling multiple active metadata servers as follows:
+
+::
+
+    ceph fs set <filesystem name> allow_multimds
+
+Note that the default size of the active mds cluster (``max_mds``) is
+still set to 1 initially.
+
index 8a7d729ac38fe7996551b5f08437b0993128ed75..6ad973e2dbd9a81928cc9f2856ad8356115d7e42 100644 (file)
@@ -76,7 +76,6 @@ Mantle with `vstart.sh`
 
 ::
 
-    bin/ceph fs set cephfs allow_multimds true --yes-i-really-mean-it
     bin/ceph fs set cephfs max_mds 5
     bin/ceph fs set cephfs_a balancer greedyspill.lua