]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: add links for pacific cephfs features
authorPatrick Donnelly <pdonnell@redhat.com>
Mon, 29 Mar 2021 16:46:32 +0000 (09:46 -0700)
committerDavid Galloway <dgallowa@redhat.com>
Wed, 31 Mar 2021 15:44:11 +0000 (11:44 -0400)
Note: cephfs-mirror does not yet have user-facing documentation to link
to.

Signed-off-by: Patrick Donnelly <pdonnell@redhat.com>
doc/cephfs/ceph-dokan.rst
doc/cephfs/cephfs-top.rst
doc/cephfs/fs-nfs-exports.rst
doc/cephfs/multimds.rst
doc/cephfs/snap-schedule.rst
doc/releases/pacific.rst

index 6ddb57082d4fcc643ae6a11242fa4a4b2d5c5d69..d242fe6fccdc1d314e286a531ee3cfe033bac500 100644 (file)
@@ -1,3 +1,5 @@
+.. _ceph-dokan:
+
 =======================
 Mount CephFS on Windows
 =======================
index 47e80df9d2f14a4062628cc012557a337cb553f7..d409c5474529644126a4f4ef2a1c1f0153fb38fc 100644 (file)
@@ -1,3 +1,5 @@
+.. _cephfs-top:
+
 ==================
 CephFS Top Utility
 ==================
index 282a5e2842d898761273a296fe3411bcd010e7cd..5c5b60e3c971e0629a77be36006143b792bb7c61 100644 (file)
@@ -1,3 +1,6 @@
+.. _cephfs-nfs:
+
+
 =======================
 CephFS Exports over NFS
 =======================
index e22a84fac813727547828ac7ffc49d82f3113d8c..c257285072d03cbf7b10a08dda618cfc8e6d9e11 100644 (file)
@@ -136,6 +136,8 @@ directory's export pin. For example:
     # a/b is now pinned to rank 0 and a/ and the rest of its children are still pinned to rank 1
 
 
+.. _cephfs-ephemeral-pinning:
+
 Setting subtree partitioning policies
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
index aa1f31ea9f754df3db716cfbcdc6dc8b3469aa8d..6d25abadcc32c57ddba80c7efdbbd57cf6c2eb41 100644 (file)
@@ -1,3 +1,5 @@
+.. _snap-schedule:
+
 ==========================
 Snapshot Scheduling Module
 ==========================
index 729d5237c327f3c4161ec73d4d3061433d3f0031..3ae227f269406caceee29cc5c90fa232ca8ec93b 100644 (file)
@@ -119,40 +119,43 @@ CephFS distributed file system
   longer backwards compatible. It is not possible to downgrade a file system from
   Pacific (or later) to an older release.
 
-* Multiple file systems in a single Ceph cluster is now stable. New Ceph clusters
-  enable support for multiple file systems by default. Existing clusters
-  must still set the "enable_multiple" flag on the FS. Please see the CephFS
-  documentation for more information.
+* Multiple file systems in a single Ceph cluster is now stable. New Ceph
+  clusters enable support for multiple file systems by default. Existing clusters
+  must still set the "enable_multiple" flag on the FS. See also
+  :ref:`cephfs-multifs`.
 
-* A new ``mds_autoscaler`` plugin is available for automatically deploying
-  MDS daemons in response to changes to the ``max_mds`` configuration. Expect
-  further enhancements in the future to simplify MDS scaling.
+* A new ``mds_autoscaler`` ``ceph-mgr`` plugin is available for automatically
+  deploying MDS daemons in response to changes to the ``max_mds`` configuration.
+  Expect further enhancements in the future to simplify and automate MDS scaling.
 
 * ``cephfs-top`` is a new utility for looking at performance metrics from CephFS
-  clients. It is development preview quality and will have bugs. See the CephFS
-  documentation for more information.
+  clients. It is development preview quality and will have bugs. For more
+  information, see :ref:`cephfs-top`.
 
-* A new ``snap_schedule`` module provides a command toolset for scheduling
-  snapshots on a CephFS file system.
+* A new ``snap_schedule`` ``ceph-mgr`` plugin provides a command toolset for
+  scheduling snapshots on a CephFS file system. For more information, see
+  :ref:`snap-schedule`.
 
 * First class NFS gateway support in Ceph is here! It's now possible to create
   scale-out ("active-active") NFS gateway clusters that export CephFS using
   a few commands. The gateways are deployed via cephadm (or Rook, in the future).
+  For more information, see :ref:`cephfs-nfs`.
 
 * Multiple active MDS file system scrub is now stable. It is no longer necessary
   to set ``max_mds`` to 1 and wait for non-zero ranks to stop. Scrub commands
   can only be sent to rank 0: ``ceph tell mds.<fs_name>:0 scrub start /path ...``.
+  For more information, see :ref:`mds-scrub`.
 
 * Ephemeral pinning -- policy based subtree pinning -- is considered stable.
   ``mds_export_ephemeral_random`` and ``mds_export_ephemeral_distributed`` now
-  default to true.
+  default to true. For more information, see :ref:`cephfs-ephemeral-pinning`.
 
 * A new ``cephfs-mirror`` daemon is available to mirror CephFS file systems to
-  a remote Ceph cluster. See the CephFS documentation for details.
+  a remote Ceph cluster.
 
 * A Windows client is now available for connecting to CephFS. This is offered
   through a new ``ceph-dokan`` utility which operates via the Dokan userspace
-  API, similar to FUSE.  See the CephFS documentation for details.
+  API, similar to FUSE. For more information, see :ref:`ceph-dokan`.
 
 
 Upgrading from Octopus or Nautilus