]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephfs: Fix spelling etc errors 67853/head
authorVille Ojamo <14869000+bluikko@users.noreply.github.com>
Mon, 16 Mar 2026 13:31:38 +0000 (20:31 +0700)
committerVille Ojamo <14869000+bluikko@users.noreply.github.com>
Mon, 23 Mar 2026 06:19:16 +0000 (13:19 +0700)
Signed-off-by: Ville Ojamo <git2233+ceph@ojamo.eu>
45 files changed:
doc/cephfs/add-remove-mds.rst
doc/cephfs/administration.rst
doc/cephfs/api/libcephfs-java.rst
doc/cephfs/api/libcephfs-py.rst
doc/cephfs/app-best-practices.rst
doc/cephfs/cache-configuration.rst
doc/cephfs/capabilities.rst
doc/cephfs/ceph-dokan.rst
doc/cephfs/cephfs-journal-tool.rst
doc/cephfs/cephfs-mirroring.rst
doc/cephfs/cephfs-top.rst
doc/cephfs/charmap.rst
doc/cephfs/client-auth.rst
doc/cephfs/client-config-ref.rst
doc/cephfs/createfs.rst
doc/cephfs/disaster-recovery-experts.rst
doc/cephfs/dynamic-metadata-management.rst
doc/cephfs/experimental-features.rst
doc/cephfs/file-layouts.rst
doc/cephfs/fs-volumes.rst
doc/cephfs/fscrypt.rst
doc/cephfs/full.rst
doc/cephfs/health-messages.rst
doc/cephfs/index.rst
doc/cephfs/kernel-features.rst
doc/cephfs/lazyio.rst
doc/cephfs/mdcache.rst
doc/cephfs/mds-journaling.rst
doc/cephfs/mds-states.rst
doc/cephfs/metrics.rst
doc/cephfs/mount-prerequisites.rst
doc/cephfs/mount-using-fuse.rst
doc/cephfs/mount-using-kernel-driver.rst
doc/cephfs/multifs.rst
doc/cephfs/multimds.rst
doc/cephfs/nfs.rst
doc/cephfs/posix.rst
doc/cephfs/purge-queue.rst
doc/cephfs/quota.rst
doc/cephfs/recover-fs-after-mon-store-loss.rst
doc/cephfs/scrub.rst
doc/cephfs/snap-schedule.rst
doc/cephfs/standby.rst
doc/cephfs/troubleshooting.rst
doc/cephfs/upgrading.rst

index 010326d9d6b47fec2007b40ce3fc80ddc3a22588..bad508277391633fc041480ae70cad15b76b702d 100644 (file)
@@ -15,7 +15,7 @@
 
 Each CephFS file system requires at least one MDS. The cluster operator will
 generally use their automated deployment tool to launch required MDS servers as
-needed.  Rook and ansible (via the ceph-ansible playbooks) are recommended
+needed.  Rook and Ansible (via the ceph-ansible playbooks) are recommended
 tools for doing this. For clarity, we also show the systemd commands here which
 may be run by the deployment technology if executed on bare-metal.
 
@@ -31,7 +31,7 @@ aggressive client loads uses about 2 to 3 CPU cores. This is due to the other
 miscellaneous upkeep threads working in tandem.
 
 Even so, it is recommended that an MDS server be well provisioned with an
-advanced CPU with sufficient cores. Development is on-going to make better use
+advanced CPU with sufficient cores. Development is ongoing to make better use
 of available CPU cores in the MDS; it is expected in future versions of Ceph
 that the MDS server will improve performance by taking advantage of more cores.
 
@@ -107,8 +107,8 @@ the following method.
 
        $ sudo systemctl stop ceph-mds@${id}
 
-   The MDS will automatically notify the Ceph monitors that it is going down.
-   This enables the monitors to perform instantaneous failover to an available
+   The MDS will automatically notify the Ceph Monitors that it is going down.
+   This enables the Monitors to perform instantaneous failover to an available
    standby, if one exists. It is unnecessary to use administrative commands to
    effect this failover, e.g. through the use of ``ceph mds fail mds.${id}``.
 
index 07646bff06786ac4c00292de86032be4fd4fe256..b18fd0717c89d8f996d4f7895ad60f2b3ac187f8 100644 (file)
@@ -67,7 +67,7 @@ Change a setting on a file system. These settings are specific to the named
 file system and do not affect other file systems. Confirmation flag is only
 needed for changing ``max_mds`` when cluster is unhealthy.
 
-.. note:: It is mandatory to pass confirmation flag (--yes--i-really-mean-it)
+.. note:: It is mandatory to pass confirmation flag (--yes-i-really-mean-it)
    for modifying FS setting variable ``max_mds`` when cluster is unhealthy.
    It has been added a precaution to tell users that modifying ``max_mds``
    during troubleshooting or recovery might not help. Instead, it might
@@ -96,14 +96,14 @@ system) cannot be removed.
 Rename a Ceph file system. This also changes the application tags on the data
 pools and metadata pool of the file system to the new file system name.
 The CephX IDs authorized to the old file system name need to be reauthorized
-to the new name. Any on-going operations of the clients using these IDs may be
+to the new name. Any ongoing operations of the clients using these IDs may be
 disrupted. Mirroring is expected to be disabled on the file system.
 
 ::
 
     fs swap <fs1-name> <fs1_id> <fs2-name> <fs2_id> [--swap-fscids=yes|no] [--yes-i-really-mean-it]
 
-Swaps names of two Ceph file sytems and updates the application tags on all
+Swaps names of two Ceph file systems and updates the application tags on all
 pools of both FSs accordingly. Certain tools that track FSCIDs of the file
 systems, besides the FS names, might get confused due to this operation. For
 this reason, mandatory option ``--swap-fscids`` has been provided that must be
@@ -113,7 +113,7 @@ used to indicate whether or not FSCIDs must be swapped.
 
 Before the swap, mirroring should be disabled on both the CephFSs
 (because the cephfs-mirror daemon uses the fscid internally and changing it
-while the daemon is running could result in undefined behaviour), both the
+while the daemon is running could result in undefined behavior), both the
 CephFSs should be offline and the file system flag ``refuse_client_sessions``
 must be set for both the CephFS.
 
@@ -128,7 +128,7 @@ file system as soon as it is seen to not exist.
 
 After the swap, CephX credentials may need to be reauthorized if the existing
 mounts should "follow" the old file system to its new name. Generally, for
-disaster recovery, its desirable for the existing mounts to continue using
+disaster recovery, it is desirable for the existing mounts to continue using
 the same file system name. Any active file system mounts for either CephFSs
 must remount. Existing unflushed operations will be lost. When it is judged
 that one of the swapped file systems is ready for clients, run::
@@ -478,6 +478,6 @@ pools. Non-zero ranks are saved in the stopped set.
 
 This command creates a file system with a specific **fscid** (file system cluster ID).
 You may want to do this when an application expects the file system's ID to be
-stable after it has been recovered, e.g., after monitor databases are lost and
+stable after it has been recovered, e.g., after Monitor databases are lost and
 rebuilt. Consequently, file system IDs don't always keep increasing with newer
 file systems.
index 83b5a6638801cdb1d97a26b6144cf888eb78aeef..29d4605b0c2ba6169fe1e4661ce51279041853db 100644 (file)
@@ -1,5 +1,5 @@
 ===================
-Libcephfs (JavaDoc)
+Libcephfs (Javadoc)
 ===================
 
 .. warning::
@@ -11,8 +11,8 @@ Libcephfs (JavaDoc)
     are encouraged to contribute!
 
 ..
-    The admin/build-docs script runs Ant to build the JavaDoc files, and
+    The admin/build-docs script runs Ant to build the Javadoc files, and
     copies them to api/libcephfs-java/javadoc/.
 
 
-View the auto-generated `JavaDoc pages for the CephFS Java bindings <javadoc/>`_.
+View the auto-generated `Javadoc pages for the CephFS Java bindings <javadoc/>`_.
index 039401f22272c95899813d395b22688aae13bb90..1585ec0ac00d4d0ab0704cf488d536802217d9fd 100644 (file)
@@ -4,7 +4,7 @@
 
 .. highlight:: python
 
-The `cephfs` python module provides access to CephFS service.
+The `cephfs` Python module provides access to the CephFS service.
 
 API calls
 =========
index 50bd3b689b5481f063a10b446b98245612be59d2..2d3d7d6692f43febd42f495795ef1d3f753f2e08 100644 (file)
@@ -9,7 +9,7 @@ e.g. NFS), there are some consequences that application authors may
 benefit from knowing about.
 
 The following sections describe some areas where distributed file systems
-may have noticeably different performance behaviours compared with
+may have noticeably different performance behaviors compared with
 local file systems.
 
 
@@ -45,7 +45,7 @@ fragmentation enables CephFS to handle it, it is always going to be
 less efficient than splitting your files into more modest-sized directories.
 
 Even standard userspace tools can become quite slow when operating on very
-large directories. For example, the default behaviour of ``ls``
+large directories. For example, the default behavior of ``ls``
 is to give an alphabetically ordered result, but ``readdir`` system
 calls do not give an ordered result (this is true in general, not just
 with CephFS).  So when you ``ls`` on a million file directory, it is
index d73488a15bd1d9e923d7431fa749fc990076ad59..823e87cca0aa7a55e3640a378acb2335581087ff 100644 (file)
@@ -21,7 +21,7 @@ When the MDS cache is too large, the MDS will **recall** client state so cache
 items become unpinned and eligible to be dropped. The MDS can only drop cache
 state when no clients refer to the metadata to be dropped. Also described below
 is how to configure the MDS recall settings for your workload's needs. This is
-necessary if the internal throttles on the MDS recall can not keep up with the
+necessary if the internal throttles on the MDS recall cannot keep up with the
 client workload.
 
 .. _cephfs_cache_configuration_mds_cache_memory_limit:
@@ -108,7 +108,7 @@ There is also a global decay counter that throttles for all session recall:
 
 .. confval:: mds_recall_global_max_decay_threshold
 
-its decay rate is the same as ``mds_recall_max_decay_rate``. Any recalled
+Its decay rate is the same as ``mds_recall_max_decay_rate``. Any recalled
 capability for any session also increments this counter.
 
 If clients are slow to release state, the warning "failing to respond to cache
@@ -212,7 +212,7 @@ Dealing with "clients failing to respond to cache pressure" messages
 --------------------------------------------------------------------
 
 Every second (or every interval set by the ``mds_cache_trim_interval``
-configuration paramater), the MDS runs the "cache trim" procedure. One of the
+configuration parameter), the MDS runs the "cache trim" procedure. One of the
 steps of this procedure is "recall client state". During this step, the MDS
 checks every client (session) to determine whether it needs to recall caps.
 If any of the following are true, then the MDS needs to recall caps:
index 79dfd3acebd65c4c52928e79a9569d65cee8f95b..9dd6966211b5034f0615ecdad1ae29e9ce2c09a6 100644 (file)
@@ -4,7 +4,7 @@ Capabilities in CephFS
 When a client wants to operate on an inode, it will query the MDS in various
 ways, which will then grant the client a set of **capabilities**. This
 grants the client permissions to operate on the inode in various ways. One
-of the major differences from other network file systems (e.g NFS or SMB) is
+of the major differences from other network file systems (e.g. NFS or SMB) is
 that the capabilities granted are quite granular, and it's possible that
 multiple clients can hold different capabilities on the same inodes.
 
@@ -119,7 +119,7 @@ states, and the MDS will issue capabilities to clients based on the lock
 state.
 
 In each state the MDS Locker will always try to issue all the capabilities to the
-clients allowed, even some capabilities are not needed or wanted by the clients,
+clients allowed, even if some capabilities are not needed or wanted by the clients,
 as pre-issuing capabilities could reduce latency in some cases.
 
 If there is only one client, usually it will be the loner client for all the inodes.
@@ -127,8 +127,8 @@ While in multiple clients case, the MDS will try to calculate a loner client out
 each inode depending on the capabilities the clients (needed | wanted), but usually
 it will fail. The loner client will always get all the capabilities.
 
-The filelock will control files' partial metadatas' and the file contents' access
-permissions. The metadatas include **mtime**, **atime**, **size**, etc.
+The filelock will control files' partial metadata and the file contents' access
+permissions. The metadata includes **mtime**, **atime**, **size**, etc.
 
 * **Fs**: Once a client has it, all other clients are denied **Fw**.
 
@@ -149,7 +149,7 @@ permissions. The metadatas include **mtime**, **atime**, **size**, etc.
   MDSes. The **Fcb** capabilities won't be granted to all the clients and the
   clients will do sync read/write.
 
-* **Fw**: If there is no loner client and once a client have this capability, the
+* **Fw**: If there is no loner client and once a client has this capability, the
   **Fsxcb** capabilities won't be granted to other clients.
 
   If multiple clients read from and write to the same file, then the lock state
@@ -176,7 +176,7 @@ permissions. The metadatas include **mtime**, **atime**, **size**, etc.
   forcing clients to drop dirty buffers, for example on a simple file size extension
   or truncating use case.
 
-* **Fl**: This capability means the clients could perform lazy io. LazyIO relaxes
+* **Fl**: This capability means the clients could perform lazy IO. LazyIO relaxes
   POSIX semantics. Buffered reads/writes are allowed even when a file is opened by
   multiple applications on multiple clients. Applications are responsible for managing
   cache coherency themselves.
index 3d8eafde5f277e98a5e300a9971de42dffdd72ef..5d8a36834619f1dd4094bd45f184ac52c24b69e8 100644 (file)
@@ -72,7 +72,7 @@ when mounting a CephFS file system. The following commands are equivalent::
     ceph-dokan --name client.foo -l x
 
 Unmounting file systems
------------------=-----
+-----------------------
 
 The mount can be removed by either issuing ctrl-c or using the unmap command,
 like so::
index e532f5a7e5fb058667cd063ceea903b3fff6bc40..d3e1cac48b04528575548b5712adca2b62a518b7 100644 (file)
@@ -148,7 +148,7 @@ Filtering:
 * ``--type <type string>`` only include events of this type
 * ``--frag <ino>[.frag id]`` only include events referring to this directory fragment
 * ``--dname <string>`` only include events referring to this named dentry within a directory
-  fragment (may only be used in conjunction with ``--frag``
+  fragment (may only be used in conjunction with ``--frag``)
 * ``--client <int>`` only include events from this client session ID
 
 Filters may be combined on an AND basis (i.e. only the intersection of events from each filter).
@@ -157,8 +157,8 @@ Output modes:
 
 * ``binary``: write each event as a binary file, within a folder whose name is controlled by ``--path``
 * ``json``: write all events to a single file specified by ``--path``, as a JSON serialized list of objects.
-* ``summary``: write a human readable summary of the events read to standard out
-* ``list``: write a human readable terse listing of the type of each event, and
+* ``summary``: write a human-readable summary of the events read to stdout
+* ``list``: write a human-readable terse listing of the type of each event, and
   which file paths the event affects.
 
 
index 243c784692a47a13af9c0d6270d118ac061d71af..f6a6baf0223d49f2a1edda023088a529352d20f5 100644 (file)
@@ -12,7 +12,7 @@ the source snapshot.
 Requirements
 ------------
 
-The primary (local) and secondary (remote) Ceph clusters version should be Pacific or later.
+The primary (local) and secondary (remote) Ceph cluster versions should be Pacific or later.
 
 .. _cephfs_mirroring_creating_users:
 
@@ -164,11 +164,11 @@ the remote filesystem as a peer to the primary filesystem ``primary_fs``:
 
 To avoid having to maintain the remote cluster configuration file and remote
 ceph user keyring in the primary cluster, users can bootstrap a peer (which
-stores the relevant remote cluster details in the monitor config store on the
+stores the relevant remote cluster details in the Monitor config store on the
 primary cluster). See the :ref:`Bootstrap
 Peers<cephfs_mirroring_bootstrap_peers>` section.
 
-The ``peer_add`` command supports passing the remote cluster monitor address
+The ``peer_add`` command supports passing the remote cluster Monitor address
 and the user key. However, bootstrapping a peer is the recommended way to add a
 peer.
 
@@ -238,7 +238,7 @@ Bootstrap Peers
 ---------------
 
 Adding a peer via the ``peer_add`` subcommand requires the peer cluster configuration and
-user keyring to be available in the primary cluster (manager host and hosts running the
+user keyring to be available in the primary cluster (Manager host and hosts running the
 mirror daemon). This can be avoided by bootstrapping and importing a peer token. Peer
 bootstrap involves creating a bootstrap token on the peer cluster via::
 
@@ -307,7 +307,7 @@ CephFS mirroring module provides ``mirror daemon status`` interface to check mir
 
 An entry per mirror daemon instance is displayed along with information such as configured
 peers and basic stats. The peer information includes the remote file system name (``fs_name``),
-cluster's monitor addresses (``mon_host``) and cluster FSID (``fsid``). For more detailed
+cluster's Monitor addresses (``mon_host``) and cluster FSID (``fsid``). For more detailed
 stats, use the admin socket interface as detailed below.
 
 CephFS mirror daemons provide admin socket commands for querying mirror status. To check
@@ -478,7 +478,7 @@ In the remote filesystem::
 When the snapshot or the directory is removed from the remote filesystem, the mirror daemon will
 clear the failed state upon successful synchronization of the pending snapshots, if any.
 
-.. note:: Setting snap-schedule on the remote flle system for directories that are being mirrored will
+.. note:: Setting snap-schedule on the remote file system for directories that are being mirrored will
           cause the mirror daemon to report errors like ``invalid metadata``.
 
 .. note:: Treat the remote filesystem as read-only. Nothing is inherently enforced by CephFS.
index 1588c4f5ced7ef365eb26012e4bf03c4156f22dd..257b5367c426fc48c8cb8cbaa8510c60ebe02e2d 100644 (file)
@@ -4,15 +4,15 @@
 CephFS Top Utility
 ==================
 
-CephFS provides `top(1)` like utility to display various Ceph Filesystem metrics
-in realtime. `cephfs-top` is a curses based python script which makes use of `stats`
+CephFS provides `top(1)`\-like utility to display various Ceph Filesystem metrics
+in real time. `cephfs-top` is a curses-based Python script which makes use of `stats`
 plugin in Ceph Manager to fetch (and display) metrics.
 
 Manager Plugin
 ==============
 
 Ceph Filesystem clients periodically forward various metrics to Ceph Metadata Servers (MDS)
-which in turn get forwarded to Ceph Manager by MDS rank zero. Each active MDS forward its
+which in turn get forwarded to Ceph Manager by MDS rank zero. Each active MDS forwards its
 respective set of metrics to MDS rank zero. Metrics are aggregated and forwarded to Ceph
 Manager.
 
@@ -56,7 +56,7 @@ To fetch metrics only for a subset of active MDSs (e.g., MDS rank 1 and 2)::
 ============
 
 `cephfs-top` utility relies on `stats` plugin to fetch performance metrics and display in
-`top(1)` like format. `cephfs-top` is available as part of `cephfs-top` package.
+`top(1)`\-like format. `cephfs-top` is available as part of `cephfs-top` package.
 
 By default, `cephfs-top` uses `client.fstop` user to connect to a Ceph cluster::
 
@@ -169,4 +169,4 @@ Sample screenshot running `cephfs-top` with 2 filesystems:
 
 .. image:: cephfs-top.png
 
-.. note:: Minimum compatible python version for cephfs-top is 3.6.0. cephfs-top is supported on distros RHEL 8, Ubuntu 18.04, CentOS 8 and above.
+.. note:: Minimum compatible Python version for cephfs-top is 3.6.0. cephfs-top is supported on distributions RHEL 8, Ubuntu 18.04, CentOS 8 and above.
index 8566b9110355cefe3b171415456b606bc788cee1..507bb86eaf54f63cd621db6caa2a0aa282c467b3 100644 (file)
@@ -40,7 +40,7 @@ inherit (copy) the parent's configuration.
           the configuration so long as the preconditions apply: it is empty
           and not part of an existing snapshot.
 
-.. warning:: The charmap is not applied to snapshot names. Snapshots names are always case-sensitive and not normalized.
+.. warning:: The charmap is not applied to snapshot names. Snapshot names are always case-sensitive and not normalized.
 
 Normalization
 -------------
@@ -92,7 +92,7 @@ will cause the default to be restored:
     # file: foo/
     ceph.dir.normalization="nfd"
 
-To remove normlization on a directory, you must remove the ``ceph.dir.charmap``
+To remove normalization on a directory, you must remove the ``ceph.dir.charmap``
 configuration.
 
 .. note:: The MDS maintains an ``alternate_name`` metadata (also used for
@@ -107,7 +107,7 @@ Case Folding
 
 The ``ceph.dir.casesensitive`` attribute accepts a boolean value. By default,
 names are case-sensitive (as normal in a POSIX file system). Setting this value
-to false will make the named entries in the directory (and its descendent
+to false will make the named entries in the directory (and its descendant
 directories) case-insensitive.
 
 Case folding requires that names are also normalized. By default, after setting
@@ -183,7 +183,7 @@ to use the file system at all:
 Permissions
 -----------
 
-As with other CephFS virtual extended atributes, a client may only set the
+As with other CephFS virtual extended attributes, a client may only set the
 ``charmap`` configuration on a directory with the **p** MDS auth cap.  Viewing
 the configuration does not require this cap.
 
index 61305e42212b523bc7cbe2d2892b04a0776d8a72..6ae1f75e892d224ecc830ac2820720f74f604fe0 100644 (file)
@@ -59,7 +59,7 @@ This results in::
    caps: [osd] allow rw tag cephfs data=cephfs_a
 
 To completely restrict the client to the ``bar`` directory, omit the
-root directory :
+root directory:
 
 .. prompt:: bash #
 
@@ -163,8 +163,8 @@ Network restriction
    caps: [mon] allow r network 10.0.0.0/8
    caps: [osd] allow rw tag cephfs data=cephfs_a network 10.0.0.0/8
 
-The optional ``{network/prefix}`` is a standard network-name-and-prefix length
-in CIDR notation (for example, ``10.3.0.0/16``). If ``{network/prefix}}`` is
+The optional ``{network/prefix}`` is a standard network-number-and-prefix-length
+in CIDR notation (for example, ``10.3.0.0/16``). If ``{network/prefix}`` is
 present, the use of this capability is restricted to clients connecting from
 this network.
 
index 8539a0f11c2ff1d7096578f5dcd89fc27a833f61..63e48e2538e4665bfe729f96aa212269650aa5ff 100644 (file)
@@ -4,7 +4,7 @@ Client Configuration
 Updating Client Configuration
 -----------------------------
 
-Certain client configurations can be applied at runtime. To check if a configuration option can be applied (taken into affect by a client) at runtime, use the `config help` command::
+Certain client configurations can be applied at runtime. To check if a configuration option can be applied (taken into effect by a client) at runtime, use the `config help` command::
 
    ceph config help debug_client
     debug_client - Debug level for client
index f8cea360405b51bfdfe0d5af4cb7907fdd66085c..e1192ea7170f7e04b05a5f7314dd6e1bdd9b4732 100644 (file)
@@ -92,7 +92,7 @@ after careful reading of the documentation.
 
 If the ``--fscid`` option is provided then this creates a file system with a
 specific fscid. This can be used when an application expects the file system's ID
-to be stable after it has been recovered, e.g., after monitor databases are
+to be stable after it has been recovered, e.g., after Monitor databases are
 lost and rebuilt. Consequently, file system IDs don't always keep increasing
 with newer file systems.
 
index f4bbcb723ad1486b2464e6b7d539437241ddf437..19efe64ac3666c96a0950fc564d392fe3116f1f9 100644 (file)
@@ -20,9 +20,8 @@ Advanced: Metadata repair tools
 .. note:: The Ceph file system must be offline before metadata repair tools can
    be used on it. The tools will complain if they are invoked when the file
    system is online. If any of the recovery steps do not complete successfully,
-   DO NOT proceeed to run any more recovery steps. If any recovery step fails,
-   seek help from experts via mailing lists and IRC channels and Slack
-   channels.
+   DO NOT proceed to run any more recovery steps. If any recovery step fails,
+   seek help from experts via mailing lists or IRC/Slack channels.
 
 Journal export
 --------------
@@ -90,7 +89,7 @@ file system has or had multiple active MDS daemons.
    journal data has been extracted by other means such as ``recover_dentries``.
    Resetting the journal is likely to leave orphaned objects in the data pool
    and could result in the re-allocation of already-written inodes resulting in
-   faulty behaviour of the file system (bugs, etc..).
+   faulty behavior of the file system (bugs, etc..).
 
 MDS table wipes
 ---------------
@@ -215,7 +214,7 @@ time for long running tasks.
     ceph -s
 
 The data scan tools (``scan_extents``, ``scan_inodes``, and ``scan_links``)
-will automatically report their progress to the Ceph manager if the ``cli_api``
+will automatically report their progress to the Ceph Manager if the ``cli_api``
 module is enabled. Progress updates include:
 
 - Number of objects processed and total objects
@@ -231,15 +230,15 @@ unique progress event identified by the operation name and process ID.
    to function. If progress updates are not appearing in ``ceph -s``, verify
    that:
 
-   - The ``cli_api`` manager module is enabled
+   - The ``cli_api`` Manager module is enabled
    - The ``ceph`` command is available in your PATH
    - Your ``CEPH_CONF`` environment variable (if set) points to a valid
      configuration file
 
 Progress updates will be automatically disabled if the system cannot
-communicate with the Ceph manager or if the required module is not available.
+communicate with the Ceph Manager or if the required module is not available.
 Console output will continue to show local progress information even if
-manager updates are disabled.
+Manager updates are disabled.
 
 If the root inode or MDS directory (``~mdsdir``) is missing or corrupt, run the following command: 
 
@@ -402,7 +401,7 @@ at recovery since the existing metadata pool would not be modified.
 
 #. Create a recovery file system. This recovery file system will be used to
    recover the data in the damaged pool. First, the filesystem will have a data
-   pool deployed for it. Then you will attacha new metadata pool to the new
+   pool deployed for it. Then you will attach a new metadata pool to the new
    data pool. Then you will set the new metadata pool to be backed by the old
    data pool. 
 
@@ -417,7 +416,7 @@ at recovery since the existing metadata pool would not be modified.
       The ``--recover`` flag prevents any MDS daemon from joining the new file
       system.
 
-#. Create the intial metadata for the file system:
+#. Create the initial metadata for the file system:
 
    .. prompt:: bash #
 
index 6e7ada9fca02e754c6687e96fdff63d7c48a797b..7b574c52252f9a9e01cb46cb873a6e9b421a7216 100644 (file)
@@ -26,8 +26,8 @@ growth by depth (across a single MDS) leads to a hotspot of activity.
 This results in lack of vertical scaling and wastage of non-busy resources/MDSs. 
 
 This led to the adoption of a more dynamic way of handling
-metadata: Dynamic Subtree Partitioning, where load intensive portions
-of the directory hierarchy from busy MDSs are migrated to non busy MDSs. 
+metadata: Dynamic Subtree Partitioning, where load-intensive portions
+of the directory hierarchy from busy MDSs are migrated to non-busy MDSs. 
 
 This strategy ensures that activity hotspots are relieved as they
 appear and so leads to vertical scaling of the metadata workload in
@@ -37,7 +37,7 @@ Export Process During Subtree Migration
 ---------------------------------------
 
 Once the exporter verifies that the subtree is permissible to be exported
-(Non degraded cluster, non-frozen subtree root), the subtree root
+(non-degraded cluster, non-frozen subtree root), the subtree root
 directory is temporarily auth pinned, the subtree freeze is initiated,
 and the exporter is committed to the subtree migration, barring an
 intervening failure of the importer or itself.
index 58469194c92207e75a2221941fe09802c0d08764..f5f7ebba672f36a44dd5136c77ff715267d76aab 100644 (file)
@@ -10,7 +10,7 @@ used by mistake.
 Some of these features are closer to being done than others, though. We
 describe each of them with an approximation of how risky they are and briefly
 describe what is required to enable them. Note that doing so will
-*irrevocably* flag maps in the monitor as having once enabled this flag to
+*irrevocably* flag maps in the Monitor as having once enabled this flag to
 improve debugging and support processes.
 
 Inline data
@@ -19,7 +19,7 @@ By default, all CephFS file data is stored in RADOS objects. The inline data
 feature enables small files (generally <2KB) to be stored in the inode
 and served out of the MDS. This may improve small-file performance but increases
 load on the MDS. It is not sufficiently tested to support at this time, although
-failures within it are unlikely to make non-inlined data inaccessible
+failures within it are unlikely to make non-inlined data inaccessible.
 
 Inline data has always been off by default and requires setting
 the ``inline_data`` flag.
index 306bbc6eb0890c2b5795ca721e3d1f3091127b9f..1fbbb8bc9554f6e462c7a93d1fc8a04c8fd7a3d2 100644 (file)
@@ -16,7 +16,7 @@ when dealing with directories.
 
 .. tip::
 
-    Your linux distribution may not ship with commands for manipulating xattrs by default,
+    Your Linux distribution may not ship with commands for manipulating xattrs by default,
     the required package is usually called ``attr``.
 
 Layout fields
@@ -118,12 +118,12 @@ next ancestor directory with an explicit layout will be used.
     # file: dir
     ceph.dir.layout="stripe_unit=4194304 stripe_count=2 object_size=4194304 pool=cephfs_data"
 
-Getting the layout in json format. If there's no specific layout set for the
+Getting the layout in JSON format. If there's no specific layout set for the
 particular inode, the system traverses the directory path backwards and finds
-the closest ancestor directory with a layout and returns it in json format.
-A file layout also can be retrieved in json format using ``ceph.file.layout.json`` vxattr.
+the closest ancestor directory with a layout and returns it in JSON format.
+A file layout also can be retrieved in JSON format using ``ceph.file.layout.json`` vxattr.
 
-A virtual field named ``inheritance`` is added to the json output to show the status of layout.
+A virtual field named ``inheritance`` is added to the JSON output to show the status of layout.
 The ``inheritance`` field can have the following values:
 
 ``@default`` implies the system default layout
@@ -172,9 +172,9 @@ Layout fields are modified using ``setfattr``:
     $ setfattr -n ceph.file.layout.stripe_count -v 4 file1
     setfattr: file1: Directory not empty
 
-File and Directory layouts can also be set using the json format.
+File and Directory layouts can also be set using the JSON format.
 The ``inheritance`` field is ignored when setting the layout.
-Also, if both, ``pool_name`` and ``pool_id`` fields are specified, then the
+Also, if both ``pool_name`` and ``pool_id`` fields are specified, then the
 ``pool_name`` is given preference for better disambiguation.
 
 .. code-block:: bash
@@ -241,7 +241,7 @@ changes to the parent directory's layout do not affect children.
     ceph.file.layout="stripe_unit=4194304 stripe_count=4 object_size=4194304 pool=cephfs_data"
 
 
-Files created as descendents of the directory also inherit the layout, if the intermediate
+Files created as descendants of the directory also inherit the layout if the intermediate
 directories do not have layouts set:
 
 .. code-block:: bash
index d2c6b7273ef50bb718d580a6f073e657fce00d5a..979e7df0d65e77dc9d7e5df774271258d5e8df42 100644 (file)
@@ -126,7 +126,7 @@ The output format is JSON and contains fields as follows:
         * ``used``: The amount of storage consumed in bytes
         * ``name``: Name of the pool
 
-* ``mon_addrs``: List of Ceph monitor addresses
+* ``mon_addrs``: List of Ceph Monitor addresses
 * ``used_size``: Current used size of the CephFS volume in bytes
 * ``pending_subvolume_deletions``: Number of subvolumes pending deletion
 
@@ -180,7 +180,7 @@ a quota on it (see :doc:`/cephfs/quota`). By default, the subvolume group
 is created with octal file mode ``755``, UID ``0``, GID ``0`` and the data pool
 layout of its parent directory.
 
-You can also specify an Unicode normalization form using the ``--normalization``
+You can also specify a Unicode normalization form using the ``--normalization``
 option. This will be used to internally mangle file names so that Unicode
 characters that can be represented by different Unicode code point sequences
 are all mapped to the same representation, which means that they will all
@@ -196,7 +196,7 @@ The valid values for the Unicode normalization form are:
 
 To learn more about Unicode normalization forms see https://unicode.org/reports/tr15
 
-It's also possible to configure a subvolume group for case insensitive access
+It's also possible to configure a subvolume group for case-insensitive access
 when the ``--casesensitive=0`` option is used. When this option is added, file
 names that only differ in the case of its characters will be mapped to the same
 file. The case of the file name used when the file was created is preserved.
@@ -249,7 +249,7 @@ The output format is JSON and contains fields as follows:
 * ``uid``: UID of the subvolume group path
 * ``gid``: GID of the subvolume group path
 * ``mode``: mode of the subvolume group path
-* ``mon_addrs``: list of monitor addresses
+* ``mon_addrs``: list of Monitor addresses
 * ``bytes_pcent``: quota used in percentage if quota is set, else displays "undefined"
 * ``bytes_quota``: quota size in bytes if quota is set, else displays "infinite"
 * ``bytes_used``: current used size of the subvolume group in bytes
@@ -356,7 +356,7 @@ Valid Earmarks
    be aware that user permissions and ACLs associated with the previous scope might still apply. Ensure that
    any necessary permissions are updated as needed to maintain proper access control.
 
-When creating a subvolume you can also specify an Unicode normalization form by
+When creating a subvolume you can also specify a Unicode normalization form by
 using the ``--normalization`` option. This will be used to internally mangle
 file names so that Unicode characters that can be represented by different
 Unicode code point sequences are all mapped to the representation, which means
@@ -372,7 +372,7 @@ The valid values for the Unicode normalization form are:
 
 To learn more about Unicode normalization forms see https://unicode.org/reports/tr15
 
-It's also possible to configure a subvolume for case insensitive access when
+It's also possible to configure a subvolume for case-insensitive access when
 the ``--casesensitive=0`` option is used. When this option is added, file
 names that only differ in the case of its characters will be mapped to the same
 file. The case of the file name used when the file was created is preserved.
@@ -503,7 +503,7 @@ The output format is JSON and contains the following fields.
 * ``uid``: UID of the subvolume path
 * ``gid``: GID of the subvolume path
 * ``mode``: mode of the subvolume path
-* ``mon_addrs``: list of monitor addresses
+* ``mon_addrs``: list of Monitor addresses
 * ``bytes_pcent``: quota used in percentage if quota is set; else displays
   ``undefined``
 * ``bytes_quota``: quota size in bytes if quota is set; else displays
@@ -718,7 +718,7 @@ a subvolume:
 Listing the Snapshots of a Subvolume
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
-Use a command of the following from to list the snapshots of a subvolume:
+Use a command of the following form to list the snapshots of a subvolume:
 
 .. prompt:: bash #
 
@@ -820,7 +820,7 @@ the snapshot using the metadata key:
 Listing Custom Metadata That Has Been Set on a Snapshot
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
-Use a command of the following from to list custom metadata (key-value pairs)
+Use a command of the following form to list custom metadata (key-value pairs)
 set on the snapshot:
 
 .. prompt:: bash #
@@ -945,7 +945,7 @@ Here is an example of an ``in-progress`` clone:
 A progress report is also printed in the output when clone is ``in-progress``.
 Here the progress is reported only for the specific clone. For collective
 progress made by all ongoing clones, a progress bar is printed at the bottom
-in ouput of ``ceph status`` command::
+in output of ``ceph status`` command::
 
   progress:
     3 ongoing clones - average progress is 47.569% (10s)
@@ -1053,7 +1053,7 @@ state:
         }
     }
 
-.. note:: Delete the canceled cloned by supplying the ``--force`` option to the
+.. note:: Delete the canceled clone by supplying the ``--force`` option to the
    ``fs subvolume rm`` command.
 
 Configurables
@@ -1164,12 +1164,12 @@ across all the clients, issue the command without specifying an ``id``:
 
    ceph config set client client_respect_subvolume_snapshot_visibility <true|false>
 
-.. note:: The MGR daemon operates as a privileged CephFS client and therefore
+.. note:: The Manager daemon operates as a privileged CephFS client and therefore
           bypasses snapshot visibility restrictions. This behavior is required
           to ensure the reliable execution of operations such as snap-schedule
           and snapshot cloning. As a result, modifying the
           ``client_respect_subvolume_snapshot_visibility`` configuration option
-          has no effect on the CephFS instance running within the MGR daemon.
+          has no effect on the CephFS instance running within the Manager daemon.
 
 How to Disable Snapshot Visibility on a Subvolume?
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
@@ -1244,7 +1244,7 @@ pinned to one of the available ranks on the file system.
 Normalization and Case Sensitivity
 ----------------------------------
 
-The subvolumegroup and subvolume interefaces have a porcelain layer API to
+The subvolumegroup and subvolume interfaces have a porcelain layer API to
 manipulate the ``ceph.dir.charmap`` configurations (see also :ref:`charmap`).
 
 
@@ -1261,7 +1261,7 @@ Or for a subvolume:
 
 .. prompt:: bash #
 
-    ceph fs subvolume charmap set <vol_name> <subvol> <--group_name=name> <setting> <value>
+    ceph fs subvolume charmap set <vol_name> <subvol> --group_name=<name> <setting> <value>
 
 For example:
 
@@ -1289,7 +1289,7 @@ Or for a subvolume:
 
 .. prompt:: bash #
 
-    ceph fs subvolume charmap get <vol_name> <subvol> <--group_name=name> <setting>
+    ceph fs subvolume charmap get <vol_name> <subvol> --group_name=<name> <setting>
 
 For example:
 
@@ -1311,7 +1311,7 @@ Or for a subvolume:
 
 .. prompt:: bash #
 
-    ceph fs subvolume charmap get <vol_name> <subvol> <--group_name=name>
+    ceph fs subvolume charmap get <vol_name> <subvol> --group_name=<name>
 
 For example:
 
@@ -1333,13 +1333,13 @@ To remove the ``charmap`` configuration, for a subvolumegroup:
 
 .. prompt:: bash #
 
-    ceph fs subvolumegroup charmap rm <vol_name> <group_name
+    ceph fs subvolumegroup charmap rm <vol_name> <group_name>
 
 Or for a subvolume:
 
 .. prompt:: bash #
 
-    ceph fs subvolume charmap rm <vol_name> <subvol> <--group_name=name>
+    ceph fs subvolume charmap rm <vol_name> <subvol> --group_name=<name>
 
 For example:
 
@@ -1405,9 +1405,9 @@ A quiesce set can be manipulated in the following ways:
 * **cancel all** active sets in case an immediate resume of IO is required.
 
 The operations listed above are non-blocking: they attempt the intended modification
-and return with an up to date version of the target set, whether the operation was successful or not.
+and return with an up-to-date version of the target set, whether the operation was successful or not.
 The set may change states as a result of the modification, and the version that's returned in the response
-is guaranteed to be in a state consistent with this and potentialy other successful operations from
+is guaranteed to be in a state consistent with this and potentially other successful operations from
 the same control loop batch.
 
 Some set states are `awaitable`. We will discuss those below, but for now it's important to mention that
@@ -1591,7 +1591,7 @@ along with other arguments to let the system know our intention.
 
 There are two types of await: `quiesce await` and `release await`. The former is the default,
 and the latter can only be achieved with ``--release`` present in the argument list.
-To avoid confision, it is not permitted to issue a `quiesce await` when the set is not `QUIESCING`.
+To avoid confusion, it is not permitted to issue a `quiesce await` when the set is not `QUIESCING`.
 Trying to ``--release`` a set that is not `QUIESCED` is an ``EPERM`` error as well, regardless
 of whether await is requested alongside. However, it's not an error to `release await`
 an already released set, or to `quiesce await` a `QUIESCED` one - those are successful no-ops.
@@ -1617,7 +1617,7 @@ may mask a successful result with its own error. A good example is trying to can
   }
   Error EPERM: 
 
-Although ``--cancel`` will succeed syncrhonously for a set in an active state, awaiting a canceled
+Although ``--cancel`` will succeed synchronously for a set in an active state, awaiting a canceled
 set is not permitted, hence this call will result in an ``EPERM``. This is deliberately different from
 returning a ``EINVAL`` error, denoting an error on the user's side, to simplify the system's behavior
 when ``--await`` is requested. As a result, it's also a simpler model for the user to work with.
@@ -1773,12 +1773,12 @@ Disabling Volumes Plugin
 ------------------------
 By default the volumes plugin is enabled and set to ``always on``. However, in
 certain cases it might be appropriate to disable it. For example, when a CephFS
-is in a degraded state, the volumes plugin commands may accumulate in MGR
+is in a degraded state, the volumes plugin commands may accumulate in the Manager
 instead of getting served. Which eventually causes policy throttles to kick in
-and the MGR becomes unresponsive.
+and the Manager becomes unresponsive.
 
 In this event, the volumes plugin can be disabled even though it is an
-``always on`` module in MGR. To do so, run ``ceph mgr module disable volumes
+``always on`` module in the Manager. To do so, run ``ceph mgr module disable volumes
 --yes-i-really-mean-it``. Do note that this command will disable operations
 and remove commands of the volumes plugin since it will disable all CephFS
 services on the Ceph cluster accessed through this plugin.
index e3adba64e3180d185dbc7eb723329ff093b164e5..f5c42e1ffc8dca6115bd9a9f8a8f230b1cca7398 100644 (file)
@@ -94,7 +94,7 @@ are available in this mode.
 Finally, Client 3, is using an older version of CephFS client and does not have
 fscrypt feature present. In this mode, users have the same view as before, but
 are able to do some data operations to encrypted files. This mode is not
-recommend and not supported.
+recommended and not supported.
 
 .. figure:: cephfs_fscrypt_multiclient.svg
 
index fe0616cb6922df31555b7976835f9de6f3805491..28f58f52ed22d37ecdb49ab697a58c24c80b06aa 100644 (file)
@@ -12,7 +12,7 @@ The file system has some special handling of the full flag, explained below.
 Hammer and later
 ----------------
 
-Since the hammer release, a full file system will lead to ENOSPC
+Since the Hammer release, a full file system will lead to ENOSPC
 results from:
 
  * Data writes on the client
@@ -42,14 +42,14 @@ order to ensure that these cancelled operations do not interfere with
 subsequent access to the data objects by the MDS or other clients.  For
 more on the epoch barrier mechanism, see :ref:`background_blocklisting_and_osd_epoch_barrier`.
 
-Legacy (pre-hammer) behavior
+Legacy (pre-Hammer) behavior
 ----------------------------
 
-In versions of Ceph earlier than hammer, the MDS would ignore
+In versions of Ceph earlier than Hammer, the MDS would ignore
 the full status of the RADOS cluster, and any data writes from
 clients would stall until the cluster ceased to be full.
 
-There are two dangerous conditions to watch for with this behaviour:
+There are two dangerous conditions to watch for with this behavior:
 
 * If a client had pending writes to a file, then it was not possible
   for the client to release the file to the MDS for deletion: this could
index 7aa1f2e44eec7f58d407033dcbe8203b26924ac9..741f13a8342813d3f0f4e67199c3fa01af9cf4e3 100644 (file)
@@ -8,7 +8,7 @@ CephFS health messages
 Cluster health checks
 =====================
 
-The Ceph monitor daemons will generate health messages in response
+The Ceph Monitor daemons will generate health messages in response
 to certain states of the file system map structure (and the enclosed MDS maps).
 
 Message: mds rank(s) *ranks* have failed
@@ -29,16 +29,16 @@ state (e.g. ranks currently in *replay* state).
 
 Message: mds *names* are laggy
 Description: The named MDS daemons have failed to send beacon messages
-to the monitor for at least ``mds_beacon_grace`` (default 15s), while
+to the Monitor for at least ``mds_beacon_grace`` (default 15s), while
 they are supposed to send beacon messages every ``mds_beacon_interval``
-(default 4s).  The daemons may have crashed.  The Ceph monitor will
+(default 4s).  The daemons may have crashed.  The Ceph Monitor will
 automatically replace laggy daemons with standbys if any are available.
 
 Message: insufficient standby daemons available
 Description: One or more file systems are configured to have a certain number
 of standby daemons available (including daemons in standby-replay) but the
 cluster does not have enough standby daemons. The standby daemons not in replay
-count towards any file system (i.e. they may overlap). This warning can
+count towards any file system (i.e. they may overlap). This warning can be
 configured by setting ``ceph fs set <fs> standby_count_wanted <count>``.  Use
 zero for ``count`` to disable.
 
@@ -48,7 +48,7 @@ Daemon-reported health checks
 
 MDS daemons can identify a variety of unwanted conditions, and
 indicate these to the operator in the output of ``ceph status``.
-These conditions have human readable messages, and additionally
+These conditions have human-readable messages, and additionally
 a unique code starting with ``MDS_``.
 
 .. highlight:: console
@@ -273,7 +273,7 @@ other daemons, please see :ref:`health-checks`.
 ``MDS_ESTIMATED_REPLAY_TIME``
 -----------------------------
   Message
-    "HEALTH_WARN Replay: x% complete. Estimated time remaining *x* seconds
+    HEALTH_WARN Replay: x% complete. Estimated time remaining *x* seconds
 
   Description
     When an MDS journal replay takes more than 30 seconds, this message indicates the estimated time to completion.
index ac85ba118439288e7fdb138ae9d8d6035f7224df..31b4ddaf1881c97f1867226c50a49d8cd6bf6426 100644 (file)
@@ -173,7 +173,7 @@ Troubleshooting and Disaster Recovery
     Troubleshooting <troubleshooting>
     Disaster recovery <disaster-recovery>
     cephfs-journal-tool <cephfs-journal-tool>
-    Recovering file system after monitor store loss <recover-fs-after-mon-store-loss>
+    Recovering file system after Monitor store loss <recover-fs-after-mon-store-loss>
 
 
 .. raw:: html
index c025c7a52cb9eca5500f0b9651713658c7d9f1e2..6dc66374d6fceca882b70b53c287f5b508e3abda 100644 (file)
@@ -1,7 +1,7 @@
 
 Supported Features of the Kernel Driver
 ========================================
-The kernel driver is developed separately from the core ceph code, and as
+The kernel driver is developed separately from the core Ceph code, and as
 such it sometimes differs from the FUSE driver in feature implementation.
 The following details the implementation status of various CephFS features
 in the kernel driver.
@@ -20,9 +20,9 @@ See `Experimental Features`_ for more information.
 
 Quotas
 ------
-Quota was first introduced by the hammer release. Quota disk format got renewed
+Quota was first introduced by the Hammer release. Quota disk format got renewed
 by the Mimic release. Linux kernel clients >= 4.17 can support the new format
-quota. At present, no Linux kernel client support the old format quota.
+quota. At present, no Linux kernel clients support the old format quota.
 
 See `Quotas`_ for more information.
 
index b300587740882243df493458df220251abbabfbe..01cb2704e5fb6ccfcae56f21db91f27b43a47945 100644 (file)
@@ -6,12 +6,12 @@ LazyIO relaxes POSIX semantics. Buffered reads/writes are allowed even when a
 file is opened by multiple applications on multiple clients. Applications are
 responsible for managing cache coherency themselves.
 
-Libcephfs supports LazyIO since nautilus release.
+Libcephfs supports LazyIO since Nautilus release.
 
 Enable LazyIO
 =============
 
-LazyIO can be enabled by following ways.
+LazyIO can be enabled in the following ways.
 
 - ``client_force_lazyio`` option enables LAZY_IO globally for libcephfs and
   ceph-fuse mount.
@@ -48,7 +48,7 @@ particular client/file descriptor in a parallel application:
         int fda = ceph_open(ca, "shared_file.txt", O_CREAT|O_RDWR, 0644); 
 
         /* Enable LazyIO for fda */
-        ceph_lazyio(ca, fda, 1));
+        ceph_lazyio(ca, fda, 1);
 
         for(i = 0; i < num_iters; i++) {
             char out_buf[] = "fooooooooo";
index f2e20238cc61be44d69168992a085d08f0fef88f..d37804f377c2de9c9fcf251b03da18f9b539a39d 100644 (file)
@@ -27,7 +27,7 @@ the cluster.
 
 Since the cache is distributed, the MDS must take great care to ensure
 that no client holds capabilities that may conflict with other clients'
-capabilities, or operations that it does itself. This allows cephfs
+capabilities, or operations that it does itself. This allows CephFS
 clients to rely on much greater cache coherence than a filesystem like
 NFS, where the client may cache data and metadata beyond the point where
 it has changed on the server.
index 9325eab7a2d43399773042f7569bb591a27a3ec8..a4b384d3411e0030e29b717e0f29293b9eeaea17 100644 (file)
@@ -24,7 +24,7 @@ CephFS uses journaling for couple of reasons:
 #. Consistency: On an MDS failover, the journal events can be replayed to reach a
    consistent file system state. Also, metadata operations that require multiple
    updates to the backing store need to be journaled for crash consistency (along
-   with other consistency mechanisms such as locking, etc..).
+   with other consistency mechanisms such as locking, etc.).
 
 #. Performance: Journal updates are (mostly) sequential, hence updates to journals
    are fast. Furthermore, updates can be batched into single write, thereby saving
@@ -41,7 +41,7 @@ Journal Events
 
 Apart from journaling file system metadata updates, CephFS journals various other events
 such as client session info and directory import/export state to name a few. These events
-are used by the metadata sever to reestablish correct state as required, e.g., Ceph MDS
+are used by the metadata server to reestablish correct state as required, e.g., Ceph MDS
 tries to reconnect clients on restart when journal events get replayed and a specific
 event type in the journal specifies that a client entity type has a session with the MDS
 before it was restarted.
@@ -137,7 +137,7 @@ the rank from this initial state.
 Configurations
 --------------
 
-The targetted size of a log segment in terms of number of events is controlled by:
+The targeted size of a log segment in terms of number of events is controlled by:
 
 .. confval:: mds_log_events_per_segment
 
index c7da639a077c3010c2d54d3fe6426039295b1cd3..d4684b7add931829e4b4b1971669da5d10c3cdc1 100644 (file)
@@ -28,7 +28,7 @@ and its rank in the file system is available.
     up:standby
 
 The MDS is available to takeover for a failed rank (see also :ref:`mds-standby`).
-The monitor will automatically assign an MDS in this state to a failed rank
+The Monitor will automatically assign an MDS in this state to a failed rank
 once available.
 
 
@@ -51,7 +51,7 @@ Less common or transitory states
 
     up:boot
 
-This state is broadcast to the Ceph monitors during startup. This state is
+This state is broadcast to the Ceph Monitors during startup. This state is
 never visible as the Monitor immediately assign the MDS to an available rank or
 commands the MDS to operate as a standby. The state is documented here for
 completeness.
@@ -77,7 +77,7 @@ and enters the MDS cluster.
 
     up:stopping
 
-When a rank is stopped, the monitors command an active MDS to enter the
+When a rank is stopped, the Monitors command an active MDS to enter the
 ``up:stopping`` state. In this state, the MDS accepts no new client
 connections, migrates all subtrees to other ranks in the file system, flush its
 metadata journal, and, if the last rank (0), evict all clients and shutdown
index 8ec0be76fe6b3902532a1e783380a5faa55d44e0..b366c2295b3cd295b25b067b9b15cf74c17d505d 100644 (file)
@@ -55,13 +55,13 @@ CephFS exports client metrics as :ref:`Labeled Perf Counters`, which could be us
      - Total number of Inodes
    * - total_read_ops
      - Gauge
-     - Total number of read operations generated by all process
+     - Total number of read operations generated by all processes
    * - total_read_size
      - Gauge
-     - Number of bytes read in input/output operations generated by all process
+     - Number of bytes read in input/output operations generated by all processes
    * - total_write_ops
      - Gauge
-     - Total number of write operations generated by all process
+     - Total number of write operations generated by all processes
    * - total_write_size
      - Gauge
      - Number of bytes written in input/output operations generated by all processes
index 2decb15bc6f0b5d940e380a17eba6ceaa23e9d3f..410ab0866a9d10a6168fa478d774f2fff72a2d1e 100644 (file)
@@ -16,19 +16,19 @@ Which CephFS Client?
 
 The FUSE client is the most accessible and the easiest to upgrade to the
 version of Ceph used by the storage cluster, while the kernel client will
-always gives better performance.
+always give better performance.
 
 When encountering bugs or performance issues, it is often instructive to
 try using the other client, in order to find out whether the bug was
 client-specific or not (and then to let the developers know).
 
-General Pre-requisite for Mounting CephFS
+General Prerequisites for Mounting CephFS
 -----------------------------------------
 Before mounting CephFS, ensure that the client host (where CephFS has to be
 mounted and used) has a copy of the Ceph configuration file (i.e.
 ``ceph.conf``) and a keyring of the CephX user that has permission to access
 the MDS. Both of these files must already be present on the host where the
-Ceph MON resides.
+Ceph Monitor resides.
 
 #. Generate a minimal conf file for the client host and place it at a
    standard location::
@@ -49,13 +49,13 @@ Ceph MON resides.
 
     ssh {user}@{mon-host} "sudo ceph fs authorize cephfs client.foo / rw" | sudo tee /etc/ceph/ceph.client.foo.keyring
 
-   In above command, replace ``cephfs`` with the name of your CephFS, ``foo``
+   In the above command, replace ``cephfs`` with the name of your CephFS, ``foo``
    by the name you want for your CephX user and ``/`` by the path within your
    CephFS for which you want to allow access to the client host and ``rw``
    stands for both read and write permissions. Alternatively, you may copy the
-   Ceph keyring from the MON host to client host at ``/etc/ceph`` but creating
+   Ceph keyring from the Monitor host to client host at ``/etc/ceph`` but creating
    a keyring specific to the client host is better. While creating a CephX
-   keyring/client, using same client name across multiple machines is perfectly
+   keyring/client, using the same client name across multiple machines is perfectly
    fine.
 
    .. note:: If you get 2 prompts for password while running above any of 2
index e8929a6a8b7f6799bde2b30d7fada5e409162fcb..d34d7a1b765d6092ad354f85f18354b7c5cf03a3 100644 (file)
@@ -49,7 +49,7 @@ too::
 
     ceph-fuse --id foo -k /path/to/keyring /mnt/mycephfs
 
-You may pass a Monitor's address and port on the commandline, although this is not mandatory::
+You may pass a Monitor's address and port on the command line, although this is not mandatory::
 
     ceph-fuse --id foo -m 192.168.0.1:6789 /mnt/mycephfs
 
@@ -99,7 +99,7 @@ To mount a subdirectory of the CephFS, add the following to ``/etc/fstab``::
 ``ceph-fuse@.service`` and ``ceph-fuse.target`` systemd units are available.
 As usual, these unit files declare the default dependencies and recommended
 execution context for ``ceph-fuse``. After making the fstab entry shown above,
-run following commands::
+run the following commands::
 
     systemctl start ceph-fuse@/mnt/mycephfs.service
     systemctl enable ceph-fuse.target
index f5847046bb301a1241fb8a7adcd11e6fca96391b..b9974fd940a1a9f3496633b8e73ee787a563f2da 100644 (file)
@@ -24,7 +24,7 @@ as described on the `Mount CephFS: Prerequisites`_ page.
 Is mount helper present?
 ------------------------
 The ``mount.ceph`` helper is installed by Ceph packages. The helper passes the
-monitor address(es) and CephX user keyrings, saving the Ceph admin the effort
+Monitor address(es) and CephX user keyrings, saving the Ceph admin the effort
 of passing these details explicitly while mounting CephFS. If the helper is not
 present on the client machine, CephFS can still be mounted using the kernel
 driver but only by passing these details explicitly to the ``mount`` command.
@@ -48,9 +48,9 @@ Remember that the "latest" kernel in a stable Linux distribution is likely
 to be years behind the latest upstream Linux kernel where Ceph development
 takes place (including bug fixes).
 
-As a rough guide, as of Ceph 10.x (Jewel), you should be using a least a 4.x
+As a rough guide, as of Ceph 10.x (Jewel), you should be using at least a 4.x
 kernel. If you absolutely have to use an older kernel, you should use the
-fuse client instead of the kernel client.
+FUSE client instead of the kernel client.
 
 This advice does not apply if you are using a Linux distribution that includes
 CephFS support. In that case, the distributor is responsible for backporting
@@ -77,14 +77,14 @@ command to use the kernel driver to mount CephFS:
 #. ``name`` is the username of the CephX user we are using to mount CephFS.
 #. ``fsid`` is the FSID of the Ceph cluster, which can be found using the
    ``ceph fsid`` command. ``fs_name`` is the file system to mount. The kernel
-   driver requires a ceph Monitor's address and the secret key of the CephX
+   driver requires a Ceph Monitor's address and the secret key of the CephX
    user. For example:
 
    .. prompt:: bash #
 
       mount -t ceph cephuser@b3acfc0d-575f-41d3-9c91-0e7ed3dbb3fa.cephfs=/ /mnt/mycephfs -o mon_addr=192.168.0.1:6789,secret=AQATSKdNGBnwLhAAnNDKnH65FmVKpXZJVasUeQ==
 
-When using the mount helper, monitor hosts and FSID are optional. The
+When using the mount helper, Monitor hosts and FSID are optional. The
 ``mount.ceph`` helper discovers these details by finding and reading the ceph
 conf file. For example:
 
@@ -92,7 +92,7 @@ conf file. For example:
 
    mount -t ceph cephuser@.cephfs=/ -o secret=AQATSKdNGBnwLhAAnNDKnH65FmVKpXZJVasUeQ==
 
-.. note:: Note that the dot (``.`` in the string ``cephuser@.cephfs``) must  be
+.. note:: Note that the dot (``.`` in the string ``cephuser@.cephfs``) must be
    a part of the device string.
 
 A weakness of this method is that it will leave the secret key in your shell's
@@ -106,7 +106,7 @@ file by using the option ``secretfile`` instead of ``secret``. For example:
 Ensure that the permissions on the secret key file are appropriate (preferably,
 ``600``).
 
-Multiple monitor hosts can be passed by separating addresses with a ``/``:
+Multiple Monitor hosts can be passed by separating addresses with a ``/``:
 
 .. prompt:: bash #
 
index 8a001052ce4a7fe8bfda2dd6a2aefb3b98b96680..d18c492a78b39a09797a8f83c46ef1a7853e09df 100644 (file)
@@ -40,7 +40,7 @@ Securing access
 ---------------
 
 The ``fs authorize`` command allows configuring the client's access to a
-particular file system. See also in :ref:`fs-authorize-multifs`. The client will
+particular file system. See also :ref:`fs-authorize-multifs`. The client will
 only have visibility of authorized file systems and the Monitors/MDS will
 reject access to clients without authorization.
 
index bc5c9790fdb0aeee1a4803f5c6eb4c4a94192af8..99eab2f904e840fa3dcda5e3e9aa8fe9fca9c71b 100644 (file)
@@ -93,7 +93,7 @@ be stuck in the stopping state then that should be investigated as a possible
 bug.
 
 If an MDS daemon crashes or is killed while in the ``up:stopping`` state, a
-standby will take over and the cluster monitors will against try to stop
+standby will take over and the cluster Monitors will again try to stop
 the daemon.
 
 When a daemon finishes stopping, it will respawn itself and go back to being a
@@ -143,7 +143,7 @@ directory's export pin. For example:
 Setting subtree partitioning policies
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
-It is also possible to setup **automatic** static partitioning of subtrees via
+It is also possible to set up **automatic** static partitioning of subtrees via
 a set of **policies**. In CephFS, this automatic static partitioning is
 referred to as **ephemeral pinning**. Any directory (inode) which is
 ephemerally pinned will be automatically assigned to a particular rank
@@ -278,7 +278,7 @@ Dynamic subtree partitioning with Balancer on specific ranks
 The CephFS file system provides the ``bal_rank_mask`` option to enable the
 balancer to dynamically rebalance subtrees within particular active MDS ranks.
 This allows administrators to employ both the dynamic subtree partitioning and
-static pining schemes in different active MDS ranks so that metadata loads are
+static pinning schemes in different active MDS ranks so that metadata loads are
 optimized based on user demand. For instance, in realistic cloud storage
 environments, where a lot of subvolumes are allotted to multiple computing
 nodes (e.g., VMs and containers), some subvolumes that require high performance
index 61cc7fd89c4ca6c40849c2579d889b8373d2247c..806028fb2ef8b9317e9a047a2fa7a43dc85dfe1f 100644 (file)
@@ -8,8 +8,8 @@ CephFS namespaces can be exported over NFS protocol using the `NFS-Ganesha NFS
 server`_.  This document provides information on configuring NFS-Ganesha
 clusters manually.  The simplest and preferred way of managing NFS-Ganesha
 clusters and CephFS exports is using ``ceph nfs ...`` commands. See
-:doc:`/mgr/nfs` for more details. As the deployment is done using cephadm or
-rook.
+:ref:`mgr-nfs` for more details. As the deployment is done using cephadm or
+Rook.
 
 Requirements
 ============
@@ -21,7 +21,7 @@ Requirements
 
 .. note::
    It is recommended to use 3.5 or later stable version of NFS-Ganesha
-   packages with pacific (16.2.x) or later stable version of Ceph packages.
+   packages with Pacific (16.2.x) or later stable version of Ceph packages.
 
 Configuring NFS-Ganesha to export CephFS
 ========================================
@@ -73,7 +73,7 @@ Configuration for libcephfs clients
 
 ``ceph.conf`` for libcephfs clients includes a ``[client]`` section with
 ``mon_host`` option set to let the clients connect to the Ceph cluster's
-monitors, usually generated via ``ceph config generate-minimal-conf``.
+Monitors, usually generated via ``ceph config generate-minimal-conf``.
 For example::
 
     [client]
index d79730c6f41cd729fc69faaa980bb8bbaa4c7821..219981b1730d348162cf5a37f016407608c95fe3 100644 (file)
@@ -43,7 +43,7 @@ POSIX semantics for various reasons:
 - CephFS does not currently maintain the ``atime`` field. Most applications
   do not care, though this impacts some backup and data tiering
   applications that can move unused data to a secondary storage system.
-  You may be able to workaround this for some use cases, as CephFS does
+  You may be able to work around this for some use cases, as CephFS does
   support setting ``atime`` via the ``setattr`` operation.
 
 Perspective
@@ -53,7 +53,7 @@ People talk a lot about "POSIX compliance," but in reality most file
 system implementations do not strictly adhere to the spec, including
 local Linux file systems like ext4 and XFS.  For example, for
 performance reasons, the atomicity requirements for reads are relaxed:
-processing reading from a file that is also being written may see torn
+processes reading from a file that is also being written may see torn
 results.
 
 Similarly, NFS has extremely weak consistency semantics when multiple
index d7a68e7fa55f7220f8c38f53b247a1cfb3550241..9ae127dd14929bb9462ed55d7a917c3632f2b7e9 100644 (file)
@@ -6,7 +6,7 @@ MDS maintains a data structure known as **Purge Queue** which is responsible
 for managing and executing the parallel deletion of files.
 There is a purge queue for every MDS rank. Purge queues consist of purge items
 which contain nominal information from the inodes such as size and the layout
-(i.e. all other un-needed metadata information is discarded making it
+(i.e. all other unneeded metadata information is discarded making it
 independent of all metadata structures).
 
 Deletion process
@@ -26,8 +26,8 @@ When a client requests deletion of a directory (say ``rm -rf``):
           purge queue can process then the data pool usage might increase
           substantially over time. In extreme scenarios, the purge queue
           backlog can become so huge that it can slacken the capacity reclaim
-          and the linux ``du`` command for CephFS might report inconsistent
-          data compared to the CephFS Data pool.
+          and the Linux ``du`` command for CephFS might report inconsistent
+          data compared to the CephFS data pool.
 
 There are a few tunable configs that MDS uses internally to throttle purge
 queue processing:
index da68a60d8ab3aaf8752304dd1343b61a95f7bb23..c28d3f8b908d57a36232a1fe1347eca0589f069d 100644 (file)
@@ -101,7 +101,7 @@ Limitations
    reached.  They will inevitably be allowed to write some amount of
    data over the configured limit.  How far over the quota they are
    able to go depends primarily on the amount of time, not the amount
-   of data.  Generally speaking writers will be stopped within 10s of
+   of data.  Generally speaking writers will be stopped within tens of
    seconds of crossing the configured limit.
 
 #. *Quotas are implemented in the kernel client 4.17 and higher.*
@@ -118,8 +118,8 @@ Limitations
    (e.g., ``/home/user``) based on the MDS capability, and a quota is
    configured on an ancestor directory they do not have access to
    (e.g., ``/home``), the client will not enforce it.  When using
-   path-based access restrictions be sure to configure the quota on
-   the directory the client is restricted too (e.g., ``/home/user``)
+   path-based access restrictions, be sure to configure the quota on
+   the directory the client is restricted to (e.g., ``/home/user``)
    or something nested beneath it.
 
    In case of a kernel client, it needs to have access to the parent
@@ -128,7 +128,7 @@ Limitations
    (e.g., ``/home/volumes/group``), the kclient needs to have access
    to the parent (e.g., ``/home/volumes``).
 
-   An example command to create such an user is as below::
+   An example command to create such a user::
 
      $ ceph auth get-or-create client.guest mds 'allow r path=/home/volumes, allow rw path=/home/volumes/group' mgr 'allow rw' osd 'allow rw tag cephfs metadata=*' mon 'allow r'
 
index d44269c831880da15ec91ff946fa01e7146df62b..c4da2ec6e6989a721294c89559bc0197bd18c68d 100644 (file)
@@ -1,10 +1,10 @@
 Recovering the file system after catastrophic Monitor store loss
 ================================================================
 
-During rare occasions, all the monitor stores of a cluster may get corrupted
+During rare occasions, all the Monitor stores of a cluster may get corrupted
 or lost. To recover the cluster in such a scenario, you need to rebuild the
-monitor stores using the OSDs (see :ref:`mon-store-recovery-using-osds`),
-and get back the pools intact (active+clean state). However, the rebuilt monitor
+Monitor stores using the OSDs (see :ref:`mon-store-recovery-using-osds`),
+and get back the pools intact (``active+clean`` state). However, the rebuilt Monitor
 stores don't restore the file system maps ("FSMap"). Additional steps are required
 to bring back the file system. The steps to recover a multiple active MDS file
 system or multiple file systems are yet to be identified. Currently, only the steps
index d6271045234fe3d28575838ed94525d906f76b77..cee88a6228cef83a0227cb6059425a6265032b99 100644 (file)
@@ -29,7 +29,7 @@ To start a scrub operation for a directory tree, run a command of the following
 
    ceph tell mds.<fsname>:0 scrub start <path> [scrubopts] [tag]
 
-where ``scrubopts`` is a comma delimited list of ``recursive``, ``force``, or
+where ``scrubopts`` is a comma-delimited list of ``recursive``, ``force``, or
 ``repair`` and ``tag`` is an optional custom string tag (the default is a generated
 UUID). An example command is::
 
@@ -73,7 +73,7 @@ with the path and options used to initiate the scrub::
    }
 
 ``status`` shows the number of inodes that are scheduled to be scrubbed at any point in time.
-Hence, it can change on subsequent ``scrub status`` invocations. Also, a high level summary of
+Hence, it can change on subsequent ``scrub status`` invocations. Also, a high-level summary of
 scrub operation (which includes the operation state and paths on which scrub is triggered)
 gets displayed in ``ceph status``::
 
index 2059d56fec5a5e0af6a792f60a3468df4b45786e..99e3b766dd8b1d90baced769fcfe111563d1ca99 100644 (file)
@@ -64,9 +64,9 @@ When using :doc:`/cephfs/fs-volumes` the argument `fs` is equivalent to a
 
 When a timestamp is passed (the `start` argument in the `add`, `remove`,
 `activate` and `deactivate` subcommands) the ISO format `%Y-%m-%dT%H:%M:%S` will
-always be accepted. When either python3.7 or newer is used or
+always be accepted. When either Python 3.7 or newer is used or
 https://github.com/movermeyer/backports.datetime_fromisoformat is installed, any
-valid ISO timestamp that is parsed by python's `datetime.fromisoformat` is valid.
+valid ISO timestamp that is parsed by Python's `datetime.fromisoformat` is valid.
 
 When no subcommand is supplied a synopsis is printed::
 
@@ -91,7 +91,7 @@ Inspect snapshot schedules
 --------------------------
 
 The module offers two subcommands to inspect existing schedules: `list` and
-`status`. Bother offer plain and json output via the optional `format` argument.
+`status`. Both offer plain and JSON output via the optional `format` argument.
 The default is plain.
 The `list` sub-command will list all schedules on a path in a short single line
 format. It offers a `recursive` argument to list all schedules in the specified
@@ -153,7 +153,7 @@ Examples::
    point path prefix. Paths to snap-schedule should start at the appropriate
    CephFS file system root and not at the host file system root.
    e.g. if the Ceph File System is mounted at ``/mnt`` and the path under which
-   snapshots need to be taken is ``/mnt/some/path`` then the acutal path required
+   snapshots need to be taken is ``/mnt/some/path`` then the actual path required
    by snap-schedule is only ``/some/path``.
 
 .. note:: It should be noted that the "created" field in the snap-schedule status
@@ -189,11 +189,11 @@ Examples::
 
 Limitations
 -----------
-Snapshots are scheduled using python Timers. Under normal circumstances
+Snapshots are scheduled using Python Timers. Under normal circumstances
 specifying 1h as the schedule will result in snapshots 1 hour apart fairly
-precisely. If the mgr daemon is under heavy load however, the Timer threads
+precisely. If the Manager daemon is under heavy load however, the Timer threads
 might not get scheduled right away, resulting in a slightly delayed snapshot. If
-this happens, the next snapshot will be schedule as if the previous one was not
+this happens, the next snapshot will be scheduled as if the previous one was not
 delayed, i.e. one or more delayed snapshots will not cause drift in the overall
 schedule.
 
index a64c3e41c8abe42d08d6b38cf44a7fa9b43d5fa3..7618585f7a5dc47be9514d1845137bc0c1d7e2ff 100644 (file)
@@ -4,7 +4,7 @@ Terminology
 -----------
 
 A Ceph cluster may have zero or more CephFS *file systems*.  Each CephFS has
-a human readable name (set at creation time with ``fs new``) and an integer
+a human-readable name (set at creation time with ``fs new``) and an integer
 ID.  The ID is called the file system cluster ID, or *FSCID*.
 
 Each CephFS file system has a number of *ranks*, numbered beginning with zero.
@@ -12,7 +12,7 @@ By default there is one rank per file system.  A rank may be thought of as a
 metadata shard.  Management of ranks is described in :doc:`/cephfs/multimds` .
 
 Each CephFS ``ceph-mds`` daemon starts without a rank.  It may be assigned one
-by the cluster's monitors. A daemon may only hold one rank at a time, and only
+by the cluster's Monitors. A daemon may only hold one rank at a time, and only
 give up a rank when the ``ceph-mds`` process stops.
 
 If a rank is not associated with any daemon, that rank is considered ``failed``.
@@ -59,14 +59,14 @@ command:
 Managing failover
 -----------------
 
-If an MDS daemon stops communicating with the cluster's monitors, the monitors
+If an MDS daemon stops communicating with the cluster's Monitors, the Monitors
 will wait ``mds_beacon_grace`` seconds (default 15) before marking the daemon as
-*laggy*.  If a standby MDS is available, the monitor will immediately replace the
+*laggy*.  If a standby MDS is available, the Monitor will immediately replace the
 laggy daemon.
 
 Each file system may specify a minimum number of standby daemons in order to be
 considered healthy. This number includes daemons in the ``standby-replay`` state
-waiting for a ``rank`` to fail. (Note, the monitors will not assign a
+waiting for a ``rank`` to fail. (Note, the Monitors will not assign a
 ``standby-replay`` daemon to take over a failure for another ``rank`` or a
 failure in a different CephFS file system). The pool of standby daemons not in
 ``replay`` counts towards any file system count.  Each file system may set the
@@ -95,7 +95,7 @@ Configuration of ``standby-replay`` on a file system is done using the below:
 
     ceph fs set <fs name> allow_standby_replay <bool>
 
-Once set, the monitors will assign available standby daemons to follow the
+Once set, the Monitors will assign available standby daemons to follow the
 active MDSs in that file system.
 
 Once an MDS has entered the ``standby-replay`` state, it will only be used as a
@@ -115,7 +115,7 @@ standby on modest or over-provisioned systems. To configure this preference,
 CephFS provides a configuration option for MDS called ``mds_join_fs`` which
 enforces this affinity.
 
-When failing over MDS daemons, a cluster's monitors will prefer standby daemons with
+When failing over MDS daemons, a cluster's Monitors will prefer standby daemons with
 ``mds_join_fs`` equal to the file system ``name`` with the failed ``rank``.  If no
 standby exists with ``mds_join_fs`` equal to the file system ``name``, it will
 choose an unqualified standby (no setting for ``mds_join_fs``) for the replacement.
@@ -129,7 +129,7 @@ behavior can be disabled:
 Note, configuring MDS file system affinity does not change the behavior that
 ``standby-replay`` daemons are always selected before other standbys.
 
-Even further, the monitors will regularly examine the CephFS file systems even when
+Even further, the Monitors will regularly examine the CephFS file systems even when
 stable to check if a standby with stronger affinity is available to replace an
 MDS with lower affinity. This process is also done for ``standby-replay`` daemons:
 if a regular standby has stronger affinity than the ``standby-replay`` MDS, it will
index 846a3cdd5d64d852e21d37581182fbd66af21585..d9cc960d8fcc79e0fc5e551ac2de5638e00bb9d7 100644 (file)
@@ -156,10 +156,10 @@ Do the following when restoring your file system:
 
       ceph config set mds mds_heartbeat_grace 3600
 
-  .. note:: This causes the MDS to continue to send beacons to the monitors
+  .. note:: This causes the MDS to continue to send beacons to the Monitors
      even when its internal "heartbeat" mechanism has not been reset (it has
      not beaten) in one hour. In the past, this was achieved with the
-     ``mds_beacon_grace`` monitor setting.
+     ``mds_beacon_grace`` Monitor setting.
 
 * **Disable open-file-table prefetch.** Under normal circumstances, the MDS
   prefetches directory contents during recovery as a way of heating up its
@@ -320,7 +320,7 @@ the foreground while logging to the console (``-d``), enabling client debug
 
    ceph daemon -d mds.<name> dump_ops_in_flight --debug-client=20 --debug-ms=1
 
-If you suspect a potential monitor issue, enable monitor debugging as well
+If you suspect a potential Monitor issue, enable Monitor debugging as well
 (``--debug-monc=20``) by running a command of the following form:
 
 .. prompt:: bash #
@@ -348,7 +348,7 @@ Slow requests
 -------------
 
 Unfortunately, the kernel client does not provide an admin socket. However,
-the the kernel on the client has `debugfs
+if the kernel on the client has `debugfs
 <https://docs.kernel.org/filesystems/debugfs.html>`_ enabled, interfaces
 similar to the admin socket are available. 
 
@@ -367,8 +367,8 @@ requests are the ``mdsc`` (current requests to the MDS) and the ``osdc``
 * ``mdsc``: Dumps current requests to the MDS
 * ``mdsmap``: Dumps the current MDSMap epoch and MDSes
 * ``mds_sessions``: Dumps the current sessions to MDSes
-* ``monc``: Dumps the current maps from the monitor, and any "subscriptions" held
-* ``monmap``: Dumps the current monitor map epoch and monitors
+* ``monc``: Dumps the current maps from the Monitor, and any "subscriptions" held
+* ``monmap``: Dumps the current monitor map epoch and Monitors
 * ``osdc``: Dumps the current ops in-flight to OSDs (ie, file data IO)
 * ``osdmap``: Dumps the current OSDMap epoch, pools, and OSDs
 
@@ -470,7 +470,7 @@ dumping the recent in-memory logs when there is an extraordinary event.
 Extraordinary events include the following:
 
 * Client Eviction
-* Missed Beacon ACK from the monitors
+* Missed Beacon ACK from the Monitors
 * Missed Internal Heartbeats
 
 In-memory log dump is disabled by default. This prevents production
@@ -498,8 +498,8 @@ Run the following two commands in order to enable in-memory log dumping:
 
 .. note:: When higher log levels are set (``log_level`` greater than or equal
    to ``10``) there is no reason to dump the in-memory logs. A lower gather
-   level (``gather_level`` less than ``10``) is insufficient to gather in-
-   memory logs. This means that a log level of greater than or equal to ``10``
+   level (``gather_level`` less than ``10``) is insufficient to gather
+   in-memory logs. This means that a log level of greater than or equal to ``10``
    or a gather level of less than ``10`` in ``debug_mds`` prevents enabling
    in-memory-log dumping. In such cases, if there is a failure, you must reset
    the value of ``mds_extraordinary_events_dump_interval`` to ``0`` before
@@ -572,7 +572,7 @@ data=....``
 Disabling the Volumes Plugin
 ============================
 In certain scenarios, the Volumes plugin may need to be disabled to prevent
-compromise for rest of the Ceph cluster. For details see:
+compromise for the rest of the Ceph cluster. For details see:
 :ref:`disabling-volumes-plugin`
 
 Reporting Issues
@@ -582,7 +582,7 @@ If you have identified a specific issue, please report it with as much
 information as possible. Especially important information:
 
 * Ceph versions installed on client and server
-* Whether you are using the kernel or fuse client
+* Whether you are using the kernel or FUSE client
 * If you are using the kernel client, what kernel version?
 * How many clients are in play, doing what kind of workload?
 * If a system is 'stuck', is that affecting all clients or just one?
index c06e3e8e0ca2f112684d8840f6d136f8fa9c06f0..0396bd5c1a3c0f423112362bfae8c9bbf6a1156f 100644 (file)
@@ -79,7 +79,7 @@ the services, run the following command:
 
 This only needs to be run once, and it is not necessary to
 stop any other services while it runs.  The command may take some
-time to execute, as it iterates overall objects in your metadata
+time to execute, as it iterates over all objects in your metadata
 pool.  It is safe to continue using your file system as normal while
 it executes.  If the command aborts for any reason, it is safe
 to simply run it again.