]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: filesystem to file system
authorPatrick Donnelly <pdonnell@redhat.com>
Mon, 9 Sep 2019 19:36:04 +0000 (12:36 -0700)
committerPatrick Donnelly <pdonnell@redhat.com>
Tue, 10 Sep 2019 15:43:28 +0000 (08:43 -0700)
"Filesystem" is not a word (although fairly common in use).

Signed-off-by: Patrick Donnelly <pdonnell@redhat.com>
69 files changed:
doc/api/index.rst
doc/architecture.rst
doc/ceph-volume/lvm/zap.rst
doc/ceph-volume/systemd.rst
doc/cephfs/administration.rst
doc/cephfs/app-best-practices.rst
doc/cephfs/best-practices.rst
doc/cephfs/capabilities.rst
doc/cephfs/cephfs-journal-tool.rst
doc/cephfs/cephfs-shell.rst
doc/cephfs/client-auth.rst
doc/cephfs/createfs.rst
doc/cephfs/disaster-recovery-experts.rst
doc/cephfs/disaster-recovery.rst
doc/cephfs/eviction.rst
doc/cephfs/experimental-features.rst
doc/cephfs/fstab.rst
doc/cephfs/full.rst
doc/cephfs/fuse.rst
doc/cephfs/health-messages.rst
doc/cephfs/index.rst
doc/cephfs/kernel-features.rst
doc/cephfs/kernel.rst
doc/cephfs/multimds.rst
doc/cephfs/nfs.rst
doc/cephfs/posix.rst
doc/cephfs/scrub.rst
doc/cephfs/standby.rst
doc/cephfs/troubleshooting.rst
doc/cephfs/upgrading.rst
doc/dev/cephfs-reclaim.rst
doc/dev/cephfs-snapshots.rst
doc/dev/osd_internals/osd_throttles.rst
doc/dev/osd_internals/snaps.rst
doc/glossary.rst
doc/index.rst
doc/install/manual-deployment.rst
doc/install/manual-freebsd-deployment.rst
doc/man/8/ceph-authtool.rst
doc/man/8/ceph-volume.rst
doc/man/8/ceph.rst
doc/man/8/rbd-fuse.rst
doc/man/8/rbd.rst
doc/man/8/rbdmap.rst
doc/mgr/dashboard.rst
doc/mgr/modules.rst
doc/mgr/orchestrator_cli.rst
doc/rados/configuration/bluestore-config-ref.rst
doc/rados/configuration/ceph-conf.rst
doc/rados/configuration/filestore-config-ref.rst
doc/rados/configuration/general-config-ref.rst
doc/rados/configuration/journal-ref.rst
doc/rados/deployment/ceph-deploy-new.rst
doc/rados/index.rst
doc/rados/operations/user-management.rst
doc/rados/troubleshooting/troubleshooting-mon.rst
doc/rados/troubleshooting/troubleshooting-osd.rst
doc/radosgw/index.rst
doc/rbd/index.rst
doc/rbd/qemu-rbd.rst
doc/rbd/rbd-kubernetes.rst
doc/rbd/rbd-openstack.rst
doc/rbd/rbd-snapshot.rst
doc/start/documenting-ceph.rst
doc/start/hardware-recommendations.rst
doc/start/index.rst
doc/start/intro.rst
doc/start/kube-helm.rst
doc/start/quick-cephfs.rst

index 4a017aa8f30bf68e72b963f836dee0db8019bd32..afeefc50befda80708c97fa4886e1df9f5855ef4 100644 (file)
@@ -11,8 +11,8 @@ See `Ceph Storage Cluster APIs`_.
 .. _Ceph Storage Cluster APIs: ../rados/api/
 
 
-Ceph Filesystem APIs
-====================
+Ceph File System APIs
+=====================
 
 See `libcephfs (javadoc)`_.
 
index 6d24c5844c10de0780403e84b7e1b387f3058c14..95f43245a509570b3f3bfa4ab432b026ff55e898 100644 (file)
@@ -51,7 +51,7 @@ Storing Data
 
 The Ceph Storage Cluster receives data from :term:`Ceph Clients`--whether it
 comes through a :term:`Ceph Block Device`, :term:`Ceph Object Storage`, the
-:term:`Ceph Filesystem` or a custom implementation you create using
+:term:`Ceph File System` or a custom implementation you create using
 ``librados``--and it stores the data as objects. Each object corresponds to a
 file in a filesystem, which is stored on an :term:`Object Storage Device`. Ceph
 OSD Daemons handle the read/write operations on the storage disks.
@@ -1249,13 +1249,13 @@ The RAID type most similar to Ceph's striping is `RAID 0`_, or a 'striped
 volume'. Ceph's striping offers the throughput of RAID 0 striping, the
 reliability of n-way RAID mirroring and faster recovery.
 
-Ceph provides three types of clients: Ceph Block Device, Ceph Filesystem, and
+Ceph provides three types of clients: Ceph Block Device, Ceph File System, and
 Ceph Object Storage. A Ceph Client converts its data from the representation 
 format it provides to its users (a block device image, RESTful objects, CephFS
 filesystem directories) into objects for storage in the Ceph Storage Cluster. 
 
 .. tip:: The objects Ceph stores in the Ceph Storage Cluster are not striped. 
-   Ceph Object Storage, Ceph Block Device, and the Ceph Filesystem stripe their 
+   Ceph Object Storage, Ceph Block Device, and the Ceph File System stripe their 
    data over multiple Ceph Storage Cluster objects. Ceph Clients that write 
    directly to the Ceph Storage Cluster via ``librados`` must perform the
    striping (and parallel I/O) for themselves to obtain these benefits.
@@ -1434,7 +1434,7 @@ Ceph Clients include a number of service interfaces. These include:
   provides RESTful APIs with interfaces that are compatible with Amazon S3
   and OpenStack Swift. 
   
-- **Filesystem**: The :term:`Ceph Filesystem` (CephFS) service provides 
+- **Filesystem**: The :term:`Ceph File System` (CephFS) service provides 
   a POSIX compliant filesystem usable with ``mount`` or as 
   a filesystem in user space (FUSE).
 
@@ -1513,14 +1513,14 @@ client. Other virtualization technologies such as Xen can access the Ceph Block
 Device kernel object(s). This is done with the  command-line tool ``rbd``.
 
 
-.. index:: CephFS; Ceph Filesystem; libcephfs; MDS; metadata server; ceph-mds
+.. index:: CephFS; Ceph File System; libcephfs; MDS; metadata server; ceph-mds
 
 .. _arch-cephfs:
 
-Ceph Filesystem
----------------
+Ceph File System
+----------------
 
-The Ceph Filesystem (CephFS) provides a POSIX-compliant filesystem as a
+The Ceph File System (CephFS) provides a POSIX-compliant filesystem as a
 service that is layered on top of the object-based Ceph Storage Cluster.
 CephFS files get mapped to objects that Ceph stores in the Ceph Storage
 Cluster. Ceph Clients mount a CephFS filesystem as a kernel object or as
@@ -1544,14 +1544,14 @@ a Filesystem in User Space (FUSE).
             +---------------+ +---------------+ +---------------+
 
 
-The Ceph Filesystem service includes the Ceph Metadata Server (MDS) deployed
+The Ceph File System service includes the Ceph Metadata Server (MDS) deployed
 with the Ceph Storage cluster. The purpose of the MDS is to store all the
 filesystem metadata (directories, file ownership, access modes, etc) in
 high-availability Ceph Metadata Servers where the metadata resides in memory.
 The reason for the MDS (a daemon called ``ceph-mds``) is that simple filesystem
 operations like listing a directory or changing a directory (``ls``, ``cd``)
 would tax the Ceph OSD Daemons unnecessarily. So separating the metadata from
-the data means that the Ceph Filesystem can provide high performance services
+the data means that the Ceph File System can provide high performance services
 without taxing the Ceph Storage Cluster.
 
 CephFS separates the metadata from the data, storing the metadata in the MDS,
index 367d7469308a1a12aa0a0e291e84b62be0cb83aa..e737fc38685ac50064961a465777fc354216c6f5 100644 (file)
@@ -5,7 +5,7 @@
 
 This subcommand is used to zap lvs, partitions or raw devices that have been used
 by ceph OSDs so that they may be reused. If given a path to a logical
-volume it must be in the format of vg/lv. Any filesystems present
+volume it must be in the format of vg/lv. Any file systems present
 on the given lv or partition will be removed and all data will be purged.
 
 .. note:: The lv or partition will be kept intact.
index 6cbc112183b0ba03207473ff8bd1c79b9b96ed44..dc7bb793916e09740643b65f6b8d40c470c36c4d 100644 (file)
@@ -27,7 +27,7 @@ Both the command and extra metadata gets persisted by systemd as part of the
     systemctl enable ceph-volume@lvm-0-0A3E1ED2-DA8A-4F0E-AA95-61DEC71768D6
 
 The enabled unit is a :term:`systemd oneshot` service, meant to start at boot
-after the local filesystem is ready to be used.
+after the local file system is ready to be used.
 
 
 Failure and Retries
index a1ae02d6610ff0dc0853c55700f758cf19552699..74e73b698e125fe8339df73fd8c2e1bfda6ad601 100644 (file)
@@ -3,16 +3,16 @@
 CephFS Administrative commands
 ==============================
 
-Filesystems
------------
+File Systems
+------------
 
-These commands operate on the CephFS filesystems in your Ceph cluster.
-Note that by default only one filesystem is permitted: to enable
-creation of multiple filesystems use ``ceph fs flag set enable_multiple true``.
+These commands operate on the CephFS file systems in your Ceph cluster.
+Note that by default only one file system is permitted: to enable
+creation of multiple file systems use ``ceph fs flag set enable_multiple true``.
 
 ::
 
-    fs new <filesystem name> <metadata pool name> <data pool name>
+    fs new <file system name> <metadata pool name> <data pool name>
 
 This command creates a new file system. The file system name and metadata pool
 name are self-explanatory. The specified data pool is the default data pool and
@@ -37,7 +37,7 @@ standby MDS daemons.
 
 ::
 
-    fs rm <filesystem name> [--yes-i-really-mean-it]
+    fs rm <file system name> [--yes-i-really-mean-it]
 
 Destroy a CephFS file system. This wipes information about the state of the
 file system from the FSMap. The metadata pool and data pools are untouched and
@@ -45,28 +45,28 @@ must be destroyed separately.
 
 ::
 
-    fs get <filesystem name>
+    fs get <file system name>
 
 Get information about the named file system, including settings and ranks. This
 is a subset of the same information from the ``fs dump`` command.
 
 ::
 
-    fs set <filesystem name> <var> <val>
+    fs set <file system name> <var> <val>
 
 Change a setting on a file system. These settings are specific to the named
 file system and do not affect other file systems.
 
 ::
 
-    fs add_data_pool <filesystem name> <pool name/id>
+    fs add_data_pool <file system name> <pool name/id>
 
 Add a data pool to the file system. This pool can be used for file layouts
 as an alternate location to store file data.
 
 ::
 
-    fs rm_data_pool <filesystem name> <pool name/id>
+    fs rm_data_pool <file system name> <pool name/id>
 
 This command removes the specified pool from the list of data pools for the
 file system.  If any files have layouts for the removed data pool, the file
@@ -258,7 +258,7 @@ Advanced
 These commands are not required in normal operation, and exist
 for use in exceptional circumstances.  Incorrect use of these
 commands may cause serious problems, such as an inaccessible
-filesystem.
+file system.
 
 ::
 
@@ -286,7 +286,7 @@ This removes a rank from the failed set.
 
 ::
 
-    fs reset <filesystem name>
+    fs reset <file system name>
 
 This command resets the file system state to defaults, except for the name and
 pools. Non-zero ranks are saved in the stopped set.
index d916e184b93f08e9c8b68ec8889059b1b8c3e36e..f55f46724c6638e890c95c8e87d75ef134a1301e 100644 (file)
@@ -1,16 +1,16 @@
 
-Application best practices for distributed filesystems
-======================================================
+Application best practices for distributed file systems
+=======================================================
 
 CephFS is POSIX compatible, and therefore should work with any existing
-applications that expect a POSIX filesystem.  However, because it is a
-network filesystem (unlike e.g. XFS) and it is highly consistent (unlike
+applications that expect a POSIX file system.  However, because it is a
+network file system (unlike e.g. XFS) and it is highly consistent (unlike
 e.g. NFS), there are some consequences that application authors may
 benefit from knowing about.
 
-The following sections describe some areas where distributed filesystems
+The following sections describe some areas where distributed file systems
 may have noticeably different performance behaviours compared with
-local filesystems.
+local file systems.
 
 
 ls -l
@@ -56,7 +56,7 @@ Hard links
 ----------
 
 Hard links have an intrinsic cost in terms of the internal housekeeping
-that a filesystem has to do to keep two references to the same data.  In
+that a file system has to do to keep two references to the same data.  In
 CephFS there is a particular performance cost, because with normal files
 the inode is embedded in the directory (i.e. there is no extra fetch of
 the inode after looking up the path).
@@ -74,13 +74,10 @@ make sure you test it appropriately: don't test your system with a small
 number of files and then expect equivalent performance when you move
 to a much larger number of files.
 
-Do you need a filesystem?
--------------------------
+Do you need a file system?
+--------------------------
 
 Remember that Ceph also includes an object storage interface.  If your
 application needs to store huge flat collections of files where you just
 read and write whole files at once, then you might well be better off
 using the :ref:`Object Gateway <object-gateway>`
-
-
-
index 06a14ec6b8e77b15df5d96b430675aafe3d3aeab..daeb2d752b798075d5598dd75c2a9eba7cee0731 100644 (file)
@@ -25,7 +25,7 @@ Most stable configuration
 Some features in CephFS are still experimental.  See
 :doc:`/cephfs/experimental-features` for guidance on these.
 
-For the best chance of a happy healthy filesystem, use a **single active MDS** 
+For the best chance of a happy healthy file system, use a **single active MDS** 
 and **do not use snapshots**.  Both of these are the default.
 
 Note that creating multiple MDS daemons is fine, as these will simply be
index 335b053ad7e34171688e911623631084eeb6057b..ac47bb12ba7ad47d8a1c957682b27403bf56580c 100644 (file)
@@ -4,7 +4,7 @@ Capabilities in CephFS
 When a client wants to operate on an inode, it will query the MDS in various
 ways, which will then grant the client a set of **capabilities**. These
 grant the client permissions to operate on the inode in various ways. One
-of the major differences from other network filesystems (e.g NFS or SMB) is
+of the major differences from other network file systems (e.g NFS or SMB) is
 that the capabilities granted are quite granular, and it's possible that
 multiple clients can hold different capabilities on the same inodes.
 
index bd70e8170538ab26aa7e71ae0578903a725211f9..64a113091182888fed88009eb146cb02b037fda8 100644 (file)
@@ -6,7 +6,7 @@ Purpose
 -------
 
 If a CephFS journal has become damaged, expert intervention may be required
-to restore the filesystem to a working state.
+to restore the file system to a working state.
 
 The ``cephfs-journal-tool`` utility provides functionality to aid experts in
 examining, modifying, and extracting data from journals.
@@ -14,7 +14,7 @@ examining, modifying, and extracting data from journals.
 .. warning::
 
     This tool is **dangerous** because it directly modifies internal
-    data structures of the filesystem.  Make backups, be careful, and
+    data structures of the file system.  Make backups, be careful, and
     seek expert advice.  If you are unsure, do not run this tool.
 
 Syntax
@@ -133,7 +133,7 @@ Actions:
 
 * ``get`` read the events from the log
 * ``splice`` erase events or regions in the journal
-* ``apply`` extract filesystem metadata from events and attempt to apply it to the metadata store.
+* ``apply`` extract file system metadata from events and attempt to apply it to the metadata store.
 
 Filtering:
 
index 0789fa5c935e76a9de8d6babaaa1c465f339dab4..3825598fa49a3d187e974e9c1f4f9b5d70e11364 100644 (file)
@@ -3,7 +3,7 @@
 CephFS Shell
 =============
 
-The File System (FS) shell includes various shell-like commands that directly interact with the :term:`Ceph Filesystem`.
+The File System (FS) shell includes various shell-like commands that directly interact with the :term:`Ceph File System`.
 
 Usage :
 
@@ -47,7 +47,7 @@ Options :
 put
 ---
 
-Copy a file/directory to Ceph Filesystem from Local Filesystem.
+Copy a file/directory to Ceph File System from Local File System.
 
 Usage : 
     
@@ -67,13 +67,13 @@ Options :
 get
 ---
  
-Copy a file from Ceph Filesystem to Local Filesystem.
+Copy a file from Ceph File System to Local File System.
 
 Usage : 
 
     get [options] <source_path> [target_path]
 
-* source_path - remote file/directory path which is to be copied to local filesystem.
+* source_path - remote file/directory path which is to be copied to local file system.
     * if `.` copies all the file/directories in the remote working directory.
                     
 * target_path - local directory path where the files/directories are to be copied to.
@@ -353,7 +353,7 @@ Usage:
 locate
 ------
 
-Find an item in Filesystem
+Find an item in File System
 
 Usage:
 
index 74cd8a38ab2bc7ee90778e03b7fb64176f173b2e..6a70ad22e0b7f70df5c6ab297b3097336695fdf0 100644 (file)
@@ -2,7 +2,7 @@
 CephFS Client Capabilities
 ================================
 
-Use Ceph authentication capabilities to restrict your filesystem clients
+Use Ceph authentication capabilities to restrict your file system clients
 to the lowest possible level of authority needed.
 
 .. note::
@@ -27,9 +27,9 @@ Syntax
 To grant rw access to the specified directory only, we mention the specified
 directory while creating key for a client using the following syntax. ::
 
- ceph fs authorize *filesystem_name* client.*client_name* /*specified_directory* rw
+ ceph fs authorize *file_system_name* client.*client_name* /*specified_directory* rw
 
-For example, to restrict client ``foo`` to writing only in the ``bar`` directory of filesystem ``cephfs``, use ::
+For example, to restrict client ``foo`` to writing only in the ``bar`` directory of file system ``cephfs``, use ::
 
  ceph fs authorize cephfs client.foo / r /bar rw
 
@@ -47,10 +47,10 @@ root directory ::
  ceph fs authorize cephfs client.foo /bar rw
 
 Note that if a client's read access is restricted to a path, they will only
-be able to mount the filesystem when specifying a readable path in the
+be able to mount the file system when specifying a readable path in the
 mount command (see below).
 
-Supplying ``all`` or ``*`` as the filesystem name will grant access to every
+Supplying ``all`` or ``*`` as the file system name will grant access to every
 file system. Note that it is usually necessary to quote ``*`` to protect it from
 the shell.
 
@@ -72,7 +72,7 @@ By default, when a client is mounting a sub-directory, the used space (``df``)
 will be calculated from the quota on that sub-directory, rather than reporting
 the overall amount of space used on the cluster.
 
-If you would like the client to report the overall usage of the filesystem,
+If you would like the client to report the overall usage of the file system,
 and not just the quota usage on the sub-directory mounted, then set the
 following config option on the client:
 
@@ -81,7 +81,7 @@ following config option on the client:
     client quota df = false
 
 If quotas are not enabled, or no quota is set on the sub-directory mounted,
-then the overall usage of the filesystem will be reported irrespective of
+then the overall usage of the file system will be reported irrespective of
 the value of this setting.
 
 Layout and Quota restriction (the 'p' flag)
@@ -93,7 +93,7 @@ with a "ceph." prefix, as well as restricting other means of setting
 these fields (such as openc operations with layouts).
 
 For example, in the following snippet client.0 can modify layouts and quotas
-on the filesystem cephfs_a, but client.1 cannot.
+on the file system cephfs_a, but client.1 cannot.
 
 ::
 
@@ -118,7 +118,7 @@ Note that when capability string also contains the 'p' flag, the 's' flag must
 appear after it (all flags except 'rw' must be specified in alphabetical order).
 
 For example, in the following snippet client.0 can create or delete snapshots
-in the ``bar`` directory of filesystem ``cephfs_a``.
+in the ``bar`` directory of file system ``cephfs_a``.
 
 ::
 
index 757bd00acb736751f8276ab054b124ffb5b5d1c8..0461673906713fd22d4705d61a03e4851415f2db 100644 (file)
@@ -1,17 +1,17 @@
-========================
-Create a Ceph filesystem
-========================
+=========================
+Create a Ceph file system
+=========================
 
 Creating pools
 ==============
 
-A Ceph filesystem requires at least two RADOS pools, one for data and one for metadata.
+A Ceph file system requires at least two RADOS pools, one for data and one for metadata.
 When configuring these pools, you might consider:
 
 - Using a higher replication level for the metadata pool, as any data loss in
-  this pool can render the whole filesystem inaccessible.
+  this pool can render the whole file system inaccessible.
 - Using lower-latency storage such as SSDs for the metadata pool, as this will
-  directly affect the observed latency of filesystem operations on clients.
+  directly affect the observed latency of file system operations on clients.
 - The data pool used to create the file system is the "default" data pool and
   the location for storing all inode backtrace information, used for hard link
   management and disaster recovery. For this reason, all inodes created in
@@ -23,7 +23,7 @@ When configuring these pools, you might consider:
   hierarchy of directories and files (see also :ref:`file-layouts`).
 
 Refer to :doc:`/rados/operations/pools` to learn more about managing pools.  For
-example, to create two pools with default settings for use with a filesystem, you
+example, to create two pools with default settings for use with a file system, you
 might run the following commands:
 
 .. code:: bash
@@ -36,10 +36,10 @@ this reason, a smaller PG count is usually recommended. 64 or 128 is commonly
 used in practice for large clusters.
 
 
-Creating a filesystem
-=====================
+Creating a file system
+======================
 
-Once the pools are created, you may enable the filesystem using the ``fs new`` command:
+Once the pools are created, you may enable the file system using the ``fs new`` command:
 
 .. code:: bash
 
@@ -53,7 +53,7 @@ For example:
     $ ceph fs ls
     name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
 
-Once a filesystem has been created, your MDS(s) will be able to enter
+Once a file system has been created, your MDS(s) will be able to enter
 an *active* state.  For example, in a single MDS system:
 
 .. code:: bash
@@ -61,8 +61,8 @@ an *active* state.  For example, in a single MDS system:
     $ ceph mds stat
     cephfs-1/1/1 up {0=a=up:active}
 
-Once the filesystem is created and the MDS is active, you are ready to mount
-the filesystem.  If you have created more than one filesystem, you will
+Once the file system is created and the MDS is active, you are ready to mount
+the file system.  If you have created more than one file system, you will
 choose which to use when mounting.
 
        - `Mount CephFS`_
@@ -71,8 +71,8 @@ choose which to use when mounting.
 .. _Mount CephFS: ../../cephfs/kernel
 .. _Mount CephFS as FUSE: ../../cephfs/fuse
 
-If you have created more than one filesystem, and a client does not
-specify a filesystem when mounting, you can control which filesystem
+If you have created more than one file system, and a client does not
+specify a file system when mounting, you can control which file system
 they will see by using the `ceph fs set-default` command.
 
 Using Erasure Coded pools with CephFS
index 75c03f0302ca9e4a62097c08398ab7f3d386f6e6..dad9f88ba2daf7aa028fcba9803f0c6df9a721e0 100644 (file)
@@ -12,7 +12,7 @@ Advanced: Metadata repair tools
     The tools mentioned here can easily cause damage as well as fixing it.
 
     It is essential to understand exactly what has gone wrong with your
-    filesystem before attempting to repair it.
+    file system before attempting to repair it.
 
     If you do not have access to professional support for your cluster,
     consult the ceph-users mailing list or the #ceph IRC channel.
@@ -98,7 +98,7 @@ also need to reset the other tables then replace 'session' with 'snap' or 'inode
 MDS map reset
 -------------
 
-Once the in-RADOS state of the filesystem (i.e. contents of the metadata pool)
+Once the in-RADOS state of the file system (i.e. contents of the metadata pool)
 is somewhat recovered, it may be necessary to update the MDS map to reflect
 the contents of the metadata pool.  Use the following command to reset the MDS
 map to a single MDS:
@@ -200,8 +200,8 @@ Using an alternate metadata pool for recovery
    There has not been extensive testing of this procedure. It should be
    undertaken with great care.
 
-If an existing filesystem is damaged and inoperative, it is possible to create
-a fresh metadata pool and attempt to reconstruct the filesystem metadata
+If an existing file system is damaged and inoperative, it is possible to create
+a fresh metadata pool and attempt to reconstruct the file system metadata
 into this new pool, leaving the old metadata in place. This could be used to
 make a safer attempt at recovery since the existing metadata pool would not be
 overwritten.
@@ -232,11 +232,11 @@ results to the alternate pool:
 
 ::
 
-    cephfs-data-scan scan_extents --alternate-pool recovery --filesystem <original filesystem name> <original data pool name>
-    cephfs-data-scan scan_inodes --alternate-pool recovery --filesystem <original filesystem name> --force-corrupt --force-init <original data pool name>
+    cephfs-data-scan scan_extents --alternate-pool recovery --filesystem <original file system name> <original data pool name>
+    cephfs-data-scan scan_inodes --alternate-pool recovery --filesystem <original file system name> --force-corrupt --force-init <original data pool name>
     cephfs-data-scan scan_links --filesystem recovery-fs
 
-If the damaged filesystem contains dirty journal data, it may be recovered next
+If the damaged file system contains dirty journal data, it may be recovered next
 with:
 
 ::
index 71344e903b1ecb9c0e50c0476dc54951e978d54b..a728feb55d097cf5e0721f23df92904d2e2e8068 100644 (file)
@@ -6,7 +6,7 @@ Disaster recovery
 Metadata damage and repair
 --------------------------
 
-If a filesystem has inconsistent or missing metadata, it is considered
+If a file system has inconsistent or missing metadata, it is considered
 *damaged*.  You may find out about damage from a health message, or in some
 unfortunate cases from an assertion in a running MDS daemon.
 
@@ -14,7 +14,7 @@ Metadata damage can result either from data loss in the underlying RADOS
 layer (e.g. multiple disk failures that lose all copies of a PG), or from
 software bugs.
 
-CephFS includes some tools that may be able to recover a damaged filesystem,
+CephFS includes some tools that may be able to recover a damaged file system,
 but to use them safely requires a solid understanding of CephFS internals.
 The documentation for these potentially dangerous operations is on a
 separate page: :ref:`disaster-recovery-experts`.
@@ -22,7 +22,7 @@ separate page: :ref:`disaster-recovery-experts`.
 Data pool damage (files affected by lost data PGs)
 --------------------------------------------------
 
-If a PG is lost in a *data* pool, then the filesystem will continue
+If a PG is lost in a *data* pool, then the file system will continue
 to operate normally, but some parts of some files will simply
 be missing (reads will return zeros).
 
@@ -56,6 +56,6 @@ The output will be a list of paths to potentially damaged files, one
 per line.
 
 Note that this command acts as a normal CephFS client to find all the
-files in the filesystem and read their layouts, so the MDS must be
+files in the file system and read their layouts, so the MDS must be
 up and running.
 
index c0d54f4180abd08d4d7d881a11c4570e0eacf3ea..c64972c0ff10f43709c51be9f6c697ff17666943 100644 (file)
@@ -1,14 +1,14 @@
 
-===============================
-Ceph filesystem client eviction
-===============================
+================================
+Ceph file system client eviction
+================================
 
-When a filesystem client is unresponsive or otherwise misbehaving, it
-may be necessary to forcibly terminate its access to the filesystem.  This
+When a file system client is unresponsive or otherwise misbehaving, it
+may be necessary to forcibly terminate its access to the file system.  This
 process is called *eviction*.
 
 Evicting a CephFS client prevents it from communicating further with MDS
-daemons and OSD daemons.  If a client was doing buffered IO to the filesystem,
+daemons and OSD daemons.  If a client was doing buffered IO to the file system,
 any un-flushed data will be lost.
 
 Clients may either be evicted automatically (if they fail to communicate
index 3344a34d2a864918a03507ea9717f2bc36189b61..d018b262268c2b58dbb6b7e9d1062cc929ac4701 100644 (file)
@@ -39,7 +39,7 @@ writing, but there is insufficient testing to provide stability guarantees and
 every expansion of testing has generally revealed new issues. If you do enable
 snapshots and experience failure, manual intervention will be needed.
 
-Snapshots are known not to work properly with multiple filesystems (below) in
+Snapshots are known not to work properly with multiple file systems (below) in
 some cases. Specifically, if you share a pool for multiple FSes and delete
 a snapshot in one FS, expect to lose snapshotted file data in any other FS using
 snapshots. See the :doc:`/dev/cephfs-snapshots` page for more information.
@@ -49,25 +49,25 @@ to 400 snapshots (http://tracker.ceph.com/issues/21420).
 
 Snapshotting was blocked off with the ``allow_new_snaps`` flag prior to Mimic.
 
-Multiple filesystems within a Ceph cluster
-------------------------------------------
+Multiple file systems within a Ceph cluster
+-------------------------------------------
 Code was merged prior to the Jewel release which enables administrators
-to create multiple independent CephFS filesystems within a single Ceph cluster.
-These independent filesystems have their own set of active MDSes, cluster maps,
+to create multiple independent CephFS file systems within a single Ceph cluster.
+These independent file systems have their own set of active MDSes, cluster maps,
 and data. But the feature required extensive changes to data structures which
 are not yet fully qualified, and has security implications which are not all
 apparent nor resolved.
 
 There are no known bugs, but any failures which do result from having multiple
-active filesystems in your cluster will require manual intervention and, so far,
+active file systems in your cluster will require manual intervention and, so far,
 will not have been experienced by anybody else -- knowledgeable help will be
 extremely limited. You also probably do not have the security or isolation
 guarantees you want or think you have upon doing so.
 
-Note that snapshots and multiple filesystems are *not* tested in combination
+Note that snapshots and multiple file systems are *not* tested in combination
 and may not work together; see above.
 
-Multiple filesystems were available starting in the Jewel release candidates
+Multiple file systems were available starting in the Jewel release candidates
 but must be turned on via the ``enable_multiple`` flag until declared stable.
 
 LazyIO
@@ -83,28 +83,28 @@ Directory Fragmentation
 -----------------------
 
 Directory fragmentation was considered experimental prior to the *Luminous*
-(12.2.x).  It is now enabled by default on new filesystems.  To enable directory
-fragmentation on filesystems created with older versions of Ceph, set
-the ``allow_dirfrags`` flag on the filesystem:
+(12.2.x).  It is now enabled by default on new file systems.  To enable directory
+fragmentation on file systems created with older versions of Ceph, set
+the ``allow_dirfrags`` flag on the file system:
 
 ::
 
-    ceph fs set <filesystem name> allow_dirfrags 1
+    ceph fs set <file system name> allow_dirfrags 1
 
 Multiple active metadata servers
 --------------------------------
 
 Prior to the *Luminous* (12.2.x) release, running multiple active metadata
-servers within a single filesystem was considered experimental.  Creating
+servers within a single file system was considered experimental.  Creating
 multiple active metadata servers is now permitted by default on new
-filesystems.
+file systems.
 
-Filesystems created with older versions of Ceph still require explicitly
+File Systems created with older versions of Ceph still require explicitly
 enabling multiple active metadata servers as follows:
 
 ::
 
-    ceph fs set <filesystem name> allow_multimds 1
+    ceph fs set <file system name> allow_multimds 1
 
 Note that the default size of the active mds cluster (``max_mds``) is
 still set to 1 initially.
index 785208d7f2f8210b07606182a04fe87a20652b8b..a5bb14d0623e12e8cd8d1ec51d3c11d6a8fc199e 100644 (file)
@@ -11,7 +11,7 @@ Kernel Driver
 To mount CephFS in your file systems table as a kernel driver, add the
 following to ``/etc/fstab``::
 
-       {ipaddress}:{port}:/ {mount}/{mountpoint} {filesystem-name}     [name=username,secret=secretkey|secretfile=/path/to/secretfile],[{mount.options}]
+       {ipaddress}:{port}:/ {mount}/{mountpoint} {file-system-name}    [name=username,secret=secretkey|secretfile=/path/to/secretfile],[{mount.options}]
 
 For example:: 
 
@@ -26,7 +26,7 @@ See `User Management`_ for details.
 FUSE
 ====
 
-To mount CephFS in your file systems table as a filesystem in user space, add the
+To mount CephFS in your file systems table as a file system in user space, add the
 following to ``/etc/fstab``::
 
        #DEVICE PATH       TYPE      OPTIONS
index cc9eb5961d7a675ce001dfedb13584f0d0b82c34..35c5ff266e922561b53d259d2acb89ccb744d102 100644 (file)
@@ -1,18 +1,18 @@
 
-Handling a full Ceph filesystem
-===============================
+Handling a full Ceph file system
+================================
 
 When a RADOS cluster reaches its ``mon_osd_full_ratio`` (default
 95%) capacity, it is marked with the OSD full flag.  This flag causes
 most normal RADOS clients to pause all operations until it is resolved
 (for example by adding more capacity to the cluster).
 
-The filesystem has some special handling of the full flag, explained below.
+The file system has some special handling of the full flag, explained below.
 
 Hammer and later
 ----------------
 
-Since the hammer release, a full filesystem will lead to ENOSPC
+Since the hammer release, a full file system will lead to ENOSPC
 results from:
 
  * Data writes on the client
@@ -31,7 +31,7 @@ data made it to disk, and in a full-space situation, buffered data
 may be discarded after an ``fclose`` if no space is available to persist it.
 
 .. warning::
-    If an application appears to be misbehaving on a full filesystem,
+    If an application appears to be misbehaving on a full file system,
     check that it is performing ``fsync()`` calls as necessary to ensure
     data is on disk before proceeding.
 
@@ -53,7 +53,7 @@ There are two dangerous conditions to watch for with this behaviour:
 
 * If a client had pending writes to a file, then it was not possible
   for the client to release the file to the MDS for deletion: this could
-  lead to difficulty clearing space on a full filesystem
+  lead to difficulty clearing space on a full file system
 * If clients continued to create a large number of empty files, the
   resulting metadata writes from the MDS could lead to total exhaustion
   of space on the OSDs such that no further deletions could be performed.
index 3a6c70bc9d741e161eae9bdf0b4db1cdb7ec1ab7..d57c2002887a1d81331438da4d4fb30cd4bfab07 100644 (file)
@@ -29,7 +29,7 @@ For example::
        sudo mkdir /home/username/cephfs
        sudo ceph-fuse -m 192.168.0.1:6789 /home/username/cephfs
 
-If you have more than one filesystem, specify which one to mount using
+If you have more than one file system, specify which one to mount using
 the ``--client_mds_namespace`` command line argument, or add a
 ``client_mds_namespace`` setting to your ``ceph.conf``.
 
index aa93a9d7142def552b2df43134636fc549346919..a0f460da23ae3ae470c529430acefa2367953761 100644 (file)
@@ -9,7 +9,7 @@ Cluster health checks
 =====================
 
 The Ceph monitor daemons will generate health messages in response
-to certain states of the filesystem map structure (and the enclosed MDS maps).
+to certain states of the file system map structure (and the enclosed MDS maps).
 
 Message: mds rank(s) *ranks* have failed
 Description: One or more MDS ranks are not currently assigned to
index bf5a22f6020886f5f47cde1cdabe3d9649463e86..6231ed804cb148e51107f9d20bfd60b5094e6062 100644 (file)
@@ -1,11 +1,11 @@
-.. _ceph-filesystem:
+.. _ceph-file-system:
 
 =================
- Ceph Filesystem
+ Ceph File System
 =================
 
-The Ceph Filesystem (CephFS) is a POSIX-compliant filesystem that uses
-a Ceph Storage Cluster to store its data. The Ceph filesystem uses the same Ceph
+The Ceph File System (CephFS) is a POSIX-compliant file system that uses
+a Ceph Storage Cluster to store its data. The Ceph file system uses the same Ceph
 Storage Cluster system as Ceph Block Devices, Ceph Object Storage with its S3
 and Swift APIs, or native bindings (librados).
 
@@ -33,7 +33,7 @@ and Swift APIs, or native bindings (librados).
 Using CephFS
 ============
 
-Using the Ceph Filesystem requires at least one :term:`Ceph Metadata Server` in
+Using the Ceph File System requires at least one :term:`Ceph Metadata Server` in
 your Ceph Storage Cluster.
 
 
@@ -43,7 +43,7 @@ your Ceph Storage Cluster.
        <style type="text/css">div.body h3{margin:5px 0px 0px 0px;}</style>
        <table cellpadding="10"><colgroup><col width="33%"><col width="33%"><col width="33%"></colgroup><tbody valign="top"><tr><td><h3>Step 1: Metadata Server</h3>
 
-To run the Ceph Filesystem, you must have a running Ceph Storage Cluster with at
+To run the Ceph File System, you must have a running Ceph Storage Cluster with at
 least one :term:`Ceph Metadata Server` running.
 
 
@@ -62,7 +62,7 @@ least one :term:`Ceph Metadata Server` running.
        </td><td><h3>Step 2: Mount CephFS</h3>
 
 Once you have a healthy Ceph Storage Cluster with at least
-one Ceph Metadata Server, you may create and mount your Ceph Filesystem.
+one Ceph Metadata Server, you may create and mount your Ceph File System.
 Ensure that your client has network connectivity and the proper
 authentication keyring.
 
@@ -98,12 +98,12 @@ authentication keyring.
     cephfs-journal-tool <cephfs-journal-tool>
     File layouts <file-layouts>
     Client eviction <eviction>
-    Handling full filesystems <full>
+    Handling full file systems <full>
     Health messages <health-messages>
     Troubleshooting <troubleshooting>
     Disaster recovery <disaster-recovery>
     Client authentication <client-auth>
-    Upgrading old filesystems <upgrading>
+    Upgrading old file systems <upgrading>
     Configuring directory fragmentation <dirfrags>
     Configuring multiple active MDS daemons <multimds>
     Export over NFS <nfs>
index edd27bcd4ab4fb48647c22fafe223922a1974ced..d128b51a759338514a99d9593d9b9cf0b42acb9e 100644 (file)
@@ -19,8 +19,8 @@ quota. At present, no Linux kernel client support the old format quota.
 
 See `Quotas`_ for more information.
 
-Multiple filesystems within a Ceph cluster
-------------------------------------------
+Multiple file systems within a Ceph cluster
+-------------------------------------------
 The feature was introduced by the Jewel release. Linux kernel clients >= 4.7
 can support it.
 
index 23c7fd8cb1ad5272ac9a39ddea47eba3fa104a78..b81d6a30a9ec9d1151aff7ae9ab53b8b9bc0ae65 100644 (file)
@@ -19,7 +19,7 @@ approach reads the secret from a file. For example::
 
        sudo mount -t ceph 192.168.0.1:6789:/ /mnt/mycephfs -o name=admin,secretfile=/etc/ceph/admin.secret
        
-If you have more than one filesystem, specify which one to mount using
+If you have more than one file system, specify which one to mount using
 the ``mds_namespace`` option, e.g. ``-o mds_namespace=myfs``.
     
 See `User Management`_ for details on cephx.
index 8ed5bd0757ab790a5833425621a4fa19d372d359..fd49e612f0d0004f0cf22870d8619e97faa79cc9 100644 (file)
@@ -5,7 +5,7 @@ Configuring multiple active MDS daemons
 
 *Also known as: multi-mds, active-active MDS*
 
-Each CephFS filesystem is configured for a single active MDS daemon
+Each CephFS file system is configured for a single active MDS daemon
 by default.  To scale metadata performance for large scale systems, you
 may enable multiple active MDS daemons, which will share the metadata
 workload with one another.
@@ -28,8 +28,8 @@ are those with many clients, perhaps working on many separate directories.
 Increasing the MDS active cluster size
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
-Each CephFS filesystem has a *max_mds* setting, which controls how many ranks
-will be created.  The actual number of ranks in the filesystem will only be
+Each CephFS file system has a *max_mds* setting, which controls how many ranks
+will be created.  The actual number of ranks in the file system will only be
 increased if a spare daemon is available to take on the new rank. For example,
 if there is only one MDS daemon running, and max_mds is set to two, no second
 rank will be created. (Note that such a configuration is not Highly Available
index a6d5711f337a8ead702aa36eb3289260b7b7be44..17bf4303eb13294465b7f7650ecf36ff2f093f0f 100644 (file)
@@ -8,7 +8,7 @@ CephFS namespaces can be exported over NFS protocol using the
 Requirements
 ============
 
--  Ceph filesystem (preferably latest stable luminous or higher versions)
+-  Ceph file system (preferably latest stable luminous or higher versions)
 -  In the NFS server host machine, 'libcephfs2' (preferably latest stable
    luminous or higher), 'nfs-ganesha' and 'nfs-ganesha-ceph' packages (latest
    ganesha v2.5 stable or higher versions)
@@ -77,5 +77,5 @@ From the command line::
 Current limitations
 ===================
 
-- Per running ganesha daemon, FSAL_CEPH can only export one Ceph filesystem
-  although multiple directories in a Ceph filesystem may be exported.
+- Per running ganesha daemon, FSAL_CEPH can only export one Ceph file system
+  although multiple directories in a Ceph file system may be exported.
index 34c2b44ad94042447bab09c0044d69b7fda35372..6ea9dde8ade0d29205485535473cbfe06d9d953e 100644 (file)
@@ -88,7 +88,7 @@ fsync() and error reporting
 POSIX is somewhat vague about the state of an inode after fsync reports
 an error. In general, CephFS uses the standard error-reporting
 mechanisms in the client's kernel, and therefore follows the same
-conventions as other filesystems.
+conventions as other file systems.
 
 In modern Linux kernels (v4.17 or later), writeback errors are reported
 once to every file description that is open at the time of the error. In
index 7a28311bad8d3562bcd4e2ff02d126aefa6368df..f3af4f21a00ed1282ba880b302b465c75878a6f2 100644 (file)
@@ -1,24 +1,24 @@
 .. _mds-scrub:
 
-=====================
-Ceph Filesystem Scrub
-=====================
+======================
+Ceph File System Scrub
+======================
 
-CephFS provides the cluster admin (operator) to check consistency of a filesystem
+CephFS provides the cluster admin (operator) to check consistency of a file system
 via a set of scrub commands. Scrub can be classified into two parts:
 
-#. Forward Scrub: In which the scrub operation starts at the root of the filesystem
+#. Forward Scrub: In which the scrub operation starts at the root of the file system
    (or a sub directory) and looks at everything that can be touched in the hierarchy
    to ensure consistency.
 
 #. Backward Scrub: In which the scrub operation looks at every RADOS object in the
-   filesystem pools and maps it back to the filesystem hierarchy.
+   file system pools and maps it back to the file system hierarchy.
 
 This document details commands to initiate and control forward scrub (referred as
 scrub thereafter).
 
-Initiate Filesystem Scrub
-=========================
+Initiate File System Scrub
+==========================
 
 To start a scrub operation for a directory tree use the following command
 
@@ -36,7 +36,7 @@ a random string that can used to monitor the progress of the scrub operation (ex
 further in this document).
 
 Custom tag can also be specified when initiating the scrub operation. Custom tags get
-persisted in the metadata object for every inode in the filesystem tree that is being
+persisted in the metadata object for every inode in the file system tree that is being
 scrubbed.
 
 ::
@@ -49,8 +49,8 @@ scrubbed.
    }
 
 
-Monitor (ongoing) Filesystem Scrubs
-===================================
+Monitor (ongoing) File System Scrubs
+====================================
 
 Status of ongoing scrubs can be monitored using in `scrub status` command. This commands
 lists out ongoing scrubs (identified by the tag) along with the path and options used to
@@ -85,8 +85,8 @@ gets displayed in `ceph status`.
 
    [...]
 
-Control (ongoing) Filesystem Scrubs
-===================================
+Control (ongoing) File System Scrubs
+====================================
 
 - Pause: Pausing ongoing scrub operations results in no new or pending inodes being
   scrubbed after in-flight RADOS ops (for the inodes that are currently being scrubbed)
index 8983415dbbfac695e21f263c5f148a5b4c77ef5a..12a723774061c452634795eab9885179d59ea72c 100644 (file)
@@ -3,14 +3,14 @@
 Terminology
 -----------
 
-A Ceph cluster may have zero or more CephFS *filesystems*.  CephFS
-filesystems have a human readable name (set in ``fs new``)
-and an integer ID.  The ID is called the filesystem cluster ID,
+A Ceph cluster may have zero or more CephFS *file systems*.  CephFS
+file systems have a human readable name (set in ``fs new``)
+and an integer ID.  The ID is called the file system cluster ID,
 or *FSCID*.
 
-Each CephFS filesystem has a number of *ranks*, one by default,
+Each CephFS file system has a number of *ranks*, one by default,
 which start at zero.  A rank may be thought of as a metadata shard.
-Controlling the number of ranks in a filesystem is described
+Controlling the number of ranks in a file system is described
 in :doc:`/cephfs/multimds`
 
 Each CephFS ceph-mds process (a *daemon*) initially starts up
@@ -38,12 +38,12 @@ accept a flexible argument format that may contain a rank, a GID
 or a name.
 
 Where a rank is used, this may optionally be qualified with
-a leading filesystem name or ID.  If a daemon is a standby (i.e.
+a leading file system name or ID.  If a daemon is a standby (i.e.
 it is not currently assigned a rank), then it may only be
 referred to by GID or name.
 
 For example, if we had an MDS daemon which was called 'myhost',
-had GID 5446, and was assigned rank 0 in the filesystem 'myfs'
+had GID 5446, and was assigned rank 0 in the file system 'myfs'
 which had FSCID 3, then any of the following would be suitable
 forms of the 'fail' command:
 
@@ -53,7 +53,7 @@ forms of the 'fail' command:
     ceph mds fail myhost   # Daemon name
     ceph mds fail 0        # Unqualified rank
     ceph mds fail 3:0      # FSCID and rank
-    ceph mds fail myfs:0   # Filesystem name and rank
+    ceph mds fail myfs:0   # File System name and rank
 
 Managing failover
 -----------------
index befd6c21d17f6d3f35598dd71a90ad82b54f892c..1ff6cd0bea12b3584c3be0c83521be404568c6c7 100644 (file)
@@ -134,7 +134,7 @@ disrupted for a long enough time, the client will be forcibly
 disconnected from the system. At this point, the kernel client is in
 a bind: it cannot safely write back dirty data, and many applications
 do not handle IO errors correctly on close().
-At the moment, the kernel client will remount the FS, but outstanding filesystem
+At the moment, the kernel client will remount the FS, but outstanding file system
 IO may or may not be satisfied. In these cases, you may need to reboot your
 client system.
 
index 0a62fdb3e2a8d93dfcd4c547e24e1374e65daeae..8820ee855b6f1f3b21bc4fd918239776b7e4e1f5 100644 (file)
@@ -57,14 +57,14 @@ The proper sequence for upgrading the MDS cluster is:
     ceph fs set <fs_name> max_mds <old_max_mds>
 
 
-Upgrading pre-Firefly filesystems past Jewel
-============================================
+Upgrading pre-Firefly file systems past Jewel
+=============================================
 
 .. tip::
 
-    This advice only applies to users with filesystems
+    This advice only applies to users with file systems
     created using versions of Ceph older than *Firefly* (0.80).
-    Users creating new filesystems may disregard this advice.
+    Users creating new file systems may disregard this advice.
 
 Pre-firefly versions of Ceph used a now-deprecated format
 for storing CephFS directory objects, called TMAPs.  Support
@@ -82,11 +82,11 @@ the services, run the following command:
 This only needs to be run once, and it is not necessary to
 stop any other services while it runs.  The command may take some
 time to execute, as it iterates overall objects in your metadata
-pool.  It is safe to continue using your filesystem as normal while
+pool.  It is safe to continue using your file system as normal while
 it executes.  If the command aborts for any reason, it is safe
 to simply run it again.
 
-If you are upgrading a pre-Firefly CephFS filesystem to a newer Ceph version
+If you are upgrading a pre-Firefly CephFS file system to a newer Ceph version
 than Jewel, you must first upgrade to Jewel and run the ``tmap_upgrade``
 command before completing your upgrade to the latest version.
 
index 94edd39ae169ec1043e1f113a05718a0ef0520bc..ce56f5eaa252bd33b8540bdf01bd2f6d38f5e76b 100644 (file)
@@ -97,7 +97,7 @@ immediately.
        ceph_set_uuid(cmount, nodeid);
 
        /*
-        * Now mount up the filesystem and do normal open/lock operations to
+        * Now mount up the file system and do normal open/lock operations to
         * satisfy reclaim requests.
         */
        ceph_mount(cmount, rootpath);
index 509b5ff3f7065d6f383e0661542d5e6104f665d3..423240b9775cf8f2263ba6601c7f7a9a6b6a776c 100644 (file)
@@ -9,11 +9,11 @@ Overview
 -----------
 
 Generally, snapshots do what they sound like: they create an immutable view
-of the filesystem at the point in time they're taken. There are some headline
+of the file system at the point in time they're taken. There are some headline
 features that make CephFS snapshots different from what you might expect:
 
 * Arbitrary subtrees. Snapshots are created within any directory you choose,
-  and cover all data in the filesystem under that directory.
+  and cover all data in the file system under that directory.
 * Asynchronous. If you create a snapshot, buffered data is flushed out lazily,
   including from other clients. As a result, "creating" the snapshot is
   very fast.
@@ -30,7 +30,7 @@ Important Data Structures
   directory and contains sequence counters, timestamps, the list of associated
   snapshot IDs, and `past_parent_snaps`.
 * SnapServer: SnapServer manages snapshot ID allocation, snapshot deletion and
-  tracks list of effective snapshots in the filesystem. A filesystem only has
+  tracks list of effective snapshots in the file system. A file system only has
   one instance of snapserver.
 * SnapClient: SnapClient is used to communicate with snapserver, each MDS rank
   has its own snapclient instance. SnapClient also caches effective snapshots
@@ -38,8 +38,8 @@ Important Data Structures
 
 Creating a snapshot
 -------------------
-CephFS snapshot feature is enabled by default on new filesystem. To enable it
-on existing filesystems, use command below.
+CephFS snapshot feature is enabled by default on new file system. To enable it
+on existing file systems, use command below.
 
 .. code::
 
@@ -119,14 +119,14 @@ out again.
 Hard links
 ----------
 Inode with multiple hard links is moved to a dummy global SnapRealm. The
-dummy SnapRealm covers all snapshots in the filesystem. The inode's data
+dummy SnapRealm covers all snapshots in the file system. The inode's data
 will be preserved for any new snapshot. These preserved data will cover
 snapshots on any linkage of the inode.
 
 Multi-FS
 ---------
-Snapshots and multiple filesystems don't interact well. Specifically, each
-MDS cluster allocates `snapids` independently; if you have multiple filesystems
+Snapshots and multiple file systems don't interact well. Specifically, each
+MDS cluster allocates `snapids` independently; if you have multiple file systems
 sharing a single pool (via namespaces), their snapshots *will* collide and
 deleting one will result in missing file data for others. (This may even be
 invisible, not throwing errors to the user.) If each FS gets its own
index fbacb07815023cb339e583576bcce0f641dba8a6..590f445535ddde5f30cd18d50111780f5ac002b8 100644 (file)
@@ -35,12 +35,12 @@ The op queue throttle is intended to bound the amount of queued but
 uncompleted work in the filestore by delaying threads calling
 queue_transactions more and more based on how many ops and bytes are
 currently queued.  The throttle is taken in queue_transactions and
-released when the op is applied to the filesystem.  This period
+released when the op is applied to the file system.  This period
 includes time spent in the journal queue, time spent writing to the
 journal, time spent in the actual op queue, time spent waiting for the
 wbthrottle to open up (thus, the wbthrottle can push back indirectly
 on the queue_transactions caller), and time spent actually applying
-the op to the filesystem.  A BackoffThrottle is used to gradually
+the op to the file system.  A BackoffThrottle is used to gradually
 delay the queueing thread after each throttle becomes more than
 filestore_queue_low_threshhold full (a ratio of
 filestore_queue_max_(bytes|ops)).  The throttles will block once the
index ed9538ba18566d348144e544ad5fdef526cebd8c..45379e94ec8f661c6a23baad259f2ea49c4a1a3d 100644 (file)
@@ -98,7 +98,7 @@ retrim a now empty snap.
 SnapMapper
 ----------
 *SnapMapper* is implemented on top of map_cacher<string, bufferlist>,
-which provides an interface over a backing store such as the filesystem
+which provides an interface over a backing store such as the file system
 with async transactions.  While transactions are incomplete, the map_cacher
 instance buffers unstable keys allowing consistent access without having
 to flush the filestore.  *SnapMapper* provides two mappings:
index e8e95c5b82d46c614aadb54faa5f115faeffc6dc..1460235649423343982f60b78e2321eb9eaadd7f 100644 (file)
@@ -66,11 +66,11 @@ reflect either technical terms or legacy ways of referring to Ceph systems.
                conjunction with ``librbd``, a hypervisor such as QEMU or Xen, and a
                hypervisor abstraction layer such as ``libvirt``.
 
-       Ceph Filesystem
+       Ceph File System
        CephFS
        Ceph FS
                The POSIX filesystem components of Ceph. Refer
-               :ref:`CephFS Architecture <arch-cephfs>` and :ref:`ceph-filesystem` for
+               :ref:`CephFS Architecture <arch-cephfs>` and :ref:`ceph-file-system` for
                more details.
 
        Cloud Platforms
@@ -142,7 +142,7 @@ reflect either technical terms or legacy ways of referring to Ceph systems.
        Ceph Client
                The collection of Ceph components which can access a Ceph Storage
                Cluster. These include the Ceph Object Gateway, the Ceph Block Device,
-               the Ceph Filesystem, and their corresponding libraries, kernel modules,
+               the Ceph File System, and their corresponding libraries, kernel modules,
                and FUSEs.
 
        Ceph Kernel Modules
index f38ebc786ff844fed734c5e1bf325277531654f4..560e8fce8434d0f4e16784e4739e1f7cc08ea79d 100644 (file)
@@ -40,7 +40,7 @@ system**.
 
 .. raw:: html
 
-       </td><td><h3>Ceph Filesystem</h3>
+       </td><td><h3>Ceph File System</h3>
 
 - POSIX-compliant semantics
 - Separates metadata from data
@@ -68,7 +68,7 @@ See `Ceph Block Device`_ for additional details.
 
        </td><td>
 
-See `Ceph Filesystem`_ for additional details.
+See `Ceph File System`_ for additional details.
 
 .. raw::       html
 
@@ -83,7 +83,7 @@ about Ceph, see our `Architecture`_ section.
 
 .. _Ceph Object Store: radosgw
 .. _Ceph Block Device: rbd
-.. _Ceph Filesystem: cephfs
+.. _Ceph File System: cephfs
 .. _Getting Started: start
 .. _Architecture: architecture
 
index 0570eff2b8afdc3fbdbda93fe59b8c11be3d43af..b30bd143371a55aa3f6134335b978a1175fff2c5 100644 (file)
@@ -45,7 +45,7 @@ a number of things:
 
 - **Unique Identifier:** The ``fsid`` is a unique identifier for the cluster,
   and stands for File System ID from the days when the Ceph Storage Cluster was
-  principally for the Ceph Filesystem. Ceph now supports native interfaces,
+  principally for the Ceph File System. Ceph now supports native interfaces,
   block devices, and object storage gateway interfaces too, so ``fsid`` is a
   bit of a misnomer.
 
@@ -498,7 +498,7 @@ In the below instructions, ``{id}`` is an arbitrary name, such as the hostname o
 
    Then make sure you do not have a keyring set in ceph.conf in the global section; move it to the client section; or add a keyring setting specific to this mds daemon. And verify that you see the same key in the mds data directory and ``ceph auth get mds.{id}`` output.
 
-#. Now you are ready to `create a Ceph filesystem`_.
+#. Now you are ready to `create a Ceph file system`_.
 
 
 Summary
@@ -531,4 +531,4 @@ To add (or remove) additional Ceph OSD Daemons, see `Add/Remove OSDs`_.
 .. _Add/Remove OSDs: ../../rados/operations/add-or-rm-osds
 .. _Network Configuration Reference: ../../rados/configuration/network-config-ref
 .. _Monitor Config Reference - Data: ../../rados/configuration/mon-config-ref#data
-.. _create a Ceph filesystem: ../../cephfs/createfs
+.. _create a Ceph file system: ../../cephfs/createfs
index 65c2649428624a5219d570d499fc486069087333..d4eb14718eb62f7919c9de6e6852c9c0e2f53a5b 100644 (file)
@@ -58,7 +58,7 @@ Current implementation works on ZFS pools
 
 * Some cache and log (ZIL) can be attached.
   Please note that this is different from the Ceph journals. Cache and log are
-  totally transparent for Ceph, and help the filesystem to keep the system
+  totally transparent for Ceph, and help the file system to keep the system
   consistent and help performance.
   Assuming that ada2 is an SSD::
 
@@ -94,7 +94,7 @@ a number of things:
 
 - **Unique Identifier:** The ``fsid`` is a unique identifier for the cluster,
   and stands for File System ID from the days when the Ceph Storage Cluster was
-  principally for the Ceph Filesystem. Ceph now supports native interfaces,
+  principally for the Ceph File System. Ceph now supports native interfaces,
   block devices, and object storage gateway interfaces too, so ``fsid`` is a
   bit of a misnomer.
 
@@ -544,7 +544,7 @@ In the below instructions, ``{id}`` is an arbitrary name, such as the hostname o
 
    Then make sure you do not have a keyring set in ceph.conf in the global section; move it to the client section; or add a keyring setting specific to this mds daemon. And verify that you see the same key in the mds data directory and ``ceph auth get mds.{id}`` output.
 
-#. Now you are ready to `create a Ceph filesystem`_.
+#. Now you are ready to `create a Ceph file system`_.
 
 
 Summary
@@ -577,4 +577,4 @@ To add (or remove) additional Ceph OSD Daemons, see `Add/Remove OSDs`_.
 .. _Add/Remove OSDs: ../../rados/operations/add-or-rm-osds
 .. _Network Configuration Reference: ../../rados/configuration/network-config-ref
 .. _Monitor Config Reference - Data: ../../rados/configuration/mon-config-ref#data
-.. _create a Ceph filesystem: ../../cephfs/createfs
+.. _create a Ceph file system: ../../cephfs/createfs
index 05532f55cf599108f05803f9a88b17c7b6d0ca4f..af9ee7123054a072439205deb639b6f33e8e1416 100644 (file)
@@ -179,7 +179,7 @@ To create a new keyring containing a key for client.foo with a 0644 file mode::
         ceph-authtool -C -n client.foo --gen-key keyring --mode 0644
 
 To associate some capabilities with the key (namely, the ability to
-mount a Ceph filesystem)::
+mount a Ceph file system)::
 
         ceph-authtool -n client.foo --cap mds 'allow' --cap osd 'allow rw pool=data' --cap mon 'allow r' keyring
 
index 724657a9d2d9e6f8c6830c7c3adff8ceb52659e2..866cc1636568379e2c975849facb90177c08f8e0 100644 (file)
@@ -213,7 +213,7 @@ Positional arguments:
 
 **zap**
 Zaps the given logical volume or partition. If given a path to a logical
-volume it must be in the format of vg/lv. Any filesystems present
+volume it must be in the format of vg/lv. Any file systems present
 on the given lv or partition will be removed and all data will be purged.
 
 However, the lv or partition will be kept intact.
index 847abb7a739f74e9e18641445fe94cfa9c894652..fcb7c9cd20a2281210b08a5724f74d23c2bb8008 100644 (file)
@@ -269,15 +269,15 @@ Usage::
 fs
 --
 
-Manage cephfs filesystems. It uses some additional subcommands.
+Manage cephfs file systems. It uses some additional subcommands.
 
-Subcommand ``ls`` to list filesystems
+Subcommand ``ls`` to list file systems
 
 Usage::
 
        ceph fs ls
 
-Subcommand ``new`` to make a new filesystem using named pools <metadata> and <data>
+Subcommand ``new`` to make a new file system using named pools <metadata> and <data>
 
 Usage::
 
@@ -289,7 +289,7 @@ Usage::
 
        ceph fs reset <fs_name> {--yes-i-really-mean-it}
 
-Subcommand ``rm`` to disable the named filesystem
+Subcommand ``rm`` to disable the named file system
 
 Usage::
 
index 9805f138e43d231caf3fc4035799772a3154b01e..2c8842bf6799782e06c659ff5a6b7805c381e4ea 100644 (file)
@@ -22,7 +22,7 @@ Description
 
 **rbd-fuse** is a FUSE (File system in USErspace) client for RADOS
 block device (rbd) images.  Given a pool containing rbd images,
-it will mount a userspace filesystem allowing access to those images
+it will mount a userspace file system allowing access to those images
 as regular files at **mountpoint**.
 
 The file system can be unmounted with::
index 45c3315a824b997cb44164bb48b6d6b6d316fa2f..e438fcfb7defc99fa765cd7f26524baece5d0b8d 100644 (file)
@@ -116,7 +116,7 @@ Parameters
    string. This is useful for situations where an image must
    be open from more than one client at once, like during
    live migration of a virtual machine, or for use underneath
-   a clustered filesystem.
+   a clustered file system.
 
 .. option:: --format format
 
index e6980ab7e326cda5407d9c4b0a4845884a14e409..137920f4c6f27c69ca396230bc4edd15559068ce 100644 (file)
@@ -94,7 +94,7 @@ commands::
     rbd map foopool/bar2 --id admin --keyring /etc/ceph/ceph.client.admin.keyring
     rbd map foopool/bar2 --id admin --keyring /etc/ceph/ceph.client.admin.keyring --options lock_on_read,queue_depth=1024
 
-If the images had XFS filesystems on them, the corresponding ``/etc/fstab``
+If the images had XFS file systems on them, the corresponding ``/etc/fstab``
 entries might look like this::
 
     /dev/rbd/foopool/bar1 /mnt/bar1 xfs noauto 0 0
index b1508279b03efe323a23ad4cd51e850b32dcf867..2e84778f794766f3fe7d0f14e83279d5f7975d7e 100644 (file)
@@ -96,14 +96,14 @@ aspects of your Ceph cluster:
 * **RBD mirroring**: Enable and configure RBD mirroring to a remote Ceph server.
   Lists all active sync daemons and their status, pools and RBD images including
   their synchronization state.
-* **CephFS**: List all active filesystem clients and associated pools,
+* **CephFS**: List all active file system clients and associated pools,
   including their usage statistics.
 * **Object Gateway**: List all active object gateways and their performance
   counters. Display and manage (add/edit/delete) object gateway users and their
   details (e.g. quotas) as well as the users' buckets and their details (e.g.
   owner, quotas). See :ref:`dashboard-enabling-object-gateway` for configuration
   instructions.
-* **NFS**: Manage NFS exports of CephFS filesystems and RGW S3 buckets via NFS
+* **NFS**: Manage NFS exports of CephFS file systems and RGW S3 buckets via NFS
   Ganesha. See :ref:`dashboard-nfs-ganesha-management` for details on how to
   enable this functionality.
 * **Ceph Manager Modules**: Enable and disable all Ceph Manager modules, change
index 662565c0f2a30338751c56e34c014929ecf47427..c0fc2422a42fa5691a6c965e7b6897ac26827b5e 100644 (file)
@@ -289,7 +289,7 @@ detail of the C++ Ceph code) of the mgr daemon.
 Always use this specially constructed librados instance instead of
 constructing one by hand.
 
-Similarly, if you are using libcephfs to access the filesystem, then
+Similarly, if you are using libcephfs to access the file system, then
 use the libcephfs ``create_with_rados`` to construct it from the
 ``MgrModule.rados`` librados instance, and thereby inherit the correct context.
 
index 5138de05bb9e586b35efb81567d6ec98943c5662..3662134e89ccd294d6c587109a2624cf94c33265 100644 (file)
@@ -241,7 +241,7 @@ Discover the status of a particular service::
 
 
 Query the status of a particular service instance (mon, osd, mds, rgw).  For OSDs
-the id is the numeric OSD ID, for MDS services it is the filesystem name::
+the id is the numeric OSD ID, for MDS services it is the file system name::
 
     ceph orchestrator service-instance status <type> <instance-name> [--refresh]
 
@@ -254,11 +254,11 @@ documentation for details.
 
 The ``name`` parameter is an identifier of the group of instances:
 
-* a CephFS filesystem for a group of MDS daemons,
+* a CephFS file system for a group of MDS daemons,
 * a zone name for a group of RGWs
 
 Sizing: the ``size`` parameter gives the number of daemons in the cluster
-(e.g. the number of MDS daemons for a particular CephFS filesystem).
+(e.g. the number of MDS daemons for a particular CephFS file system).
 
 Creating/growing/shrinking/removing services::
 
index 7d1c50c9124164b1f17627e83214dd2af87e3d4b..9920a2584d51662e8372aa9cefc4a03c4353d75c 100644 (file)
@@ -495,4 +495,4 @@ SPDK.::
   bluestore_block_wal_size = 0
 
 Otherwise, the current implementation will setup symbol file to kernel
-filesystem location and uses kernel driver to issue DB/WAL IO.
+file system location and uses kernel driver to issue DB/WAL IO.
index ef1b8713260ad27d1d3072a53cd237a6dd72954c..0bbd243af8acd3f2306304e809e8e6b9d95c5999 100644 (file)
@@ -12,7 +12,7 @@ three types of daemons:
 - :term:`Ceph Manager` (``ceph-mgr``)
 - :term:`Ceph OSD Daemon` (``ceph-osd``)
 
-Ceph Storage Clusters that support the :term:`Ceph Filesystem` run at
+Ceph Storage Clusters that support the :term:`Ceph File System` run at
 least one :term:`Ceph Metadata Server` (``ceph-mds``). Clusters that
 support :term:`Ceph Object Storage` run Ceph Gateway daemons
 (``radosgw``).
@@ -149,7 +149,7 @@ These sections include:
 ``client``
 
 :Description: Settings under ``client`` affect all Ceph Clients
-              (e.g., mounted Ceph Filesystems, mounted Ceph Block Devices,
+              (e.g., mounted Ceph File Systems, mounted Ceph Block Devices,
               etc.) as well as Rados Gateway (RGW) daemons.
 
 :Example: ``objecter_inflight_ops = 512``
index 3be9c48943f8344fb2bb9994cb898326ca2ba0b6..8d80a16f9d764dbbac06b8bdea2cac9d5a81270b 100644 (file)
@@ -18,9 +18,9 @@ Extended Attributes
 
 Extended Attributes (XATTRs) are an important aspect in your configuration. 
 Some file systems have limits on the number of bytes stored in XATTRS. 
-Additionally, in some cases, the filesystem may not be as fast as an alternative
+Additionally, in some cases, the file system may not be as fast as an alternative
 method of storing XATTRs. The following settings may help improve performance
-by using a method of storing XATTRs that is extrinsic to the underlying filesystem.
+by using a method of storing XATTRs that is extrinsic to the underlying file system.
 
 Ceph XATTRs are stored as ``inline xattr``, using the XATTRs provided
 by the underlying file system, if it does not impose a size limit. If
@@ -32,10 +32,10 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattr size``
 
-:Description: The maximum size of an XATTR stored in the filesystem (i.e., XFS,
+:Description: The maximum size of an XATTR stored in the file system (i.e., XFS,
               btrfs, ext4, etc.) per object. Should not be larger than the
-              filesystem can handle. Default value of 0 means to use the value
-              specific to the underlying filesystem.
+              file system can handle. Default value of 0 means to use the value
+              specific to the underlying file system.
 :Type: Unsigned 32-bit Integer
 :Required: No
 :Default: ``0``
@@ -43,7 +43,7 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattr size xfs``
 
-:Description: The maximum size of an XATTR stored in the XFS filesystem.
+:Description: The maximum size of an XATTR stored in the XFS file system.
               Only used if ``filestore max inline xattr size`` == 0.
 :Type: Unsigned 32-bit Integer
 :Required: No
@@ -52,7 +52,7 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattr size btrfs``
 
-:Description: The maximum size of an XATTR stored in the btrfs filesystem.
+:Description: The maximum size of an XATTR stored in the btrfs file system.
               Only used if ``filestore max inline xattr size`` == 0.
 :Type: Unsigned 32-bit Integer
 :Required: No
@@ -61,7 +61,7 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattr size other``
 
-:Description: The maximum size of an XATTR stored in other filesystems.
+:Description: The maximum size of an XATTR stored in other file systems.
               Only used if ``filestore max inline xattr size`` == 0.
 :Type: Unsigned 32-bit Integer
 :Required: No
@@ -70,9 +70,9 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattrs``
 
-:Description: The maximum number of XATTRs stored in the filesystem per object.
+:Description: The maximum number of XATTRs stored in the file system per object.
               Default value of 0 means to use the value specific to the
-              underlying filesystem.
+              underlying file system.
 :Type: 32-bit Integer
 :Required: No
 :Default: ``0``
@@ -80,7 +80,7 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattrs xfs``
 
-:Description: The maximum number of XATTRs stored in the XFS filesystem per object.
+:Description: The maximum number of XATTRs stored in the XFS file system per object.
               Only used if ``filestore max inline xattrs`` == 0.
 :Type: 32-bit Integer
 :Required: No
@@ -89,7 +89,7 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattrs btrfs``
 
-:Description: The maximum number of XATTRs stored in the btrfs filesystem per object.
+:Description: The maximum number of XATTRs stored in the btrfs file system per object.
               Only used if ``filestore max inline xattrs`` == 0.
 :Type: 32-bit Integer
 :Required: No
@@ -98,7 +98,7 @@ xattrs`` threshold is reached.
 
 ``filestore max inline xattrs other``
 
-:Description: The maximum number of XATTRs stored in other filesystems per object.
+:Description: The maximum number of XATTRs stored in other file systems per object.
               Only used if ``filestore max inline xattrs`` == 0.
 :Type: 32-bit Integer
 :Required: No
@@ -110,11 +110,11 @@ Synchronization Intervals
 =========================
 
 Periodically, the filestore needs to quiesce writes and synchronize the
-filesystem, which creates a consistent commit point. It can then free journal
+file system, which creates a consistent commit point. It can then free journal
 entries up to the commit point. Synchronizing more frequently tends to reduce
 the time required to perform synchronization, and reduces the amount of data
 that needs to remain in the  journal. Less frequent synchronization allows the
-backing filesystem to coalesce  small writes and metadata updates more
+backing file system to coalesce  small writes and metadata updates more
 optimally--potentially resulting in more efficient synchronization.
 
 
@@ -174,7 +174,7 @@ performance in some cases.
 
 ``filestore fsync flushes journal data``
 
-:Description: Flush journal data during filesystem synchronization.
+:Description: Flush journal data during file system synchronization.
 :Type: Boolean
 :Required: No
 :Default: ``false``
@@ -213,7 +213,7 @@ Timeouts
 
 ``filestore op threads``
 
-:Description: The number of filesystem operation threads that execute in parallel. 
+:Description: The number of file system operation threads that execute in parallel. 
 :Type: Integer
 :Required: No
 :Default: ``2``
@@ -221,7 +221,7 @@ Timeouts
 
 ``filestore op thread timeout``
 
-:Description: The timeout for a filesystem operation thread (in seconds).
+:Description: The timeout for a file system operation thread (in seconds).
 :Type: Integer
 :Required: No
 :Default: ``60``
index ca09ee5b40c521532f9550133118a8f8ab421f76..910199a5cea6d7f75be14be0c7f15e4f4d5a3053 100644 (file)
@@ -5,7 +5,7 @@
 
 ``fsid``
 
-:Description: The filesystem ID. One per cluster.
+:Description: The file system ID. One per cluster.
 :Type: UUID
 :Required: No. 
 :Default: N/A. Usually generated by deployment tools.
index 97300f4a57fe7f6e4f5ed1ae6e766ec6db7d7dd9..fd7793d1cbcb8c3b2ecc9a57ccab23ce0b19e98f 100644 (file)
@@ -8,19 +8,19 @@ Ceph OSDs use a journal for two reasons: speed and consistency.
 
 - **Speed:** The journal enables the Ceph OSD Daemon to commit small writes 
   quickly. Ceph writes small, random i/o to the journal sequentially, which 
-  tends to speed up bursty workloads by allowing the backing filesystem more 
+  tends to speed up bursty workloads by allowing the backing file system more 
   time to coalesce writes. The Ceph OSD Daemon's journal, however, can lead 
   to spiky performance with short spurts of high-speed writes followed by 
-  periods without any write progress as the filesystem catches up to the 
+  periods without any write progress as the file system catches up to the 
   journal.
 
-- **Consistency:** Ceph OSD Daemons require a filesystem interface that 
+- **Consistency:** Ceph OSD Daemons require a file system interface that 
   guarantees atomic compound operations. Ceph OSD Daemons write a description 
-  of the operation to the journal and apply the operation to the filesystem. 
+  of the operation to the journal and apply the operation to the file system. 
   This enables atomic updates to an object (for example, placement group 
   metadata). Every few seconds--between ``filestore max sync interval`` and
   ``filestore min sync interval``--the Ceph OSD Daemon stops writes and 
-  synchronizes the journal with the filesystem, allowing Ceph OSD Daemons to 
+  synchronizes the journal with the file system, allowing Ceph OSD Daemons to 
   trim operations from the journal and reuse the space. On failure, Ceph 
   OSD Daemons replay the journal starting after the last synchronization 
   operation.
index 1ddaf5708e7bc8578872b44a1967d2a99efcf4ea..110456ac3403c41b4393150bcc67aa58b9d14dfc 100644 (file)
@@ -10,7 +10,7 @@ cluster. A new Ceph cluster has:
 
 The Ceph configuration file consists of at least:
 
-- Its own filesystem ID (``fsid``)
+- Its own file system ID (``fsid``)
 - The initial monitor(s) hostname(s), and
 - The initial monitor(s) and IP address(es).
 
index 929bb7efacbcffd0d898deea46ce38b57579311f..cafca5006ac8099e8194fc13b4fe6f1054819b3b 100644 (file)
@@ -10,7 +10,7 @@ maintains a master copy of the cluster map. A Ceph Storage Cluster may contain
 thousands of storage nodes. A minimal system will have at least one 
 Ceph Monitor and two Ceph OSD Daemons for data replication. 
 
-The Ceph Filesystem, Ceph Object Storage and Ceph Block Devices read data from
+The Ceph File System, Ceph Object Storage and Ceph Block Devices read data from
 and write data to the Ceph Storage Cluster.
 
 .. raw:: html
@@ -58,7 +58,7 @@ your cluster.
        </td><td><h3>APIs</h3>
 
 Most Ceph deployments use `Ceph Block Devices`_, `Ceph Object Storage`_ and/or the
-`Ceph Filesystem`_. You  may also develop applications that talk directly to
+`Ceph File System`_. You  may also develop applications that talk directly to
 the Ceph Storage Cluster.
 
 .. toctree::
@@ -71,6 +71,6 @@ the Ceph Storage Cluster.
        </td></tr></tbody></table>
 
 .. _Ceph Block Devices: ../rbd/
-.. _Ceph Filesystem: ../cephfs/
+.. _Ceph File System: ../cephfs/
 .. _Ceph Object Storage: ../radosgw/
 .. _Deployment: ../rados/deployment/
index b8c6ca5048586469abb76c73b53ba6136b5bccf4..5665321ff5cced04bbb014ff8f09869404f22d0c 100644 (file)
@@ -81,11 +81,11 @@ type. So ``client.user1`` can be entered simply as ``user1``. If you specify
 wherever possible.
 
 .. note:: A Ceph Storage Cluster user is not the same as a Ceph Object Storage
-   user or a Ceph Filesystem user. The Ceph Object Gateway uses a Ceph Storage
+   user or a Ceph File System user. The Ceph Object Gateway uses a Ceph Storage
    Cluster user to communicate between the gateway daemon and the storage
    cluster, but the gateway has its own user management functionality for end
-   users. The Ceph Filesystem uses POSIX semantics. The user space associated
-   with the Ceph Filesystem is not the same as a Ceph Storage Cluster user.
+   users. The Ceph File System uses POSIX semantics. The user space associated
+   with the Ceph File System is not the same as a Ceph Storage Cluster user.
 
 
 
index b2f3a2137a93231c34029b0ab0cc5cabdf7ae41c..d1feedcdd136464cadf00cadf89b538fc735b5d2 100644 (file)
@@ -412,7 +412,7 @@ Recovery using OSDs
 But what if all monitors fail at the same time? Since users are encouraged to
 deploy at least three (and preferably five) monitors in a Ceph cluster, the chance of simultaneous
 failure is rare. But unplanned power-downs in a data center with improperly
-configured disk/fs settings could fail the underlying filesystem, and hence
+configured disk/fs settings could fail the underlying file system, and hence
 kill all the monitors. In this case, we can recover the monitor store with the
 information stored in OSDs.::
 
index eb9fec067b3a5631cc841fa47a7dad5e3952dd6a..2ec48288e51348c2b905d07c38a0491c7b514827 100644 (file)
@@ -64,7 +64,7 @@ The admin socket, among other things, allows you to:
 Display Freespace
 -----------------
 
-Filesystem issues may arise. To display your filesystem's free space, execute
+Filesystem issues may arise. To display your file system's free space, execute
 ``df``. ::
 
        df -h
@@ -301,8 +301,8 @@ journals, operating systems, monitors, other OSDs and non-Ceph processes.
 
 Ceph acknowledges writes *after* journaling, so fast SSDs are an
 attractive option to accelerate the response time--particularly when
-using the ``XFS`` or ``ext4`` filesystems.  By contrast, the ``btrfs``
-filesystem can write and journal simultaneously.  (Note, however, that
+using the ``XFS`` or ``ext4`` file systems.  By contrast, the ``btrfs``
+file system can write and journal simultaneously.  (Note, however, that
 we recommend against using ``btrfs`` for production deployments.)
 
 .. note:: Partitioning a drive does not change its total throughput or
@@ -379,8 +379,8 @@ Filesystem Issues
 
 Currently, we recommend deploying clusters with XFS.
 
-We recommend against using btrfs or ext4.  The btrfs filesystem has
-many attractive features, but bugs in the filesystem may lead to
+We recommend against using btrfs or ext4.  The btrfs file system has
+many attractive features, but bugs in the file system may lead to
 performance issues and spurious ENOSPC errors.  We do not recommend
 ext4 because xattr size limitations break our support for long object
 names (needed for RGW).
index 15701f9ed7d07c0a16cb886cd568c7adbb8d6174..24650165f8a1ed05fa941f66ae70e37c0bc3b635 100644 (file)
@@ -18,7 +18,7 @@ Ceph Object Storage uses the Ceph Object Gateway daemon (``radosgw``), which is
 an HTTP server for interacting with a Ceph Storage Cluster. Since it
 provides interfaces compatible with OpenStack Swift and Amazon S3, the Ceph
 Object Gateway has its own user management. Ceph Object Gateway can store data
-in the same Ceph Storage Cluster used to store data from Ceph Filesystem clients
+in the same Ceph Storage Cluster used to store data from Ceph File System clients
 or Ceph Block Device clients. The S3 and Swift APIs share a common namespace, so
 you may write data with one API and retrieve it with the other.
 
index a350dc789c152ce97a93bd9315382f46aa7aecfb..fdcf21d6f3c6779e5d49cb58b636f298e90be4b2 100644 (file)
@@ -33,7 +33,7 @@ Ceph's block devices deliver high performance with infinite scalability to
 cloud-based computing systems like `OpenStack`_ and `CloudStack`_ that rely on
 libvirt and QEMU to integrate with Ceph block devices. You can use the same cluster
 to operate the :ref:`Ceph RADOS Gateway <object-gateway>`, the
-:ref:`CephFS filesystem <ceph-filesystem>`, and Ceph block devices simultaneously.
+:ref:`Ceph File System <ceph-file-system>`, and Ceph block devices simultaneously.
 
 .. important:: To use Ceph Block Devices, you must have access to a running
    Ceph cluster.
index 80c5dcc4187b585238a2a6ec77cc50651cfa0064..7b569b075b23311d83dd9bdc8b4ed4f4576c4d49 100644 (file)
@@ -141,7 +141,7 @@ configuration (like any Ceph configuration option) as part of the
 .. important:: If you set rbd_cache=true, you must set cache=writeback
    or risk data loss. Without cache=writeback, QEMU will not send
    flush requests to librbd. If QEMU exits uncleanly in this
-   configuration, filesystems on top of rbd can be corrupted.
+   configuration, file systems on top of rbd can be corrupted.
 
 .. _RBD caching: ../rbd-config-ref/#rbd-cache-config-settings
 
index f20184563d238342761ac11a8e2c1c5cf494a761..c83f6851c60af92af6e714de24d405dc6f66145c 100644 (file)
@@ -5,7 +5,7 @@
 You may use Ceph Block Device images with Kubernetes v1.13 and later through
 `ceph-csi`_, which dynamically provisions RBD images to back Kubernetes
 `volumes`_ and maps these RBD images as block devices (optionally mounting
-a filesystem contained within the image) on worker nodes running
+a file system contained within the image) on worker nodes running
 `pods`_ that reference an RBD-backed volume. Ceph stripes block device images as
 objects across the cluster, which means that large Ceph Block Device images have
 better performance than a standalone server!
@@ -203,7 +203,7 @@ Create a `PersistentVolumeClaim`
 A `PersistentVolumeClaim` is a request for abstract storage resources by a user.
 The `PersistentVolumeClaim` would then be associated to a `Pod` resource to
 provision a `PersistentVolume`, which would be backed by a Ceph block image.
-An optional `volumeMode` can be included to select between a mounted filesystem
+An optional `volumeMode` can be included to select between a mounted file system
 (default) or raw block device-based volume.
 
 Using `ceph-csi`, specifying `Filesystem` for `volumeMode` can support both
@@ -257,9 +257,9 @@ The following demonstrates and example of binding the above
         EOF
         $ kubectl apply -f raw-block-pod.yaml
 
-To create a filesystem-based `PersistentVolumeClaim` that utilizes the
+To create a file-system-based `PersistentVolumeClaim` that utilizes the
 `ceph-csi`-based `StorageClass` created above, the following YAML can be used to
-request a mounted filesystem (backed by an RBD image) from the `csi-rbd-sc`
+request a mounted file system (backed by an RBD image) from the `csi-rbd-sc`
 `StorageClass`::
 
         $ cat <<EOF > pvc.yaml
@@ -280,7 +280,7 @@ request a mounted filesystem (backed by an RBD image) from the `csi-rbd-sc`
         $ kubectl apply -f pvc.yaml
 
 The following demonstrates and example of binding the above
-`PersistentVolumeClaim` to a `Pod` resource as a mounted filesystem::
+`PersistentVolumeClaim` to a `Pod` resource as a mounted file system::
 
         $ cat <<EOF > pod.yaml
         ---
index 603a8ece482c37574ef70e93ee810846625d7b8e..929d4c92616f6afbaccfca58ae9bfa6fcfdc7603 100644 (file)
@@ -47,7 +47,7 @@ Three parts of OpenStack integrate with Ceph's block devices:
   Cinder services.
 
 - **Guest Disks**: Guest disks are guest operating system disks. By default,
-  when you boot a virtual machine, its disk appears as a file on the filesystem
+  when you boot a virtual machine, its disk appears as a file on the file system
   of the hypervisor (usually under ``/var/lib/nova/instances/<uuid>/``). Prior
   to OpenStack Havana, the only way to boot a VM in Ceph was to use the
   boot-from-volume functionality of Cinder. However, now it is possible to boot
index ee6918e34a0d696bd7be6bbb697860fdb0b5b78e..5aaa23e5d19ddd4390e37ce4b26d9897521b99d6 100644 (file)
@@ -14,15 +14,15 @@ command and many higher level interfaces, including `QEMU`_, `libvirt`_,
 
 .. important:: To use use RBD snapshots, you must have a running Ceph cluster.
 
-.. note:: Because RBD does not know about the filesystem, snapshots are
+.. note:: Because RBD does not know about the file system, snapshots are
          `crash-consistent` if they are not coordinated with the mounting
          computer. So, we recommend you stop `I/O` before taking a snapshot of
-         an image. If the image contains a filesystem, the filesystem must be
+         an image. If the image contains a file system, the file system must be
          in a consistent state before taking a snapshot or you may have to run
          `fsck`. To stop `I/O` you can use `fsfreeze` command. See
          `fsfreeze(8)` man page for more details.
          For virtual machines, `qemu-guest-agent` can be used to automatically
-         freeze filesystems when creating a snapshot.
+         freeze file systems when creating a snapshot.
 
 .. ditaa:: +------------+         +-------------+
            | {s}        |         | {s} c999    |
index 937ad677bda7b375e222fd82471edb7e47c0df61..27db8453c28b1acf60ce033f507195c85545032e 100644 (file)
@@ -86,7 +86,7 @@ main components.
 - **Ceph Object Storage:** The Ceph Object Storage documentation resides under
   the ``doc/radosgw`` directory.
 
-- **Ceph Filesystem:** The Ceph Filesystem documentation resides under the 
+- **Ceph File System:** The Ceph File System documentation resides under the 
   ``doc/cephfs`` directory.
   
 - **Installation (Quick):** Quick start documentation resides under the
index a3277b90f132aef3eb0cd34d31c195375371fce5..a8bdaac1bfed85666961b6b49ebd2bb63049949d 100644 (file)
@@ -169,7 +169,7 @@ setting defaults to ``/var/lib/ceph/osd/$cluster-$id/journal``. You can mount
 this path to an SSD or to an SSD partition so that it is not merely a file on
 the same disk as the object data.
 
-One way Ceph accelerates CephFS filesystem performance is to segregate the
+One way Ceph accelerates CephFS file system performance is to segregate the
 storage of CephFS metadata from the storage of the CephFS file contents. Ceph
 provides a default ``metadata`` pool for CephFS metadata. You will never have to
 create a pool for CephFS metadata, but you can create a CRUSH map hierarchy for
index 6c799c00d468b400e8b90076abc710646306bf06..2821a0b9012fb32f5dcdedc90fa7ba64aeacd166 100644 (file)
@@ -32,7 +32,7 @@ deploying a Ceph Storage Cluster.
        </td><td><h3>Step 3: Ceph Client(s)</h3>
        
 Most Ceph users don't store objects directly in the Ceph Storage Cluster. They typically use at least one of
-Ceph Block Devices, the Ceph Filesystem, and Ceph Object Storage.
+Ceph Block Devices, the Ceph File System, and Ceph Object Storage.
 
 .. toctree::
        
index 69f1bb99f5aa40b871bdcad8ab71b2c280308724..00468637b50aedd90cb1bdc09258e57f93994251 100644 (file)
@@ -4,12 +4,12 @@
 
 Whether you want to provide :term:`Ceph Object Storage` and/or
 :term:`Ceph Block Device` services to :term:`Cloud Platforms`, deploy
-a :term:`Ceph Filesystem` or use Ceph for another purpose, all
+a :term:`Ceph File System` or use Ceph for another purpose, all
 :term:`Ceph Storage Cluster` deployments begin with setting up each
 :term:`Ceph Node`, your network, and the Ceph Storage Cluster. A Ceph
 Storage Cluster requires at least one Ceph Monitor, Ceph Manager, and
 Ceph OSD (Object Storage Daemon). The Ceph Metadata Server is also
-required when running Ceph Filesystem clients.
+required when running Ceph File System clients.
 
 .. ditaa::  +---------------+ +------------+ +------------+ +---------------+
             |      OSDs     | | Monitors   | |  Managers  | |      MDSs     |
@@ -40,7 +40,7 @@ required when running Ceph Filesystem clients.
   and high availability.
 
 - **MDSs**: A :term:`Ceph Metadata Server` (MDS, ``ceph-mds``) stores
-  metadata on behalf of the :term:`Ceph Filesystem` (i.e., Ceph Block
+  metadata on behalf of the :term:`Ceph File System` (i.e., Ceph Block
   Devices and Ceph Object Storage do not use MDS). Ceph Metadata
   Servers allow POSIX file system users to execute basic commands (like
   ``ls``, ``find``, etc.) without placing an enormous burden on the
index 4e8e20b5a6a3886c78b910585d02b5b1f1600a2c..e50f0d4d6a70715b029c982ab58d9a06178b51b2 100644 (file)
@@ -161,7 +161,7 @@ The output from helm install shows us the different types of resources that will
 
 A StorageClass named ``ceph-rbd`` of type ``ceph.com/rbd`` will be created with ``ceph-rbd-provisioner`` Pods. These
 will allow a RBD to be automatically provisioned upon creation of a PVC. RBDs will also be formatted when mapped for the first
-time. All RBDs will use the ext4 filesystem. ``ceph.com/rbd`` does not support the ``fsType`` option.
+time. All RBDs will use the ext4 file system. ``ceph.com/rbd`` does not support the ``fsType`` option.
 By default, RBDs will use image format 2 and layering. You can overwrite the following storageclass' defaults in your values file::
 
   storageclass:
index fda0919a417faadd8b6a43d034bef9a4b556b76f..5e74679dbb17101e0ef3980ca748cb68d9cef821 100644 (file)
@@ -32,7 +32,7 @@ Create a Filesystem
 ===================
 
 You have already created an MDS (`Storage Cluster Quick Start`_) but it will not
-become active until you create some pools and a filesystem.  See :doc:`/cephfs/createfs`.
+become active until you create some pools and a file system.  See :doc:`/cephfs/createfs`.
 
 ::
 
@@ -53,7 +53,7 @@ following procedure:
 
        cat ceph.client.admin.keyring
 
-#. Copy the key of the user who will be using the mounted CephFS filesystem.
+#. Copy the key of the user who will be using the mounted CephFS file system.
    It should look something like this:: 
        
        [client.admin]
@@ -87,7 +87,7 @@ example::
        sudo mount -t ceph 192.168.0.1:6789:/ /mnt/mycephfs -o name=admin,secretfile=admin.secret
 
 
-.. note:: Mount the CephFS filesystem on the admin node,
+.. note:: Mount the CephFS file system on the admin node,
    not the server node. See `FAQ`_ for details.