]> git.apps.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
doc: fix typos
authorMichael Prokop <mika@grml.org>
Thu, 26 Sep 2019 07:13:00 +0000 (09:13 +0200)
committerMichael Prokop <mika@grml.org>
Thu, 26 Sep 2019 07:17:07 +0000 (09:17 +0200)
s/amount of times/number of times/
s/assosciated/associated/
s/availabe/available/
s/Commiting/Committing/
s/Containter/Container/
s/dependant/dependent/
s/developement/development/
s/filesytem/filesystem/
s/guarenteed/guaranteed/
s/hiearchy/hierarchy/
s/intance/instance/
s/Interger/Integer/
s/mutiple/multiple/
s/nubmer/number/
s/occured/occurred/
s/overriden/overridden/
s/reseted/reset/
s/sytem/system/
s/unkown/unknown/

Signed-off-by: Michael Prokop <mika@grml.org>
19 files changed:
doc/ceph-volume/systemd.rst
doc/cephfs/fs-volumes.rst
doc/cephfs/mdcache.rst
doc/cephfs/posix.rst
doc/dev/msgr2.rst
doc/dev/osd_internals/erasure_coding/developer_notes.rst
doc/dev/osd_internals/erasure_coding/proposals.rst
doc/install/install-ceph-gateway.rst
doc/man/8/ceph.rst
doc/rados/api/libradospp.rst
doc/rados/configuration/bluestore-config-ref.rst
doc/rados/operations/crush-map-edits.rst
doc/rados/operations/erasure-code-clay.rst
doc/rados/operations/erasure-code-isa.rst
doc/rados/operations/monitoring.rst
doc/radosgw/STSLite.rst
doc/radosgw/s3/bucketops.rst
doc/rbd/rbd-live-migration.rst
doc/releases/releases.yml

index dc7bb793916e09740643b65f6b8d40c470c36c4d..5b5273c9cfd8b20e4d268ab027af3a7210840c1a 100644 (file)
@@ -42,7 +42,7 @@ behavior:
 * ``CEPH_VOLUME_SYSTEMD_TRIES``: Defaults to 30
 * ``CEPH_VOLUME_SYSTEMD_INTERVAL``: Defaults to 5
 
-The *"tries"* is a number that sets the maximum amount of times the unit will
+The *"tries"* is a number that sets the maximum number of times the unit will
 attempt to activate an OSD before giving up.
 
 The *"interval"* is a value in seconds that determines the waiting time before
index 6b17b9490416b7181347cd953e8089829ea88a3b..08168eb6800d37a80ce7df8c3af78119e101579e 100644 (file)
@@ -5,7 +5,7 @@ FS volumes and subvolumes
 
 A  single source of truth for CephFS exports is implemented in the volumes
 module of the :term:`Ceph Manager` daemon (ceph-mgr). The OpenStack shared
-file system service (manila_), Ceph Containter Storage Interface (CSI_),
+file system service (manila_), Ceph Container Storage Interface (CSI_),
 storage administrators among others can use the common CLI provided by the
 ceph-mgr volumes module to manage the CephFS exports.
 
@@ -45,8 +45,8 @@ Create a volume using::
 
     $ ceph fs volume create <vol_name>
 
-This creates a CephFS file sytem and its data and metadata pools. It also tries
-to create MDSes for the filesytem using the enabled ceph-mgr orchestrator
+This creates a CephFS file system and its data and metadata pools. It also tries
+to create MDSes for the filesystem using the enabled ceph-mgr orchestrator
 module  (see :doc:`/mgr/orchestrator_cli`) , e.g., rook.
 
 Remove a volume using::
index 0f0bf934dd73fda47db20cdc5a521eec649fb213..7e397b29d396a536be083159ff755411fb19190f 100644 (file)
@@ -73,5 +73,5 @@ inode info to the clients.
 
 The auth MDS for an inode can change over time as well. The MDS' will
 actively balance responsibility for the inode cache amongst
-themselves, but this can be overriden by **pinning** certain subtrees
+themselves, but this can be overridden by **pinning** certain subtrees
 to a single MDS.
index 6ea9dde8ade0d29205485535473cbfe06d9d953e..a2c9c2017c72b671e24e7650f8c70826f8867ae7 100644 (file)
@@ -92,7 +92,7 @@ conventions as other file systems.
 
 In modern Linux kernels (v4.17 or later), writeback errors are reported
 once to every file description that is open at the time of the error. In
-addition, unreported errors that occured before the file description was
+addition, unreported errors that occurred before the file description was
 opened will also be returned on fsync.
 
 See `PostgreSQL's summary of fsync() error reporting across operating systems
index 7257a7c7fc31b4a3d75d85c5a95c696699875ef0..a5a48401803ef40825549ddf9dc8a21a12c02836 100644 (file)
@@ -411,7 +411,7 @@ Example of failure scenarios:
                 |                     |
 
 
-* Connection failure after session is established because server reseted,
+* Connection failure after session is established because server reset,
   and then client reconnects.
 
 .. ditaa:: +---------+           +--------+
@@ -437,7 +437,7 @@ RC* means that the reset session full flag depends on the policy.resetcheck
 of the connection.
 
 
-* Connection failure after session is established because client reseted,
+* Connection failure after session is established because client reset,
   and then client reconnects.
 
 .. ditaa:: +---------+           +--------+
index 090dda194ab1c9772b854696cbbb3f996ae3ac2d..586b4b71b2de4dd8687aa83831a9ba91c3ba649b 100644 (file)
@@ -207,9 +207,9 @@ set in the erasure code profile, before the pool was created.
   ceph osd erasure-code-profile set myprofile \
      directory=<dir>         \ # mandatory
      plugin=jerasure         \ # mandatory
-     m=10                    \ # optional and plugin dependant
-     k=3                     \ # optional and plugin dependant
-     technique=reed_sol_van  \ # optional and plugin dependant
+     m=10                    \ # optional and plugin dependent
+     k=3                     \ # optional and plugin dependent
+     technique=reed_sol_van  \ # optional and plugin dependent
 
 Notes
 -----
index 793f55e5e088bf3a51f0b53a6aafe8ad009c5a93..dc66506c3c99c588bc047ba639aba0cf3b90adb6 100644 (file)
@@ -19,7 +19,7 @@ to their respective shards.
 
 The choice of whether to use a read-modify-write or a
 parity-delta-write is complex policy issue that is TBD in the details
-and is likely to be heavily dependant on the computational costs
+and is likely to be heavily dependent on the computational costs
 associated with a parity-delta vs. a regular parity-generation
 operation. However, it is believed that the parity-delta scheme is
 likely to be the preferred choice, when available.
index 17e62af9c63210a070fba369c3a8036fc68ac16f..fe5b6b574cd4a86c92dbdfa1d8398e06cdf06f8b 100644 (file)
@@ -194,7 +194,7 @@ Referring back to the description for installing a Ceph Object Gateway with
 ``ceph-deploy``, notice that the configuration file only has one setting
 ``rgw_frontends`` (and that's assuming you elected to change the default port).
 The ``ceph-deploy`` utility generates the data directory and the keyring for
-you--placing the keyring in ``/var/lib/ceph/radosgw/{rgw-intance}``. The daemon
+you--placing the keyring in ``/var/lib/ceph/radosgw/{rgw-instance}``. The daemon
 looks in default locations, whereas you may have specified different settings
 in your Ceph configuration file. Since you already have keys and a data
 directory, you will want to maintain those paths in your Ceph configuration
index 40e71304d5e8ac864c53a842487757d8c3b2b737..cc1431bbd36bad1abfcf1439c5f89dc8c9444d5c 100644 (file)
@@ -1048,7 +1048,7 @@ Usage::
 
         ceph osd pool application enable <pool-name> <app> {--yes-i-really-mean-it}
 
-Subcommand ``get`` displays the value for the given key that is assosciated
+Subcommand ``get`` displays the value for the given key that is associated
 with the given application of the given pool. Not passing the optional
 arguments would display all key-value pairs for all applications for all
 pools.
index b99be6bcd5ae3ebf882b75330cd2110e658b17a2..08483c8d431ac0ce132d8209bf1907af13945bce 100644 (file)
@@ -2,7 +2,7 @@
  LibradosPP (C++)
 ==================
 
-.. note:: The librados C++ API is not guarenteed to be API+ABI stable
+.. note:: The librados C++ API is not guaranteed to be API+ABI stable
    between major releases. All applications using the librados C++ API must
    be recompiled and relinked against a specific Ceph release.
 
index 9920a2584d51662e8372aa9cefc4a03c4353d75c..d728775d46adfe9fe9171b502f920d3182497ac7 100644 (file)
@@ -146,7 +146,7 @@ will attempt to keep OSD heap memory usage under a designated target size via
 the ``osd_memory_target`` configuration option.  This is a best effort
 algorithm and caches will not shrink smaller than the amount specified by
 ``osd_memory_cache_min``.  Cache ratios will be chosen based on a hierarchy
-of priorities.  If priority information is not availabe, the
+of priorities.  If priority information is not available, the
 ``bluestore_cache_meta_ratio`` and ``bluestore_cache_kv_ratio`` options are
 used as fallbacks.
 
@@ -159,7 +159,7 @@ used as fallbacks.
 
 ``osd_memory_target``
 
-:Description: When tcmalloc is available and cache autotuning is enabled, try to keep this many bytes mapped in memory. Note: This may not exactly match the RSS memory usage of the process.  While the total amount of heap memory mapped by the process should generally stay close to this target, there is no guarantee that the kernel will actually reclaim  memory that has been unmapped.  During initial developement, it was found that some kernels result in the OSD's RSS Memory exceeding the mapped memory by up to 20%.  It is hypothesised however, that the kernel generally may be more aggressive about reclaiming unmapped memory when there is a high amount of memory pressure.  Your mileage may vary.
+:Description: When tcmalloc is available and cache autotuning is enabled, try to keep this many bytes mapped in memory. Note: This may not exactly match the RSS memory usage of the process.  While the total amount of heap memory mapped by the process should generally stay close to this target, there is no guarantee that the kernel will actually reclaim  memory that has been unmapped.  During initial development, it was found that some kernels result in the OSD's RSS Memory exceeding the mapped memory by up to 20%.  It is hypothesised however, that the kernel generally may be more aggressive about reclaiming unmapped memory when there is a high amount of memory pressure.  Your mileage may vary.
 :Type: Unsigned Integer
 :Required: Yes
 :Default: ``4294967296``
@@ -181,7 +181,7 @@ used as fallbacks.
 ``osd_memory_base``
 
 :Description: When tcmalloc and cache autotuning is enabled, estimate the minimum amount of memory in bytes the OSD will need.  This is used to help the autotuner estimate the expected aggregate memory consumption of the caches.
-:Type: Unsigned Interger
+:Type: Unsigned Integer
 :Required: No
 :Default: ``805306368``
 
index 3b838c37921252b3cd8244bd35403ff59be78b8f..a7e5d59917b3eb8e1406c6e9a8f310b2dff80d10 100644 (file)
@@ -568,11 +568,11 @@ There are three types of transformations possible:
    since the previous rule distributed across devices of multiple
    classes but the adjusted rules will only map to devices of the
    specified *device-class*, but that often is an accepted level of
-   data movement when the nubmer of outlier devices is small.
+   data movement when the number of outlier devices is small.
 
 #. ``--reclassify-bucket <match-pattern> <device-class> <default-parent>``
 
-   This will allow you to merge a parallel type-specific hiearchy with the normal hierarchy.  For example, many users have maps like::
+   This will allow you to merge a parallel type-specific hierarchy with the normal hierarchy.  For example, many users have maps like::
 
      host node1 {
         id -2           # do not change unnecessarily
index e9cfa96e6a237550f263ba00b3f73457719f685b..ccf3b309c39c5408e8e5d6f5d260ba192ee901fd 100644 (file)
@@ -120,7 +120,7 @@ Where:
 ``crush-root={root}``
 
 :Description: The name of the crush bucket used for the first step of
-              the CRUSH rule. For intance **step take default**.
+              the CRUSH rule. For instance **step take default**.
 
 :Type: String
 :Required: No.
index 3db07c6b4e9bdbca3875184b247ca183c8a5f1d5..ad5c501a2368659ff5abfea048f86fda3c70bbda 100644 (file)
@@ -59,7 +59,7 @@ Where:
 ``crush-root={root}``
 
 :Description: The name of the crush bucket used for the first step of
-              the CRUSH rule. For intance **step take default**.
+              the CRUSH rule. For instance **step take default**.
 
 :Type: String
 :Required: No.
index 3adb75f70a03866c743918ec8b7b9304938423dd..0dd248b4290270121197e0a3e78a481d9a63fa71 100644 (file)
@@ -165,7 +165,7 @@ Network Performance Checks
 Ceph OSDs send heartbeat ping messages amongst themselves to monitor daemon availability.  We
 also use the response times to monitor network performance.
 While it is possible that a busy OSD could delay a ping response, we can assume
-that if a network switch fails mutiple delays will be detected between distinct pairs of OSDs.
+that if a network switch fails multiple delays will be detected between distinct pairs of OSDs.
 
 By default we will warn about ping times which exceed 1 second (1000 milliseconds).
 
index 7c1f8acf2103882cd71b5747d490262318bde1c5..cc34e305f85f6d1da969917cf21da174620d691b 100644 (file)
@@ -212,7 +212,7 @@ Lines 13-16 have been added as a workaround in the code block below:
     def __init__(self, credentials, service_name, region_name):
         self.credentials = credentials
         # We initialize these value here so the unit tests can have
-        # valid values.  But these will get overriden in ``add_auth``
+        # valid values.  But these will get overridden in ``add_auth``
         # later for real requests.
         self._region_name = region_name
         if service_name == 'sts':
index 50acfeda7306911eaa1357151f8aeed2cb4394e3..d520e379b37b13bed9e35d01d7f0e2b95ce1b45a 100644 (file)
@@ -578,7 +578,7 @@ Delete a specific, or all, notifications from a bucket.
 
     - Notification deletion is an extension to the S3 notification API
     - When the bucket is deleted, any notification defined on it is also deleted 
-    - Deleting an unkown notification (e.g. double delete) is not considered an error
+    - Deleting an unknown notification (e.g. double delete) is not considered an error
 
 Syntax
 ~~~~~~
index c291101414e80ebcd466e9a8a81f34b11593ef88..ca7c12d93e4e6d7704b9536ed1acaa042dd55f86 100644 (file)
@@ -130,7 +130,7 @@ If the `migration_source` image is a parent of one or more clones, the `--force`
 option will need to be specified after ensuring all descendent clone images are
 not in use.
 
-Commiting the live-migration will remove the cross-links between the source
+Committing the live-migration will remove the cross-links between the source
 and target images, and will remove the source image::
 
     $ rbd trash list --all
index 99b7503a35280d21bec87c38acfbbe97ba296385..69e8ef547f61ae62d0f14e5549a42e9c44383efb 100644 (file)
@@ -2,7 +2,7 @@
 # there are two sections
 #
 # releases: ... for named releases
-# developement: ... for dev releases
+# development: ... for dev releases
 #
 # by default a `version` is interpreted as a sphinx reference when rendered (see
 # schedule.rst for the existing tags such as `_13.2.2`). If a version should not