]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: Fixed a number of typos in documentation 37252/head
authorPonnuvel Palaniyappan <pponnuvel@gmail.com>
Fri, 18 Sep 2020 17:12:07 +0000 (18:12 +0100)
committerPonnuvel Palaniyappan <pponnuvel@gmail.com>
Fri, 18 Sep 2020 17:17:15 +0000 (18:17 +0100)
Signed-off-by: Ponnuvel Palaniyappan <pponnuvel@gmail.com>
27 files changed:
doc/ceph-volume/simple/activate.rst
doc/cephadm/concepts.rst
doc/cephfs/administration.rst
doc/cephfs/mantle.rst
doc/cephfs/multimds.rst
doc/cephfs/nfs.rst
doc/dev/ceph-volume/zfs.rst
doc/dev/ceph_krb_auth.rst
doc/dev/developer_guide/running-tests-using-teuth.rst
doc/dev/logging.rst
doc/dev/osd_internals/erasure_coding/proposals.rst
doc/dev/osd_internals/manifest.rst
doc/dev/seastore.rst
doc/install/get-packages.rst
doc/man/8/ceph-bluestore-tool.rst
doc/man/8/ceph.rst
doc/mgr/orchestrator.rst
doc/mgr/orchestrator_modules.rst
doc/rados/operations/pg-repair.rst
doc/rados/operations/user-management.rst
doc/rados/troubleshooting/troubleshooting-pg.rst
doc/radosgw/cloud-sync-module.rst
doc/radosgw/config-ref.rst
doc/radosgw/notifications.rst
doc/radosgw/oidc.rst
doc/radosgw/s3select.rst
doc/rbd/libvirt.rst

index edbb1e3f89d606c8fba30b3632f05603ec3acc3f..2b2795d0be7fe170d1882de165ce00e227bc6de1 100644 (file)
@@ -11,7 +11,7 @@ them, to prevent the UDEV/ceph-disk interaction that will attempt to start them
 up at boot time.
 
 The disabling of ``ceph-disk`` units is done only when calling ``ceph-volume
-simple activate`` directly, but is is avoided when being called by systemd when
+simple activate`` directly, but is avoided when being called by systemd when
 the system is booting up.
 
 The activation process requires using both the :term:`OSD id` and :term:`OSD uuid`
index 8b1743799b4a014c36bb640ab3f700d8b6efd3df..363a5209fe7492f4e727ab158183f7ab299a40d6 100644 (file)
@@ -106,7 +106,7 @@ This instructs cephadm to deploy three daemons on hosts labeled with
 ``myfs`` across the cluster.
 
 Then, in case there are less than three daemons deployed on the candidate 
-hosts, cephadm will then then randomly choose hosts for deploying new daemons.
+hosts, cephadm will then randomly choose hosts for deploying new daemons.
 
 In case there are more than three daemons deployed, cephadm will remove 
 existing daemons.
index 4261e9480ee6351f58e8b27caeeeff0f2f3a1d4c..7fd83001b3e0b7ce6860f9ac1c24d9bf66d23115 100644 (file)
@@ -302,7 +302,7 @@ is used by NFS-Ganesha.
     lazy_caps_wanted
 
 When a stale client resumes, if the client supports this feature, mds only needs
-to re-issue caps that are explictly wanted.
+to re-issue caps that are explicitly wanted.
 
 
 ::
index 6d3d40d61e3402669c0cd1037ee8577e8aba15ec..064408f712a7a6a56910d140e3f4b573b06b0951 100644 (file)
@@ -89,7 +89,7 @@ Mantle with `vstart.sh`
 
 
    Note that if you look at the last MDS (which could be a, b, or c -- it's
-   random), you will see an an attempt to index a nil value. This is because the
+   random), you will see an attempt to index a nil value. This is because the
    last MDS tries to check the load of its neighbor, which does not exist.
 
 5. Run a simple benchmark. In our case, we use the Docker mdtest image to
index c2367e891431f3fce80e5f6d9d06cb85f46464f8..e22a84fac813727547828ac7ffc49d82f3113d8c 100644 (file)
@@ -184,7 +184,7 @@ that should be pinned. For example:
 Would cause any directory loaded into cache or created under ``/tmp`` to be
 ephemerally pinned 50 percent of the time.
 
-It is recomended to only set this to small values, like ``.001`` or ``0.1%``.
+It is recommended to only set this to small values, like ``.001`` or ``0.1%``.
 Having too many subtrees may degrade performance. For this reason, the config
 ``mds_export_ephemeral_random_max`` enforces a cap on the maximum of this
 percentage (default: ``.01``). The MDS returns ``EINVAL`` when attempting to
index c68ed6fc77975034ec3a2be41d6869fc04267965..6c5cd8cb905b28f501763437b72c6c83b81102fa 100644 (file)
@@ -106,7 +106,7 @@ Deploy the rook operator::
 
 .. note:: Nautilus release or latest Ceph image should be used.
 
-Before proceding check if the pods are running::
+Before proceeding check if the pods are running::
 
         kubectl -n rook-ceph get pod
 
index ca961698b22dba3ed2c996847e31b75b3ae16802..18de7652a061287c3b8cd11c4c0cb6e6237278cd 100644 (file)
@@ -33,7 +33,7 @@ in the context of zfs tags::
 
 Tags on filesystems are stored as property.
 Tags on a zpool are stored in the comment property as a concatenated list 
-seperated by ``;`` 
+separated by ``;`` 
 
 .. _ceph-volume-zfs-tags:
 
@@ -164,7 +164,7 @@ Example::
 
 ``compression``
 ---------------
-A compression-enabled device can allways be set using the native zfs settings on
+A compression-enabled device can always be set using the native zfs settings on
 a volume or filesystem. This will/can be activated during creation of the volume
 of filesystem. 
 When activated by ``ceph-volume zfs`` this tag will be created.
index dc3c7392b5549f01bc66e77967d37c1f1aa9cae6..627b9bd8e38901ea0c0e510f416c4d1b85e08784 100644 (file)
@@ -261,7 +261,7 @@ properly:
             + Both *(forward and reverse)* zones, with *fully qualified domain
               name (fqdn)* ``(hostname + domain.name)``
 
-            + KDC discover can be set up to to use DNS ``(srv resources)`` as
+            + KDC discover can be set up to use DNS ``(srv resources)`` as
               service location protocol *(RFCs 2052, 2782)*, as well as *host
               or domain* to the *appropriate realm* ``(txt record)``.
 
index e3761f11ec9a75fe3da58e6124574a0b804f7733..492b7790e9e0a3435a484c5293c3e53f0aab7cd1 100644 (file)
@@ -125,7 +125,7 @@ to terminate a job::
 
         teuthology-kill -r teuthology-2019-12-10_05:00:03-smoke-master-testing-basic-smithi
 
-Let's call the the argument passed to ``-r`` as test ID. It can be found
+Let's call the argument passed to ``-r`` as test ID. It can be found
 easily in the link to the Pulpito page for the tests you triggered. For
 example, for the above test ID, the link is - http://pulpito.front.sepia.ceph.com/teuthology-2019-12-10_05:00:03-smoke-master-testing-basic-smithi/
 
index 1337bacd0d4016e2a491ae8d8d3d7b8d2ab41643..67d3de141389d6dcaff558912b0b44d58cc2ca05 100644 (file)
@@ -71,7 +71,7 @@ documentation.  Common acronyms are OK -- don't waste screen space
 typing "Rados Object Gateway" instead of RGW.  Do not use internal
 class names like "MDCache" or "Objecter".  It is okay to mention
 internal structures if they are the direct subject of the message,
-for example in a corruption, but use plain english.
+for example in a corruption, but use plain English.
 Example: instead of "Objecter requests" say "OSD client requests"
 Example: it is okay to mention internal structure in the context
 of "Corrupt session table" (but don't say "Corrupt SessionTable")
index dc66506c3c99c588bc047ba639aba0cf3b90adb6..d048ce8a13d3627f7c563ffae12b8c308a85c117 100644 (file)
@@ -193,7 +193,7 @@ RADOS Client Acknowledgement Generation Optimization
 ====================================================
 
 Now that the recovery scheme is understood, we can discuss the
-generation of of the RADOS operation acknowledgement (ACK) by the
+generation of the RADOS operation acknowledgement (ACK) by the
 primary ("sufficient" from above). It is NOT required that the primary
 wait for all shards to complete their respective prepare
 operations. Using our example where the RADOS operations writes only
index 74c6e11f4e0cd8959648b69ecf4d86014bf3af6b..09b1ec5b42b50fe4997fb8a85a69fbb07c741560 100644 (file)
@@ -284,7 +284,7 @@ This seems complicated, but it gets us two valuable properties:
    incrementing a ref
 2) We don't need to load the object_manifest_t for every clone
    to determine how to handle removing one -- just the ones
-   immediately preceeding and suceeding it.
+   immediately preceding and succeeding it.
 
 All clone operations will need to consider adjacent chunk_maps
 when adding or removing references.
index 0b22e57edb68a9260e59bb7b1486332963f82e7f..eb89d82196b0b83f3e0a076de88bc8195f02a638 100644 (file)
@@ -60,7 +60,7 @@ mixed on the underlying media.
 Persistent Memory
 -----------------
 
-As the intial sequential design above matures, we'll introduce
+As the initial sequential design above matures, we'll introduce
 persistent memory support for metadata and caching structures.
 
 Design
index c14ea60a1f649f70438be6c60d07332c34fb110f..40468eec871c02fdbfebc55b73ae7e6d9f00ff9a 100644 (file)
@@ -343,7 +343,7 @@ your Linux distribution codename. Replace ``{arch}`` with the CPU architecture.
 RPM Packages
 ~~~~~~~~~~~~
 
-Ceph requires additional additional third party libraries.
+Ceph requires additional third party libraries.
 To add the EPEL repository, execute the following
 
 .. prompt:: bash $
index 9f7fc56d802a503561aa34ebb69a62502595dc9c..2a1813e69683a0792335545ab96892b9949c6056 100644 (file)
@@ -191,7 +191,7 @@ It is advised to first check if rescue process would be successfull::
   ceph-bluestore-tool fsck --path *osd path* \
   --bluefs_replay_recovery=true --bluefs_replay_recovery_disable_compact=true
 
-If above fsck is successfull fix procedure can be applied.
+If above fsck is successful fix procedure can be applied.
 
 Availability
 ============
index 62fcdb7f28aae020f134b959bcde982d814e7f6d..715e667dac1fa63c3bc3e45391979925e89e90bf 100644 (file)
@@ -1152,7 +1152,7 @@ Usage::
 
         ceph osd pool application rm <pool-name> <app> <key>
 
-Subcommand ``set`` assosciates or updates, if it already exists, a key-value
+Subcommand ``set`` associates or updates, if it already exists, a key-value
 pair with the given application for the given pool.
 
 Usage::
index 32c3bc0fac1595f0419b131f21b1fac84adce5c2..0e060332e86424097426729b21399605677f7bc3 100644 (file)
@@ -609,7 +609,7 @@ and ``=name`` specifies the name of the new monitor.
 Placement by labels
 -------------------
 
-Daemons can be explictly placed on hosts that match a specific label::
+Daemons can be explicitly placed on hosts that match a specific label::
 
     orch apply prometheus --placement="label:mylabel"
 
index 96e1b601129904374e5c001d12cccb5c0e64eeff..0fd1f4bbcbb4cee7afef36766612ed3ec57f53a0 100644 (file)
@@ -228,7 +228,7 @@ Placement
 ---------
 
 A :ref:`orchestrator-cli-placement-spec` defines the placement of
-daemons of a specifc service.
+daemons of a specific service.
 
 In general, stateless services do not require any specific placement
 rules as they can run anywhere that sufficient system resources
@@ -285,7 +285,7 @@ OSD Replacement
 See :ref:`rados-replacing-an-osd` for the underlying process.
 
 Replacing OSDs is fundamentally a two-staged process, as users need to
-physically replace drives. The orchestrator therefor exposes this two-staged process.
+physically replace drives. The orchestrator therefore exposes this two-staged process.
 
 Phase one is a call to :meth:`Orchestrator.remove_daemons` with ``destroy=True`` in order to mark
 the OSD as destroyed.
index d2c0e96efeda394fcae48aba32a4a8c6760261b0..5dcfe63ad055c1d8ee5a2f8e51b9272c010515e4 100644 (file)
@@ -51,7 +51,7 @@ More Information on Placement Group Repair
 ==========================================
 Ceph stores and updates the checksums of objects stored in the cluster. When a scrub is performed on a placement group, the OSD attempts to choose an authoritative copy from among its replicas. Among all of the possible cases, only one case is consistent. After a deep scrub, Ceph calculates the checksum of an object read from the disk and compares it to the checksum previously recorded. If the current checksum and the previously recorded checksums do not match, that is an inconsistency. In the case of replicated pools, any mismatch between the checksum of any replica of an object and the checksum of the authoritative copy means that there is an inconsistency.
 
-The "pg repair" command attempts to fix inconsistencies of various kinds. If "pg repair" finds an inconsisent placement group, it attempts to overwrite the digest of the inconsistent copy with the digest of the authoritative copy. If "pg repair" finds an inconsistent replicated pool, it marks the inconsistent copy as missing. Recovery, in the case of replicated pools, is beyond the scope of "pg repair".
+The "pg repair" command attempts to fix inconsistencies of various kinds. If "pg repair" finds an inconsistent placement group, it attempts to overwrite the digest of the inconsistent copy with the digest of the authoritative copy. If "pg repair" finds an inconsistent replicated pool, it marks the inconsistent copy as missing. Recovery, in the case of replicated pools, is beyond the scope of "pg repair".
 
 For erasure coded and bluestore pools, Ceph will automatically repair if osd_scrub_auto_repair (configuration default "false") is set to true and at most osd_scrub_auto_repair_num_errors (configuration default 5) errors are found.
 
index 71c832e455a056ac175dd709303103a91ad66419..739ddf4f71d76cef82defd3c557e1681725c810f 100644 (file)
@@ -652,7 +652,7 @@ and the user followed by the capabilities. For example::
        sudo ceph-authtool /etc/ceph/ceph.keyring -n client.ringo --cap osd 'allow rwx' --cap mon 'allow rwx'
 
 To update the user to the Ceph Storage Cluster, you must update the user
-in the keyring to the user entry in the the Ceph Storage Cluster. ::
+in the keyring to the user entry in the Ceph Storage Cluster. ::
 
        sudo ceph auth import -i /etc/ceph/ceph.keyring
 
index 6b4bb0efe541c8cf1965ddab158b6555dbf8e6a7..60796b4a8a416746cfb301d8ed8f33de2656759f 100644 (file)
@@ -605,7 +605,7 @@ and adding the following line to the rule::
 
     step set_choose_tries 100
 
-The relevant part of of the ``crush.txt`` file should look something
+The relevant part of the ``crush.txt`` file should look something
 like::
 
      rule erasurepool {
index 09f6c7de51365f1d649da6737796725cf52c8008..bea7f441bc5ae3ae621a2e2d63ec36f0ae833541 100644 (file)
@@ -153,7 +153,7 @@ For example: ``target_path = rgwx-${zone}-${sid}/${owner}/${bucket}``
 
 * ``acl_profiles`` (array)
 
-An array of of ``acl_profile``.
+An array of ``acl_profile``.
 
 * ``acl_profile`` (container)
  
index f842e149d7c7c1943deea40630e7f38ef47469c8..a94bfc6c854a1ae47e166a6eec12e33930a48930 100644 (file)
@@ -414,7 +414,7 @@ you would look at increasing the ``rgw lc max worker`` value from the default va
 workload with a smaller number of buckets but higher number of objects (hundreds of thousands)
 per bucket you would look at tuning ``rgw lc max wp worker`` from the default value of 3.
 
-:NOTE: When looking to to tune either of these specific values please validate the
+:NOTE: When looking to tune either of these specific values please validate the
        current Cluster performance and Ceph Object Gateway utilization before increasing.
 
 Garbage Collection Settings
index de43a6b8c2a9b6e6a77edf3c90b3764221fece88..a2876c6d408604ef23cc77b149f1584e520f3bd4 100644 (file)
@@ -37,7 +37,7 @@ Notifications may be sent synchronously, as part of the operation that triggered
 In this mode, the operation is acked only after the notification is sent to the topic's configured endpoint, which means that the
 round trip time of the notification is added to the latency of the operation itself.
 
-.. note:: The original triggering operation will still be considered as sucessful even if the notification fail with an error, cannot be deliverd or times out
+.. note:: The original triggering operation will still be considered as successful even if the notification fail with an error, cannot be deliverd or times out
 
 Notifications may also be sent asynchronously. They will be committed into persistent storage and then asynchronously sent to the topic's configured endpoint.
 In this case, the only latency added to the original operation is of committing the notification to persistent storage.
index 0f5bb3a011cfd1cb5df70845c439ef09bdca45c9..46593f1d8a47342e82718efbdbad28db237a7a1c 100644 (file)
@@ -86,7 +86,7 @@ Example::
 ListOpenIDConnectProviders
 --------------------------
 
-Lists infomation about all IDPs
+Lists information about all IDPs
 
 Request Parameters
 ~~~~~~~~~~~~~~~~~~
index dc6415ac1a09a01d3f3fea9a5aeb90ac7a2c2496..faee08e265e8b9ed73146846b66b3e59dc946ec7 100644 (file)
@@ -44,7 +44,7 @@ Basic functionalities
     | **S3select** has a definite set of functionalities that should be implemented (if we wish to stay compliant with AWS), currently only a portion of it is implemented.
     
     | The implemented software architecture supports basic arithmetic expressions, logical and compare expressions, including nested function calls and casting operators, that alone enables the user reasonable flexibility. 
-    | review the bellow feature-table_.
+    | review the below feature-table_.
 
 
 Error Handling
index bd58e6a330f446c3ee5a1dc40ee3c58a241d0e00..e3523f8a80050fa74fd143a0e79795d38272ad89 100644 (file)
@@ -175,7 +175,7 @@ Configuring the VM
 When configuring the VM for use with Ceph, it is important  to use ``virsh``
 where appropriate. Additionally, ``virsh`` commands often require root
 privileges  (i.e., ``sudo``) and will not return appropriate results or notify
-you that that root privileges are required. For a reference of ``virsh``
+you that root privileges are required. For a reference of ``virsh``
 commands, refer to `Virsh Command Reference`_.