]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados/configuration: fix typos in osd-config-ref.rst 28805/head
authorLan Liu <liulan@umcloud.com>
Mon, 1 Jul 2019 03:30:38 +0000 (11:30 +0800)
committerLan Liu <liulan@umcloud.com>
Tue, 2 Jul 2019 02:22:03 +0000 (10:22 +0800)
Signed-off-by: Lan Liu <liulan@umcloud.com>
doc/rados/configuration/osd-config-ref.rst

index d070bb833214ff2a50ce3b70a7259d50c0344a42..d124fd64eb68d933ac14dba3d8cf5e0f4e2b0341 100644 (file)
@@ -39,7 +39,7 @@ file. For example:
 General Settings
 ================
 
-The following settings provide an Ceph OSD Daemon's ID, and determine paths to
+The following settings provide a Ceph OSD Daemon's ID, and determine paths to
 data and journals. Ceph deployment scripts typically generate the UUID
 automatically.
 
@@ -195,7 +195,7 @@ See `Pool & PG Config Reference`_ for details.
 Scrubbing
 =========
 
-In addition to making multiple copies of objects, Ceph insures data integrity by
+In addition to making multiple copies of objects, Ceph ensures data integrity by
 scrubbing placement groups. Ceph scrubbing is analogous to ``fsck`` on the
 object storage layer. For each placement group, Ceph generates a catalog of all
 objects and compares each primary object and its replicas to ensure that no
@@ -408,7 +408,7 @@ Operations
 :Description: This selects which priority ops will be sent to the strict
               queue verses the normal queue. The ``low`` setting sends all
               replication ops and higher to the strict queue, while the ``high``
-              option sends only replication acknowledgement ops and higher to
+              option sends only replication acknowledgment ops and higher to
               the strict queue. Setting this to ``high`` should help when a few
               OSDs in the cluster are very busy especially when combined with
               ``wpq`` in the ``osd op queue`` setting. OSDs that are very busy
@@ -591,7 +591,7 @@ Along with *mclock_opclass* another mclock operation queue named
 *mclock_client* is available. It divides operations based on category
 but also divides them based on the client making the request. This
 helps not only manage the distribution of resources spent on different
-classes of operations but also tries to insure fairness among clients.
+classes of operations but also tries to ensure fairness among clients.
 
 CURRENT IMPLEMENTATION NOTE: the current experimental implementation
 does not enforce the limit values. As a first approximation we decided
@@ -934,7 +934,7 @@ perform well in a degraded state.
 ``osd recovery max active ssd``
 
 :Description: The number of active recovery requests per OSD at one time, if the
-             priary device is non-rotational (i.e., an SSD).
+             primary device is non-rotational (i.e., an SSD).
 
 :Type: 32-bit Integer
 :Default: ``10``