]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: Spelling and grammar fixes in ceph-deploy-osd.rst 33923/head
authorPaul Dee <itsascambutmailmeanyway@gmail.com>
Thu, 12 Mar 2020 14:21:33 +0000 (15:21 +0100)
committerPaul Dee <itsascambutmailmeanyway@gmail.com>
Mon, 16 Mar 2020 17:19:47 +0000 (18:19 +0100)
Signed-off-by: Paul Dee <itsascambutmailmeanyway@gmail.com>
doc/rados/deployment/ceph-deploy-osd.rst

index bb1db323692b1ea7f12b12eaa4f4512130784a7d..68841ea0ff41e297ba849f61a3dcdc0629c88371 100644 (file)
@@ -6,7 +6,7 @@ Adding and removing Ceph OSD Daemons to your cluster may involve a few more
 steps when compared to adding and removing other Ceph daemons. Ceph OSD Daemons
 write data to the disk and to journals. So you need to provide a disk for the
 OSD and a path to the journal partition (i.e., this is the most common
-configuration, but you may configure your system to  your own needs).
+configuration, but you may configure your system to your own needs).
 
 In Ceph v0.60 and later releases, Ceph supports ``dm-crypt`` on disk encryption.
 You may specify the ``--dmcrypt`` argument when preparing an OSD to tell
@@ -15,7 +15,7 @@ You may specify the ``--dmcrypt`` argument when preparing an OSD to tell
 encryption keys.
 
 You should test various drive configurations to gauge their throughput before
-before building out a large cluster. See `Data Storage`_ for additional details.
+building out a large cluster. See `Data Storage`_ for additional details.
 
 
 List Disks
@@ -58,7 +58,7 @@ addition to ``--filestore`` needs to be used to define the Journal device on
 the remote host.
 
 .. note:: When running multiple Ceph OSD daemons on a single node, and
-   sharing a partioned journal with each OSD daemon, you should consider
+   sharing a partitioned journal with each OSD daemon, you should consider
    the entire node the minimum failure domain for CRUSH purposes, because
    if the SSD drive fails, all of the Ceph OSD daemons that journal to it
    will fail too.