]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephfs: Removed contractions for ESL speakers. 16629/head
authorJohn Wilkins <jowilkin@redhat.com>
Thu, 27 Jul 2017 17:01:29 +0000 (10:01 -0700)
committerJohn Wilkins <jowilkin@redhat.com>
Thu, 27 Jul 2017 17:01:29 +0000 (10:01 -0700)
Signed-off-by: John Wilkins <jowilkin@redhat.com>
doc/cephfs/experimental-features.rst
doc/cephfs/journaler.rst
doc/cephfs/mantle.rst
doc/cephfs/troubleshooting.rst

index 5e5b414ecbea50d3e44110fad8a4bbe121a67823..1dc781a11f05b778d052cc0dc3c0e903286dc16f 100644 (file)
@@ -4,7 +4,7 @@ Experimental Features
 
 CephFS includes a number of experimental features which are not fully stabilized
 or qualified for users to turn on in real deployments. We generally do our best
-to clearly demarcate these and fence them off so they can't be used by mistake.
+to clearly demarcate these and fence them off so they cannot be used by mistake.
 
 Some of these features are closer to being done than others, though. We describe
 each of them with an approximation of how risky they are and briefly describe
index c90217f96e2b26342c14fa846fecc59a8814d5ab..2121532f535b430c7587bb6dfc256dcf0a57a59a 100644 (file)
@@ -35,7 +35,7 @@
 
 ``journaler batch max``
 
-:Description: Maximum bytes we'll delay flushing. 
+:Description: Maximum bytes we will delay flushing. 
 :Type: 64-bit Unsigned Integer 
 :Required: No
 :Default: ``0``
index 6ad973e2dbd9a81928cc9f2856ad8356115d7e42..9be89d662e3d01834cbb37416d98200ac588f7c6 100644 (file)
@@ -35,7 +35,7 @@ Quickstart with vstart
     Most of the time this guide will work but sometimes all MDSs lock up and you
     cannot actually see them spill. It is much better to run this on a cluster.
 
-As a pre-requistie, we assume you've installed `mdtest
+As a pre-requistie, we assume you have installed `mdtest
 <https://sourceforge.net/projects/mdtest/>`_ or pulled the `Docker image
 <https://hub.docker.com/r/michaelsevilla/mdtest/>`_. We use mdtest because we
 need to generate enough load to get over the MIN_OFFLOAD threshold that is
@@ -106,7 +106,7 @@ Mantle with `vstart.sh`
     done
 
 
-6. When you're done, you can kill all the clients with:
+6. When you are done, you can kill all the clients with:
 
 ::
 
@@ -197,7 +197,7 @@ Here we use `lua_pcall` instead of `lua_call` because we want to handle errors
 in the MDBalancer. We do not want the error propagating up the call chain. The
 cls_lua class wants to handle the error itself because it must fail gracefully.
 For Mantle, we don't care if a Lua error crashes our balancer -- in that case,
-we'll fall back to the original balancer.
+we will fall back to the original balancer.
 
 The performance improvement of using `lua_call` over `lua_pcall` would not be
 leveraged here because the balancer is invoked every 10 seconds by default. 
index 4a2b3e38035d246e7e50762a1b1f4ef2dd779d16..4158d327cc111d824cfbbab3b9a9cc317ab5c858 100644 (file)
@@ -13,7 +13,7 @@ them. Start by looking to see if either side has stuck operations
 RADOS Health
 ============
 
-If part of the CephFS metadata or data pools is unavaible and CephFS isn't
+If part of the CephFS metadata or data pools is unavaible and CephFS is not
 responding, it is probably because RADOS itself is unhealthy. Resolve those
 problems first (:doc:`../../rados/troubleshooting/index`).
 
@@ -47,15 +47,15 @@ Usually the last "event" will have been an attempt to gather locks, or sending
 the operation off to the MDS log. If it is waiting on the OSDs, fix them. If
 operations are stuck on a specific inode, you probably have a client holding
 caps which prevent others from using it, either because the client is trying
-to flush out dirty data or because you've encountered a bug in CephFS'
+to flush out dirty data or because you have encountered a bug in CephFS'
 distributed file lock code (the file "capabilities" ["caps"] system).
 
 If it's a result of a bug in the capabilities code, restarting the MDS
 is likely to resolve the problem.
 
-If there are no slow requests reported on the MDS, and it isn't reporting
+If there are no slow requests reported on the MDS, and it is not reporting
 that clients are misbehaving, either the client has a problem or its
-requests aren't reaching the MDS.
+requests are not reaching the MDS.
 
 ceph-fuse debugging
 ===================
@@ -101,7 +101,7 @@ slow requests are probably the ``mdsc`` and ``osdc`` files.
 * osdc: Dumps the current ops in-flight to OSDs (ie, file data IO)
 * osdmap: Dumps the current OSDMap epoch, pools, and OSDs
 
-If there are no stuck requests but you have file IO which isn't progressing,
+If there are no stuck requests but you have file IO which is not progressing,
 you might have a...
 
 Disconnected+Remounted FS
@@ -109,7 +109,7 @@ Disconnected+Remounted FS
 Because CephFS has a "consistent cache", if your network connection is
 disrupted for a long enough time, the client will be forcibly
 disconnected from the system. At this point, the kernel client is in
-a bind: it can't safely write back dirty data, and many applications
+a bind: it cannot safely write back dirty data, and many applications
 do not handle IO errors correctly on close().
 At the moment, the kernel client will remount the FS, but outstanding filesystem
 IO may or may not be satisfied. In these cases, you may need to reboot your