]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: Fix reStructuredText syntax errors.
authorTommi Virtanen <tommi.virtanen@dreamhost.com>
Fri, 30 Mar 2012 18:11:12 +0000 (11:11 -0700)
committerTommi Virtanen <tommi.virtanen@dreamhost.com>
Fri, 30 Mar 2012 18:11:12 +0000 (11:11 -0700)
Signed-off-by: Tommi Virtanen <tommi.virtanen@dreamhost.com>
doc/control.rst
doc/dev/kernel-client-troubleshooting.rst
doc/dev/peering.rst
doc/ops/manage/crush.rst
doc/ops/manage/failures/radosgw.rst
doc/ops/manage/grow/osd.rst

index a0863fd11f151d0786e73790e8d74d8ef387b5a2..b43767a1301e06b59dbb381caa63dc944ff34b70 100644 (file)
@@ -84,7 +84,7 @@ mon_osd_report_timeout). ::
        $ ceph pg <pgid> mark_unfound_lost revert
 
 Revert "lost" objects to their prior state, either a previous version
-or delete them if they were just created. ::
+or delete them if they were just created.
 
 
 OSD subsystem
index 03ba067eba048dc6f0de4cf5004987caf1c87778..59e476148e5b79b50b92428cb62105a3b0646f6f 100644 (file)
@@ -1,13 +1,13 @@
-============
+====================================
  Kernel client troubleshooting (FS)
-============
+====================================
 
 If there is an issue with the cephfs kernel client, the most important thing is
 figuring out whether the problem is with the client or the MDS. Generally,
 this is easy to work out. If the kernel client broke directly, there
 will be output in dmesg. Collect it and any appropriate kernel state. If
 the problem is with the MDS, there will be hung requests that the client
-is waiting on. Look in /sys/kernel/debug/ceph/*/ and cat the mdsc file to
+is waiting on. Look in ``/sys/kernel/debug/ceph/*/`` and cat the ``mdsc`` file to
 get a listing of requests in progress. If one of them remains there, the
 MDS has probably "forgotten" it.
 We can get hints about what's going on by dumping the MDS cache:
index 0113d6388b984f1a09de9d5fb4b2065bacb511b8..cf2c429f818cc8955f1da1ef7004a9ce4cb4656b 100644 (file)
@@ -86,12 +86,12 @@ Concepts
    osd map epoch by having the monitor set its *up_thru* in the osd
    map.  This helps peering ignore previous *acting sets* for which
    peering never completed after certain sequences of failures, such as
-   the second interval below::
+   the second interval below:
 
- - *acting set* = [A,B]
- - *acting set* = [A]
- - *acting set* = [] very shortly after (e.g., simultaneous failure, but staggered detection)
- - *acting set* = [B] (B restarts, A does not)
  - *acting set* = [A,B]
  - *acting set* = [A]
  - *acting set* = [] very shortly after (e.g., simultaneous failure, but staggered detection)
  - *acting set* = [B] (B restarts, A does not)
 
 *last epoch clean*
    the last epoch at which all nodes in the *acting set*
index eb5b16b442b063a11bb83f424a8cbdd4b25116f1..3a84143507eedff2f15c0c499b77a4e3943d7e86 100644 (file)
@@ -1,9 +1,9 @@
+.. _adjusting-crush:
+
 =========================
  Adjusting the CRUSH map
 =========================
 
-.. _adjusting-crush:
-
 There are a few ways to adjust the crush map:
 
 * online, by issuing commands to the monitor
index fd8a877c493e528458c9a35591288f47f9bd4fa6..0de2aa48de53f9a2f2daf8d465e77355de8d2f17 100644 (file)
@@ -49,7 +49,7 @@ will dump information about current in-progress requests with the
 RADOS cluster.  This allows one to identify if any requests are blocked
 by a non-responsive ceph-osd.  For example, one might see::
 
-{ "ops": [
+  { "ops": [
         { "tid": 1858,
           "pg": "2.d2041a48",
           "osd": 1,
index d64f789fa80e4ea5feb40b4871dac7159091cc44..4d1b4dcf48178833c696fc24e7ed16c407bb2179 100644 (file)
@@ -9,18 +9,18 @@ Briefly...
 
 #. Allocate a new OSD id::
 
-   $ ceph osd create
-   123
+     $ ceph osd create
+     123
 
 #. Make sure ceph.conf is valid for the new OSD.
 
 #. Initialize osd data directory::
 
-   $ ceph-osd -i 123 --mkfs --mkkey
+     $ ceph-osd -i 123 --mkfs --mkkey
 
 #. Register the OSD authentication key::
 
-   $ ceph auth add osd.123 osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd-data/123/keyring
+     $ ceph auth add osd.123 osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd-data/123/keyring
 
 #. Adjust the CRUSH map to allocate data to the new device (see :ref:`adjusting-crush`).
 
@@ -34,10 +34,10 @@ Briefly...
 
 #. Remove it from the CRUSH map::
 
-   $ ceph osd crush remove osd.123
+     $ ceph osd crush remove osd.123
 
 #. Remove it from the osd map::
 
-   $ ceph osd rm 123
+     $ ceph osd rm 123
 
 See also :ref:`failures-osd`.