]> git.apps.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
doc: list ext4 last
authorSage Weil <sage@redhat.com>
Tue, 12 Apr 2016 12:48:25 +0000 (08:48 -0400)
committerSage Weil <sage@redhat.com>
Tue, 12 Apr 2016 12:48:25 +0000 (08:48 -0400)
Signed-off-by: Sage Weil <sage@redhat.com>
doc/dev/index.rst
doc/dev/object-store.rst
doc/rados/troubleshooting/troubleshooting-osd.rst
doc/rbd/qemu-rbd.rst

index abd06371699df68f4c68d5a9e2ad288c86c8a62f..7a5ce68af9c11c8e6c4971997943b5d1fee8cf3b 100644 (file)
@@ -1096,7 +1096,7 @@ Reducing the number of tests
 The ``rados`` suite generates thousands of tests out of a few hundred
 files. For instance, all tests in the `rados/thrash suite
 <https://github.com/ceph/ceph-qa-suite/tree/master/suites/rados/thrash>`_
-run for ``ext4``, ``xfs`` and ``btrfs`` because they are combined (via
+run for ``xfs``, ``btrfs`` and ``ext4`` because they are combined (via
 special file ``%``) with the `fs directory
 <https://github.com/ceph/ceph-qa-suite/tree/master/suites/rados/thrash/fs>`_
 
@@ -1107,11 +1107,12 @@ reduce the number of tests that are triggered. For instance::
 
   teuthology-suite --suite rados --subset 0/4000
 
-will run as few tests as possible. The tradeoff in this case is that some tests
-will only run on ``ext4`` and not on ``btrfs``, but no matter how small a
-ratio is provided in the ``--subset``, teuthology will still ensure that
-all files in the suite are in at least one test. Understanding the actual
-logic that drives this requires reading the teuthology source code.
+will run as few tests as possible. The tradeoff in this case is that
+some tests will only run on ``xfs`` and not on ``ext4`` or ``btrfs``,
+but no matter how small a ratio is provided in the ``--subset``,
+teuthology will still ensure that all files in the suite are in at
+least one test. Understanding the actual logic that drives this
+requires reading the teuthology source code.
 
 The ``--limit`` option only runs the first ``N`` tests in the suite:
 this is rarely useful, however, because there is no way to control which
index e3771f9c18ec41db5670dd480b7802fef3ac3dd4..8aca54fa62085453d5b645ab2be3841c8d088d09 100644 (file)
@@ -58,9 +58,9 @@
 
     "ObjectStore" -> "FileStore"
 
-    "FileStore" -> "ext3"
-    "FileStore" -> "ext4"
+    "FileStore" -> "xfs"
     "FileStore" -> "btrfs"
+    "FileStore" -> "ext4"
   }
 
 
index e1fb30e8320e34c20b8cdcc20ef04795b0544091..df95c83dfb5f9bd7b25df3c7538d8774cffbb3ec 100644 (file)
@@ -288,8 +288,8 @@ write throughput can bottleneck if other processes share the drive, including
 journals, operating systems, monitors, other OSDs and non-Ceph processes.
 
 Ceph acknowledges writes *after* journaling, so fast SSDs are an attractive
-option to accelerate the response time--particularly when using the ``ext4`` or
-XFS filesystems. By contrast, the ``btrfs`` filesystem can write and journal
+option to accelerate the response time--particularly when using the ``XFS`` or
+``ext4`` filesystems. By contrast, the ``btrfs`` filesystem can write and journal
 simultaneously.
 
 .. note:: Partitioning a drive does not change its total throughput or
index cec04ac2fc47ec9277b6dfbaa43a8db4772623f2..e771acd8b70253d633b87b109a6603b0863052c0 100644 (file)
@@ -154,7 +154,7 @@ Enabling Discard/TRIM
 Since Ceph version 0.46 and QEMU version 1.1, Ceph Block Devices support the
 discard operation. This means that a guest can send TRIM requests to let a Ceph
 block device reclaim unused space. This can be enabled in the guest by mounting
-``ext4`` or XFS with the ``discard`` option.
+``ext4`` or ``XFS`` with the ``discard`` option.
 
 For this to be available to the guest, it must be explicitly enabled
 for the block device. To do this, you must specify a
@@ -215,4 +215,4 @@ QEMU command line settings override the Ceph configuration file settings.
 .. _RBD Cache: ../rbd-config-ref/
 .. _Snapshots: ../rbd-snapshot/
 .. _Installation: ../../install
-.. _User Management - User: ../../rados/operations/user-management#user
\ No newline at end of file
+.. _User Management - User: ../../rados/operations/user-management#user