]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: Remove Ceph Monitors do lots of fsync() 8327/head
authorVikhyat Umrao <vumrao@redhat.com>
Mon, 28 Mar 2016 07:27:04 +0000 (12:57 +0530)
committerVikhyat Umrao <vumrao@redhat.com>
Mon, 28 Mar 2016 07:59:09 +0000 (13:29 +0530)
     and change the ligature of "fl" to "f" and "l"

Fixes: #15288
Signed-off-by: Vikhyat Umrao <vumrao@redhat.com>
doc/rados/configuration/mon-config-ref.rst
doc/rados/operations/crush-map.rst

index 1eb9cea322f799d63b41bf893fae0a9173f905a7..d4658cc6e4515e7fc55af5e452bca97e77b69fe9 100644 (file)
@@ -286,8 +286,10 @@ Data
 
 Ceph provides a default path where Ceph Monitors store data. For optimal
 performance in a production Ceph Storage Cluster, we recommend running Ceph
-Monitors on separate hosts and drives from Ceph OSD Daemons. Ceph Monitors do
-lots of ``fsync()``, which can interfere with Ceph OSD Daemon workloads.
+Monitors on separate hosts and drives from Ceph OSD Daemons. As leveldb is using
+``mmap()`` for writing the data, Ceph Monitors flush their data from memory to disk
+very often, which can interfere with Ceph OSD Daemon workloads if the data
+store is co-located with the OSD Daemons.
 
 In Ceph versions 0.58 and earlier, Ceph Monitors store their data in files. This 
 approach allows users to inspect monitor data with common tools like ``ls``
index 9de08cb2cdb9f0287dfd88221deed5f5979e1bb8..df7ee62415923f3f08a56650cc2081e0a2e94fbf 100644 (file)
@@ -17,7 +17,7 @@ cluster. For a detailed discussion of CRUSH, see
 CRUSH maps contain a list of :abbr:`OSDs (Object Storage Devices)`, a list of
 'buckets' for aggregating the devices into physical locations, and a list of
 rules that tell CRUSH how it should replicate data in a Ceph cluster's pools. By
-reecting the underlying physical organization of the installation, CRUSH can
+reflecting the underlying physical organization of the installation, CRUSH can
 model—and thereby address—potential sources of correlated device failures.
 Typical sources include physical proximity, a shared power source, and a shared
 network. By encoding this information into the cluster map, CRUSH placement