]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephfs: add note to isolate metadata pool osds 52464/head
authorPatrick Donnelly <pdonnell@redhat.com>
Fri, 7 Jul 2023 12:42:58 +0000 (08:42 -0400)
committerZac Dover <zac.dover@proton.me>
Fri, 14 Jul 2023 23:59:14 +0000 (09:59 +1000)
Signed-off-by: Patrick Donnelly <pdonnell@redhat.com>
(cherry picked from commit 4e2e61f16438dcd5eb35854091114d18b6fe9a9e)

doc/cephfs/createfs.rst
doc/rados/operations/crush-map.rst

index 537a46b25d507cd41e18ca5406a39b2f8302e340..c5a87293a66fb141a9a6f1974afbe8b5610b9ffc 100644 (file)
@@ -8,10 +8,17 @@ Creating pools
 A Ceph file system requires at least two RADOS pools, one for data and one for metadata.
 When configuring these pools, you might consider:
 
-- Using a higher replication level for the metadata pool, as any data loss in
-  this pool can render the whole file system inaccessible.
-- Using lower-latency storage such as SSDs for the metadata pool, as this will
-  directly affect the observed latency of file system operations on clients.
+- We recommend configuring *at least* 3 replicas for the metadata pool,
+  as data loss in this pool can render the entire file system inaccessible.
+  Configuring 4 would not be extreme, especially since the metadata pool's
+  capacity requirements are quite modest.
+- We recommend the fastest feasible low-latency storage devices (NVMe, Optane,
+  or at the very least SAS/SATA SSD) for the metadata pool, as this will
+  directly affect the latency of client file system operations.
+- We strongly suggest that the CephFS metadata pool be provisioned on dedicated
+  SSD / NVMe OSDs. This ensures that high client workload does not adversely
+  impact metadata operations. See :ref:`device_classes` to configure pools this
+  way.
 - The data pool used to create the file system is the "default" data pool and
   the location for storing all inode backtrace information, used for hard link
   management and disaster recovery. For this reason, all inodes created in
index a27640ab197f9df273c7e5b71a994520ec7ee061..1a6b1216f1d7b48a37ac7838afef24637df48e65 100644 (file)
@@ -221,6 +221,8 @@ To view the contents of the rules, run the following command:
 
    ceph osd crush rule dump
 
+.. _device_classes:
+
 Device classes
 --------------