]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: fix broken hyper link
authorKefu Chai <kchai@redhat.com>
Sat, 29 Aug 2020 15:24:22 +0000 (23:24 +0800)
committerKefu Chai <kchai@redhat.com>
Tue, 1 Sep 2020 01:53:18 +0000 (09:53 +0800)
this link was broken in 1427905c473e352e7cac1a9ac209cddb82544b57

Signed-off-by: Kefu Chai <kchai@redhat.com>
doc/rados/operations/cache-tiering.rst
doc/rados/operations/crush-map-edits.rst
doc/start/hardware-recommendations.rst

index 237b6e3c9f376ec17fb32d0a5669b77744d4bb8a..8dec0ced6544329c1d1c1524f2318b14d83accc2 100644 (file)
@@ -185,7 +185,7 @@ scenario, but with this difference: the drives for the cache tier are typically
 high performance drives that reside in their own servers and have their own
 CRUSH rule.  When setting up such a rule, it should take account of the hosts
 that have the high performance drives while omitting the hosts that don't. See
-`Placing Different Pools on Different OSDs`_ for details.
+:ref:`CRUSH Device Class<crush-map-device-class>` for details.
 
 
 In subsequent examples, we will refer to the cache pool as ``hot-storage`` and
@@ -469,7 +469,6 @@ disable and remove it.
 
 .. _Create a Pool: ../pools#create-a-pool
 .. _Pools - Set Pool Values: ../pools#set-pool-values
-.. _Placing Different Pools on Different OSDs: ../crush-map-edits/#placing-different-pools-on-different-osds
 .. _Bloom Filter: https://en.wikipedia.org/wiki/Bloom_filter
 .. _CRUSH Maps: ../crush-map
 .. _Absolute Sizing: #absolute-sizing
index 6b75cd24507a4d14e656d579b0932a270fd77ac6..452140a77b6c258b5337a876c97fd428d802985c 100644 (file)
@@ -113,6 +113,8 @@ will normally have one defined here for each OSD daemon in your
 cluster.  Devices are identified by an id (a non-negative integer) and
 a name, normally ``osd.N`` where ``N`` is the device id.
 
+.. _crush-map-device-class:
+
 Devices may also have a *device class* associated with them (e.g.,
 ``hdd`` or ``ssd``), allowing them to be conveniently targeted by a
 crush rule.
index 42a0e1e57524576a990b02738d689a3fa70dd173..aa6c2b71f69440b2e3860c1e95539585e1deed3f 100644 (file)
@@ -208,7 +208,7 @@ storage of CephFS metadata from the storage of the CephFS file contents. Ceph
 provides a default ``metadata`` pool for CephFS metadata. You will never have to
 create a pool for CephFS metadata, but you can create a CRUSH map hierarchy for
 your CephFS metadata pool that points only to a host's SSD storage media. See
-`Mapping Pools to Different Types of OSDs`_ for details.
+:ref:`CRUSH Device Class<crush-map-device-class>` for details.
 
 
 Controllers