]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/start/hardware-recommendations.rst: link to Ceph blog 22899/head
authorNathan Cutler <ncutler@suse.com>
Tue, 17 Jul 2018 10:13:58 +0000 (12:13 +0200)
committerNathan Cutler <ncutler@suse.com>
Tue, 17 Jul 2018 10:20:01 +0000 (12:20 +0200)
Signed-off-by: Nathan Cutler <ncutler@suse.com>
doc/start/hardware-recommendations.rst

index 01442366d59a89246d30860060d4236c51cb4221..c1a02a4ddb8ef61913d79d7091d9be4f05025e18 100644 (file)
@@ -13,7 +13,7 @@ of daemon. We recommend using other hosts for processes that utilize your
 data cluster (e.g., OpenStack, CloudStack, etc).
 
 
-.. tip:: Check out the Ceph blog too.
+.. tip:: Check out the `Ceph blog`_ too.
 
 
 CPU
@@ -164,7 +164,7 @@ Disk controllers also have a significant impact on write throughput. Carefully,
 consider your selection of disk controllers to ensure that they do not create
 a performance bottleneck.
 
-.. tip:: The Ceph blog is often an excellent source of information on Ceph
+.. tip:: The `Ceph blog`_ is often an excellent source of information on Ceph
    performance issues. See `Ceph Write Throughput 1`_ and `Ceph Write 
    Throughput 2`_ for additional details.
 
@@ -338,7 +338,7 @@ configurations for Ceph OSDs, and a lighter configuration for monitors.
 
 
 
-
+.. _Ceph blog: https://ceph.com/community/blog/
 .. _Ceph Write Throughput 1: http://ceph.com/community/ceph-performance-part-1-disk-controller-write-throughput/
 .. _Ceph Write Throughput 2: http://ceph.com/community/ceph-performance-part-2-write-throughput-without-ssd-journals/
 .. _Mapping Pools to Different Types of OSDs: ../../rados/operations/crush-map#placing-different-pools-on-different-osds