]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephadm: Add lots of links to other chapters
authorSebastian Wagner <sewagner@redhat.com>
Sat, 11 Sep 2021 18:02:44 +0000 (20:02 +0200)
committerSebastian Wagner <sewagner@redhat.com>
Tue, 2 Nov 2021 09:01:17 +0000 (10:01 +0100)
Signed-off-by: Sebastian Wagner <sewagner@redhat.com>
(cherry picked from commit d9ec8eb7a8da3c7dff40d7ed89feaebf7cadd37d)

doc/cephadm/iscsi.rst
doc/cephadm/mds.rst
doc/cephadm/mon.rst
doc/cephadm/nfs.rst
doc/cephadm/osd.rst
doc/cephadm/rgw.rst
doc/cephadm/troubleshooting.rst
doc/cephfs/nfs.rst
doc/rados/index.rst
doc/rados/operations/index.rst
doc/rados/troubleshooting/troubleshooting-mon.rst

index d34ff6abfa615bdcdb7dd86fbc643885c95933c5..581d2c9d406121ef602b67b3b5d0643b7f2f0f6f 100644 (file)
@@ -67,3 +67,8 @@ The specification can then be applied using:
 
 
 See :ref:`orchestrator-cli-placement-spec` for details of the placement specification.
+
+Further Reading
+===============
+
+* RBD: :ref:`ceph-iscsi`
index fbee8d6bdc29787ebefb0bce7d1c6117bd8f0865..949a0fa5d8e7a87340c5b22ecbc017993c6eeb8d 100644 (file)
@@ -41,6 +41,9 @@ The specification can then be applied using:
 See :ref:`orchestrator-cli-stateless-services` for manually deploying
 MDS daemons on the CLI.
 
+Further Reading
+===============
 
+* :ref:`ceph-file-system`
 
 
index e66df6171269d2f86f4d4a2f2cc1f8b5ce1da16c..6326b73f46d39bfbd01fbc4e22fb5f7b98e4635e 100644 (file)
@@ -5,7 +5,7 @@ MON Service
 .. _deploy_additional_monitors:
 
 Deploying additional monitors 
------------------------------
+=============================
 
 A typical Ceph cluster has three or five monitor daemons that are spread
 across different hosts.  We recommend deploying five monitors if there are
@@ -169,3 +169,11 @@ network ``10.1.2.0/24``, run the following commands:
   .. prompt:: bash #
 
     ceph orch apply mon --placement="newhost1,newhost2,newhost3" 
+
+Futher Reading
+==============
+
+* :ref:`rados-operations`
+* :ref:`rados-troubleshooting-mon`
+* :ref:`cephadm-restore-quorum`
+
index 99b7e35c59eee4fbba584dc4c4c3277b09796103..c48d0f7658f71e4ab8ba2e6d7efd34b35da40ae2 100644 (file)
@@ -112,3 +112,9 @@ A few notes:
   * The backend service (``nfs.mynfs`` in this example) should include
     a *port* property that is not 2049 to avoid conflicting with the
     ingress service, which could be placed on the same host(s).
+
+Further Reading
+===============
+
+* CephFS: :ref:`cephfs-nfs`
+* MGR: :ref:`mgr-nfs`
index f0bf47cfe547cf144a957f7799bc1de358dd7283..1c2b36e71d5d5e1f4ab983f812b100899bb3cc79 100644 (file)
@@ -880,3 +880,9 @@ activates all existing OSDs on a host.
    ceph cephadm osd activate <host>...
 
 This will scan all existing disks for OSDs and deploy corresponding daemons.
+
+Futher Reading
+==============
+
+* :ref:`ceph-volume`
+* :ref:`rados-index`
index 3283fdbdf2b51f1ceaa89994fa4467dd30a68261..75387742d6ff09e9de57bef5c525dc4cff390a1e 100644 (file)
@@ -82,6 +82,8 @@ something like:
 See :ref:`orchestrator-cli-placement-spec` for details of the placement
 specification.  See :ref:`multisite` for more information of setting up multisite RGW.
 
+See also :ref:`multisite`.
+
 Setting up HTTPS
 ----------------
 
@@ -250,3 +252,8 @@ Useful hints for ingress
 
 * It is good to have at least 3 RGW daemons.
 * We recommend at least 3 hosts for the ingress service.
+
+Further Reading
+===============
+
+* :ref:`object-gateway`
index 1b6764dd7628fab9be54c68ab80e00edb1fed35d..4dfe3e62962218d54e3aed909e5425cdb1657433 100644 (file)
@@ -253,6 +253,8 @@ To access the admin socket, first enter the daemon container on the host::
     [ceph: root@mon1 /]# ceph --admin-daemon /var/run/ceph/ceph-<daemon-name>.asok config show
 
 
+.. _cephadm-restore-quorum:
+
 Restoring the MON quorum
 ------------------------
 
index a34151fbc51f6599701ab738442b10391fd5cb63..6c44b86504226c64752fae97fa44a4e10c9f8a2f 100644 (file)
@@ -1,3 +1,5 @@
+.. _cephfs-nfs:
+
 ===
 NFS
 ===
index 27d1daad14e4d6b2fe7f0f9cd14541ea3406bf63..5f3f112e8544bab7711f6099dbe1bdaf3b5fb0fe 100644 (file)
@@ -1,3 +1,5 @@
+.. _rados-index:
+
 ======================
  Ceph Storage Cluster
 ======================
index c8dff51a1fbc682e3aa29ba814e866a51f76f83c..2136918c724cf631ce789558d9ed9222a782b181 100644 (file)
@@ -1,3 +1,5 @@
+.. _rados-operations:
+
 ====================
  Cluster Operations
 ====================
index 48e3483916c07b1c09b28e29b3e74c82b5443d0f..7bbc72e13660d34f4d9d6a285b9329e45456d722 100644 (file)
@@ -1,3 +1,5 @@
+.. _rados-troubleshooting-mon:
+
 =================================
  Troubleshooting Monitors
 =================================