]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: Use validated links with ref instead of external links 66020/head
authorVille Ojamo <14869000+bluikko@users.noreply.github.com>
Wed, 22 Oct 2025 07:19:31 +0000 (14:19 +0700)
committerVille Ojamo <14869000+bluikko@users.noreply.github.com>
Mon, 8 Dec 2025 06:55:38 +0000 (13:55 +0700)
Use :ref: for intra-docs links that are validated, instead of external
links.
Only use already existing labels.
Fixes a few anchors that pointed to now-renamed section titles.
Use automatically generated link text where appropriate.
Delete unused link definitions.

Mostly in doc/rados/ but also a few in doc/rbd/.
Try to fix all links in each of the changed documents.

Signed-off-by: Ville Ojamo <14869000+bluikko@users.noreply.github.com>
doc/rados/configuration/auth-config-ref.rst
doc/rados/configuration/common.rst
doc/rados/configuration/mon-config-ref.rst
doc/rados/configuration/network-config-ref.rst
doc/rados/operations/user-management.rst
doc/rbd/libvirt.rst
doc/rbd/rbd-persistent-read-only-cache.rst
doc/rbd/rbd-persistent-write-log-cache.rst
doc/rbd/rbd-snapshot.rst

index fc14f4ee6eff3d2cdebfdd9cb94d1015ff7a74b2..31711678b22ff179d2ca4d4c54109d8eaa1775e2 100644 (file)
@@ -14,9 +14,8 @@ is very safe and you cannot afford authentication, you can disable it.
    man-in-the-middle attack that alters your client/server messages, which
    could have disastrous security effects.
 
-For information about creating users, see `User Management`_. For details on
-the architecture of CephX, see `Architecture - High Availability
-Authentication`_.
+For information about creating users, see :ref:`user-management`. For details on
+the architecture of CephX, see :ref:`arch_high_availability_authentication`.
 
 
 Deployment Scenarios
@@ -52,8 +51,8 @@ Enabling CephX
 When CephX is enabled, Ceph will look for the keyring in the default search
 path: this path includes ``/etc/ceph/$cluster.$name.keyring``. It is possible
 to override this search-path location by adding a ``keyring`` option in the
-``[global]`` section of your `Ceph configuration`_ file, but this is not
-recommended.
+``[global]`` section of your :ref:`Ceph configuration <configuring-ceph>`
+file, but this is not recommended.
 
 To enable CephX on a cluster for which authentication has been disabled, carry
 out the following procedure.  If you (or your deployment utility) have already
@@ -104,7 +103,8 @@ generated the keys, you may skip the steps related to generating keys.
       ceph auth get-or-create mds.{$id} mon 'allow rwx' osd 'allow *' mds 'allow *' mgr 'allow profile mds' -o /var/lib/ceph/mds/ceph-{$id}/keyring
 
 #. Enable CephX authentication by setting the following options in the
-   ``[global]`` section of your `Ceph configuration`_ file:
+   ``[global]`` section of your :ref:`Ceph configuration <configuring-ceph>`
+   file:
 
    .. code-block:: ini
 
@@ -128,7 +128,8 @@ so.** However, setup and troubleshooting might be easier if authentication is
 temporarily disabled and subsequently re-enabled.
 
 #. Disable CephX authentication by setting the following options in the
-   ``[global]`` section of your `Ceph configuration`_ file:
+   ``[global]`` section of your :ref:`Ceph configuration <configuring-ceph>`
+   file:
 
    .. code-block:: ini
 
@@ -196,7 +197,7 @@ commands and Ceph clients is to include a Ceph keyring under the ``/etc/ceph``
 directory. For Octopus and later releases that use ``cephadm``, the filename is
 usually ``ceph.client.admin.keyring``.  If the keyring is included in the
 ``/etc/ceph`` directory, then it is unnecessary to specify a ``keyring`` entry
-in the Ceph configuration file.
+in the :ref:`Ceph configuration <configuring-ceph>` file.
 
 Because the Ceph Storage Cluster's keyring file contains the ``client.admin``
 key, we recommend copying the keyring file to nodes from which you run
@@ -374,6 +375,3 @@ Time to Live
 .. _Monitor Bootstrapping: ../../../install/manual-deployment#monitor-bootstrapping
 .. _Operating a Cluster: ../../operations/operating
 .. _Manual Deployment: ../../../install/manual-deployment
-.. _Ceph configuration: ../ceph-conf
-.. _Architecture - High Availability Authentication: ../../../architecture#high-availability-authentication
-.. _User Management: ../../operations/user-management
index 887c476fa8700338095daf834f0a6f04def20131..881ff67b7707f44cfa5010ed0419d3b7b67d766d 100644 (file)
@@ -91,9 +91,7 @@ corresponding directory. With metavariables fully expressed and a cluster named
 
     /var/lib/ceph/mon/ceph-a
 
-For additional details, see the `Monitor Config Reference`_.
-
-.. _Monitor Config Reference: ../mon-config-ref
+For additional details, see the :ref:`monitor-config-reference`.
 
 
 .. _ceph-osd-config:
@@ -112,10 +110,8 @@ the Ceph configuration file, as shown here:
     auth_service_required = cephx
     auth_client_required = cephx
 
-In addition, you should enable message signing. For details, see `Cephx Config
-Reference`_.
-
-.. _Cephx Config Reference: ../auth-config-ref
+In addition, you should enable message signing. For details,
+see :ref:`rados-cephx-config-ref`.
 
 
 .. _ceph-monitor-config:
index c0d2ad5316dfbf793b62ecdb888925f27f3676ad..3b3afd034826c18955567b9433b00d0e121c3682 100644 (file)
@@ -8,7 +8,7 @@ Understanding how to configure a :term:`Ceph Monitor` is an important part of
 building a reliable :term:`Ceph Storage Cluster`. **All Ceph Storage Clusters
 have at least one monitor**. The monitor complement usually remains fairly
 consistent, but you can add, remove or replace a monitor in a cluster. See
-`Adding/Removing a Monitor`_ for details.
+:ref:`adding-and-removing-monitors` for details.
 
 
 .. index:: Ceph Monitor; Paxos
@@ -28,7 +28,7 @@ algorithm can compute the location of any RADOS object within the cluster. This
 makes it possible for Ceph clients to talk directly to Ceph OSD Daemons. Direct
 communication between clients and Ceph OSD Daemons improves upon traditional
 storage architectures that required clients to communicate with a central
-component.  See `Scalability and High Availability`_ for more on this subject.
+component.  See :ref:`arch_scalability_and_high_availability` for more on this subject.
 
 The Ceph Monitor's primary function is to maintain a master copy of the cluster
 map. Monitors also provide authentication and logging services. All changes in
@@ -224,7 +224,7 @@ monitors. However, if you decide to change the monitor's IP address, you
 must follow a specific procedure. See :ref:`Changing a Monitor's IP address` for
 details.
 
-Monitors can also be found by clients by using DNS SRV records. See `Monitor lookup through DNS`_ for details.
+Monitors can also be found by clients by using DNS SRV records. See :ref:`mon-dns-lookup` for details.
 
 Cluster ID
 ----------
@@ -641,11 +641,8 @@ NVMe-oF Monitor Client
 .. _Monitor Keyrings: ../../../dev/mon-bootstrap#secret-keys
 .. _Ceph configuration file: ../ceph-conf/#monitors
 .. _Network Configuration Reference: ../network-config-ref
-.. _Monitor lookup through DNS: ../mon-lookup-dns
 .. _ACID: https://en.wikipedia.org/wiki/ACID
-.. _Adding/Removing a Monitor: ../../operations/add-or-rm-mons
 .. _Monitoring a Cluster: ../../operations/monitoring
 .. _Monitoring OSDs and PGs: ../../operations/monitoring-osd-pg
 .. _Bootstrapping a Monitor: ../../../dev/mon-bootstrap
 .. _Monitor/OSD Interaction: ../mon-osd-interaction
-.. _Scalability and High Availability: ../../../architecture#scalability-and-high-availability
index b44c9d952a4ffa82a3d7119b5204cde20ad43efd..5cefa27c4bb77c93785b5b283544924195221994 100644 (file)
@@ -344,9 +344,7 @@ General Settings
 .. confval:: ms_inject_socket_failures
 
 
-.. _Scalability and High Availability: ../../../architecture#scalability-and-high-availability
 .. _Hardware Recommendations - Networks: ../../../start/hardware-recommendations#networks
-.. _hardware recommendations: ../../../start/hardware-recommendations
 .. _Monitor / OSD Interaction: ../mon-osd-interaction
 .. _Message Signatures: ../auth-config-ref#signatures
 .. _CIDR: https://en.wikipedia.org/wiki/Classless_Inter-Domain_Routing
index 6a0eae9b54b320719ee854f029a59efd535bbe37..7718cf7d8e98e20fdfef792122658c0633911598 100644 (file)
@@ -49,15 +49,15 @@ Alternatively, you may use the ``CEPH_ARGS`` environment variable to avoid
 re-entry of the user name and secret.
 
 For details on configuring the Ceph Storage Cluster to use authentication, see
-`Cephx Config Reference`_. For details on the architecture of Cephx, see
-`Architecture - High Availability Authentication`_.
+:ref:`rados-cephx-config-ref`. For details on the architecture of Cephx, see
+:ref:`arch_high_availability_authentication`.
 
 Background
 ==========
 
 No matter what type of Ceph client is used (for example: Block Device, Object
 Storage, Filesystem, native API), Ceph stores all data as RADOS objects within
-`pools`_.  Ceph users must have access to a given pool in order to read and
+:ref:`rados_pools`.  Ceph users must have access to a given pool in order to read and
 write data, and Ceph users must have execute permissions in order to use Ceph's
 administrative commands. The following concepts will help you understand
 Ceph['s] user management.
@@ -822,8 +822,6 @@ Ceph supports the following usage for user name and secret:
                  sudo rbd map --id foo --keyring /path/to/keyring mypool/myimage
 
 
-.. _pools: ../pools
-
 Limitations
 ===========
 
@@ -865,5 +863,3 @@ encryption. Anyone storing sensitive data in Ceph should consider
 encrypting their data before providing it to the Ceph system.
 
 
-.. _Architecture - High Availability Authentication: ../../../architecture#high-availability-authentication
-.. _Cephx Config Reference: ../../configuration/auth-config-ref
index a55a4f95b799aa9537b44ee87bc0a36438e4a13b..e9c9ff2a00f1376ecd215c726a82e4416f30550d 100644 (file)
@@ -45,7 +45,7 @@ cloud solutions like OpenStack, OpenNebula or CloudStack. The cloud solution use
 ``libvirt`` to  interact with QEMU/KVM, and QEMU/KVM interacts with Ceph block
 devices via  ``librbd``. See `Block Devices and OpenStack`_,
 `Block Devices and OpenNebula`_ and `Block Devices and CloudStack`_ for details.
-See `Installation`_ for installation details.
+See :ref:`install-overview` for installation details.
 
 You can also use Ceph block devices with ``libvirt``, ``virsh`` and the
 ``libvirt`` API. See `libvirt Virtualization API`_ for details.
@@ -63,7 +63,7 @@ Configuring Ceph
 
 To configure Ceph for use with ``libvirt``, perform the following steps:
 
-#. `Create a pool`_. The following example uses the
+#. :ref:`Create a pool <createpool>`. The following example uses the
    pool name ``libvirt-pool``.::
 
        ceph osd pool create libvirt-pool
@@ -76,7 +76,7 @@ To configure Ceph for use with ``libvirt``, perform the following steps:
 
         rbd pool init <pool-name>
 
-#. `Create a Ceph User`_ (or use ``client.admin`` for version 0.9.7 and
+#. :ref:`Create a Ceph User <rados_ops_adding_a_user>` (or use ``client.admin`` for version 0.9.7 and
    earlier). The following example uses the Ceph user name ``client.libvirt``
    and references ``libvirt-pool``. ::
 
@@ -87,7 +87,7 @@ To configure Ceph for use with ``libvirt``, perform the following steps:
        ceph auth ls
 
    **NOTE**: ``libvirt`` will access Ceph using the ID ``libvirt``,
-   not the Ceph name ``client.libvirt``. See `User Management - User`_ and
+   not the Ceph name ``client.libvirt``. See :ref:`User Management - User <rados-ops-user>` and
    `User Management - CLI`_ for a detailed explanation of the difference
    between ID and name.
 
@@ -230,8 +230,8 @@ commands, refer to `Virsh Command Reference`_.
 
 #. Save the file.
 
-#. If your Ceph Storage Cluster has `Ceph Authentication`_ enabled (it does by
-   default), you must generate a secret. ::
+#. If your Ceph Storage Cluster has :ref:`rados-cephx-config-ref`
+   enabled (it does by default), you must generate a secret. ::
 
        cat > secret.xml <<EOF
        <secret ephemeral='no' private='no'>
@@ -307,19 +307,14 @@ If everything looks okay, you may begin using the Ceph block device
 within your VM.
 
 
-.. _Installation: ../../install
 .. _libvirt Virtualization API: http://www.libvirt.org
 .. _Block Devices and OpenStack: ../rbd-openstack
 .. _Block Devices and OpenNebula: https://docs.opennebula.io/stable/open_cluster_deployment/storage_setup/ceph_ds.html#datastore-internals
 .. _Block Devices and CloudStack: ../rbd-cloudstack
-.. _Create a pool: ../../rados/operations/pools#create-a-pool
-.. _Create a Ceph User: ../../rados/operations/user-management#add-a-user
 .. _create an image: ../qemu-rbd#creating-images-with-qemu
 .. _Virsh Command Reference: http://www.libvirt.org/virshcmdref.html
 .. _KVM/VirtManager: https://help.ubuntu.com/community/KVM/VirtManager
-.. _Ceph Authentication: ../../rados/configuration/auth-config-ref
 .. _Disks: http://www.libvirt.org/formatdomain.html#elementsDisks
 .. _rbd create: ../rados-rbd-cmds#creating-a-block-device-image
-.. _User Management - User: ../../rados/operations/user-management#user
 .. _User Management - CLI: ../../rados/operations/user-management#command-line-usage
 .. _Virtio: http://www.linux-kvm.org/page/Virtio
index 5bef7f592008cc00a2eb905c4b1cd4836206c530..61a40e4fba005d5178126de6df4f10ac164f87a9 100644 (file)
@@ -38,7 +38,8 @@ Enable RBD Shared Read-only Parent Image Cache
 ----------------------------------------------
 
 To enable RBD shared read-only parent image cache, the following Ceph settings
-need to added in the ``[client]`` `section`_ of your ``ceph.conf`` file::
+need to added in the ``[client]`` :ref:`section <ceph-conf-file>` of
+your ``ceph.conf`` file::
 
         rbd parent cache enabled = true
         rbd plugins = parent_cache
@@ -121,8 +122,8 @@ Running the Immutable Object Cache Daemon
 -----------------------------------------
 
 ``ceph-immutable-object-cache`` daemon should use a unique Ceph user ID.
-To `create a Ceph user`_, with ``ceph`` specify the ``auth get-or-create``
-command, user name, monitor caps, and OSD caps::
+To :ref:`create a Ceph user <rados_ops_adding_a_user>`, with ``ceph`` specify
+the ``auth get-or-create`` command, user name, monitor caps, and OSD caps::
 
   ceph auth get-or-create client.ceph-immutable-object-cache.{unique id} mon 'allow r' osd 'profile rbd-read-only'
 
@@ -196,6 +197,4 @@ The immutable object cache supports throttling, controlled by the following sett
 :Default: ``1``
 
 .. _Cloned RBD Images: ../rbd-snapshot/#layering
-.. _section: ../../rados/configuration/ceph-conf/#configuration-sections
-.. _create a Ceph user: ../../rados/operations/user-management#add-a-user
 
index af323962d0c61f8ff3e5836e3e25bc40385dfb57..0be62c53d41da835f5f5674005535ede704339f1 100644 (file)
@@ -66,7 +66,7 @@ Here are some cache configuration settings:
   size is 1 GB.
 
 The above configurations can be set per-host, per-pool, per-image etc. Eg, to
-set per-host, add the overrides to the appropriate `section`_ in the host's
+set per-host, add the overrides to the appropriate :ref:`section <ceph-conf-file>` in the host's
 ``ceph.conf`` file. To set per-pool, per-image, etc, please refer to the
 ``rbd config`` `commands`_.
 
@@ -134,6 +134,5 @@ For example::
 
         $ rbd persistent-cache invalidate rbd/foo
 
-.. _section: ../../rados/configuration/ceph-conf/#configuration-sections
 .. _commands: ../../man/8/rbd#commands
 .. _DAX: https://www.kernel.org/doc/Documentation/filesystems/dax.txt
index 4a4309f8e7ddf82f6cfcbcf290b994707842c49e..a8a917018ba673b32e4fc224076dc3153661d24e 100644 (file)
@@ -42,7 +42,7 @@ the ``rbd`` command and several higher-level interfaces, including `QEMU`_,
 Cephx Notes
 ===========
 
-When `cephx`_ authentication is enabled (it is by default), you must specify a
+When :ref:`cephx <rados-cephx-config-ref>` authentication is enabled (it is by default), you must specify a
 user name or ID and a path to the keyring containing the corresponding key. See
 :ref:`User Management <user-management>` for details.
 
@@ -361,7 +361,6 @@ For example:
    a flattened image takes up more storage space than a layered clone does.
 
 
-.. _cephx: ../../rados/configuration/auth-config-ref/
 .. _QEMU: ../qemu-rbd/
 .. _OpenStack: ../rbd-openstack/
 .. _OpenNebula: https://docs.opennebula.io/stable/management_and_operations/vm_management/vm_instances.html?highlight=ceph#managing-disk-snapshots