]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
doc/radosgw: change all intra-docs links to use ref (1 of 6)
authorVille Ojamo <14869000+bluikko@users.noreply.github.com>
Fri, 16 Jan 2026 08:55:27 +0000 (15:55 +0700)
committerVille Ojamo <14869000+bluikko@users.noreply.github.com>
Thu, 22 Jan 2026 10:12:01 +0000 (17:12 +0700)
Part 1 of 6 to make backporting easier. Many of the following parts
depend on this.

Use the the ref role for all remaining links in doc/radosgw/ with the
exception of config-ref.rst which will depend on changes to rgw.yaml.in.

The external link definitions syntax being removed is intended for
linking to external websites and not for intra-docs links. Validity of
ref links will be checked during the docs build process.

Add labels for links targets if necessary.
Remove unused external link definitions in the modified files.

Use confval instead of literal text for 2 configuration keys in
vault.rst.
Use Ceph Object Gateway consistently in multisite.rst.

Signed-off-by: Ville Ojamo <14869000+bluikko@users.noreply.github.com>
17 files changed:
doc/man/8/radosgw-admin.rst
doc/radosgw/admin.rst
doc/radosgw/barbican.rst
doc/radosgw/elastic-sync-module.rst
doc/radosgw/encryption.rst
doc/radosgw/iam.rst
doc/radosgw/kmip.rst
doc/radosgw/multisite.rst
doc/radosgw/notifications.rst
doc/radosgw/orphans.rst
doc/radosgw/placement.rst
doc/radosgw/pools.rst
doc/radosgw/role.rst
doc/radosgw/swift/auth.rst
doc/radosgw/swift/tutorial.rst
doc/radosgw/vault.rst
doc/radosgw/zone-features.rst

index 1c171dffdb52c1ccb79c08113dbfbf8d5133e050..a1cfa7dd175c1ff8b016d4fd28db0bfa1fe49cf5 100644 (file)
@@ -1,5 +1,7 @@
 :orphan:
 
+.. _man-radosgw-admin:
+
 =================================================================
  radosgw-admin -- rados REST gateway user administration utility
 =================================================================
index 4dd9329fc658403d05387836fc240e2cf2a6c404..1dd411fdcb071b35bf5e55c3ca1e4412a7059386 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-admin-guide:
+
 =============
  Admin Guide
 =============
@@ -432,6 +434,8 @@ To remove the admin flag from an existing user:
 
    radosgw-admin user modify --uid={username} --admin=0
 
+.. _radosgw-quota-management:
+
 Quota Management
 ================
 
@@ -619,6 +623,8 @@ commands, as in the following examples:
    be restarted for the changes to take effect.
 
 
+.. _radosgw-rate-limit-management:
+
 Rate Limit Management
 =====================
 
index a90d063fb970554676df962c95442e5f15bc2595..94b0495db8ff7724e1e5d5a84954e307ac979684 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-barbican:
+
 ==============================
 OpenStack Barbican Integration
 ==============================
index 60c806e879b0a173f8700ae6ebfb251cfddb33ee..b902e7372d2cd54840462cde868ee1d87721a881 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-elastic-sync-module:
+
 =========================
 ElasticSearch Sync Module
 =========================
index e30fe1468725042d3b9b2cadedf14c0d92b256fe..ef7aa9471a26e608260970dff35c0cb72ef2e5f9 100644 (file)
@@ -41,8 +41,8 @@ This is implemented in S3 according to the `Amazon SSE-KMS`_ specification.
 In principle, any key management service could be used here.  Currently
 integration with `Barbican`_, `Vault`_, and `KMIP`_ are implemented.
 
-See `OpenStack Barbican Integration`_, `HashiCorp Vault Integration`_,
-and `KMIP Integration`_.
+See :ref:`radosgw-barbican`, :ref:`radosgw-vault`,
+and :ref:`radosgw-kmip`.
 
 SSE-S3
 ======
@@ -57,7 +57,7 @@ This is implemented in S3 according to the `Amazon SSE-S3`_ specification.
 In principle, any key management service could be used here.  Currently
 only integration with `Vault`_, is implemented.
 
-See `HashiCorp Vault Integration`_.
+See :ref:`radosgw-vault`.
 
 Bucket Encryption APIs
 ======================
@@ -91,6 +91,3 @@ The configuration expects a base64-encoded 256 bit key. For example::
 .. _PutBucketEncryption: https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html
 .. _GetBucketEncryption: https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html
 .. _DeleteBucketEncryption: https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html
-.. _OpenStack Barbican Integration: ../barbican
-.. _HashiCorp Vault Integration: ../vault
-.. _KMIP Integration: ../kmip
index fa05280f4fa4d5b367f42da5d68393a0fa6b0afa..4c1f3ffdd5a31fb2bd167f62f7a77fe2b4c5f2ef 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-iam:
+
 =============================
  Ceph Object Gateway IAM API
 =============================
@@ -8,7 +10,7 @@ The Ceph Object Gateway supports a subset of the `Amazon IAM API`_ for
 the RESTful management of account users, roles, and associated policies.
 
 This REST API is served by the same HTTP endpoint as the
-`Ceph Object Gateway S3 API`_.
+:ref:`radosgw s3`.
 
 Authorization
 =============
@@ -185,4 +187,3 @@ AmazonS3ReadOnlyAccess
 
 
 .. _Amazon IAM API: https://docs.aws.amazon.com/IAM/latest/APIReference/welcome.html
-.. _Ceph Object Gateway S3 API: ../s3/
index 988897121d216c982a93c11c4d203a40ea3360e8..06e0c15cdb833ea6a1458f543ce621be1def27b4 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-kmip:
+
 ================
 KMIP Integration
 ================
index 731923ad64f80a750dcce5b1ee24453ffe0b6f71..67a7b65e66eff0a85168db32c098317c9f4daf78 100644 (file)
@@ -121,12 +121,12 @@ Requirements and Assumptions
 ============================
 
 A multi-site configuration requires at least two Ceph storage clusters. The
-multi-site configuration must have at least two Ceph object gateway instances
+multi-site configuration must have at least two Ceph Object Gateway instances
 (one for each Ceph storage cluster).
 
 This guide assumes that at least two Ceph storage clusters are in
 geographically separate locations; however, the configuration can work on the
-same site. This guide also assumes two Ceph object gateway servers named
+same site. This guide also assumes two Ceph Object Gateway servers named
 ``rgw1`` and ``rgw2``.
 
 .. important:: Running a single geographically-distributed Ceph storage cluster
@@ -140,8 +140,8 @@ In this guide, the ``rgw1`` host will serve as the master zone of the master
 zonegroup; and, the ``rgw2`` host will serve as the secondary zone of the
 master zonegroup.
 
-See `Pools`_ for instructions on creating and tuning pools for Ceph Object
-Storage.
+See :ref:`radosgw-pools` for instructions on creating and tuning pools for the
+Ceph Object Gateway.
 
 See :ref:`Sync Policy Config <radosgw-multisite-sync-policy>` for instructions
 on defining fine-grained bucket sync policy rules.
@@ -1381,7 +1381,9 @@ Zones
 -----
 
 A zone defines a logical group that consists of one or more Ceph Object Gateway
-instances. All Ceph Object Gateways in a given zone serve S3 objects that are backed by RADOS objects that are stored in the same set of pools in the same cluster. Ceph Object Gateway supports zones.
+instances. All Ceph Object Gateways in a given zone serve S3 objects that are
+backed by RADOS objects that are stored in the same set of pools in the same
+cluster. Ceph Object Gateway supports zones.
 
 The procedure for configuring zones differs from typical configuration
 procedures, because not all of the settings end up in a Ceph configuration
@@ -1601,5 +1603,3 @@ instance.
 |                                     | changing this setting.            |         |                       |
 +-------------------------------------+-----------------------------------+---------+-----------------------+
 
-
-.. _`Pools`: ../pools
index c665d291a01d5cc5fb0ae3dee605679dbd892564..dd835bc5dfe0148e32253f5ab9c6bc3f2e3eee57 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-notifications:
+
 ====================
 Bucket Notifications
 ====================
index bf6b10edfca0f5fbd97165d6e6bd004c1a0bacdf..dd2399c811f59a0ff6208906717d49a0791888a7 100644 (file)
@@ -113,5 +113,3 @@ RGW. When larger objects are copied from bucket to bucket, only the
 shared. Those shared objects will contain the marker of the original
 bucket.
 
-.. _Data Layout in RADOS : ../layout
-.. _Pool Placement and Storage Classes : ../placement
index c30a20f32b33541d859fbaa7821058941efd3bcc..3951acdcedf528fff33b515e64f7019909edfd06 100644 (file)
@@ -9,7 +9,7 @@ Placement Targets
 
 .. versionadded:: Jewel
 
-Placement targets control which `Pools`_ are associated with a particular
+Placement targets control which :ref:`radosgw-pools` are associated with a particular
 bucket. A bucket's placement target is selected on creation, and cannot be
 modified. The ``radosgw-admin bucket stats`` command will display its
 ``placement_rule``.
@@ -268,4 +268,3 @@ names be used with Ceph, including ``INTELLIGENT-TIERING``, ``STANDARD_IA``,
 ``CHEAPNDEEP`` are accepted by Ceph but might not be by some clients and
 libraries.
 
-.. _`Pools`: ../pools
index 70a5b4cfd669df7714850992d087d78e7eb82a8e..4ff4ce0ecdcd70679516b3a031e0091dc53c0a67 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-pools:
+
 =====
 Pools
 =====
index 514f17d5caecc86ad663e1a79c098fa530c9a821..2d283bea28a67e71d1266525add96b26ea3634a0 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-role:
+
 ======
  Role
 ======
index 12d6b23ffee5408b9d3f497618730439a201dd77..b507d6ee3df26ccf7eaa57ab31e01a654c323435 100644 (file)
@@ -10,9 +10,7 @@ To obtain a token from RADOS Gateway, you must create a user. For example::
     sudo radosgw-admin user create --subuser="{username}:{subusername}" --uid="{username}" 
     --display-name="{Display Name}" --key-type=swift --secret="{password}" --access=full
 
-For details on RADOS Gateway administration, see `radosgw-admin`_. 
-
-.. _radosgw-admin: ../../../man/8/radosgw-admin/ 
+For details on RADOS Gateway administration, see :ref:`man-radosgw-admin`. 
 
 .. note::
   For those used to the Swift API this is implementing the Swift auth v1.0 API, as such
index 5d2889b192d20c5ba10328f72eac18c039358c13..fca7c30ee0f838eca3eaa2170bebbdd67da26227 100644 (file)
@@ -8,9 +8,9 @@ client and the RADOS Gateway server. Then, you may follow a natural
 container and object lifecycle, including adding and retrieving object 
 metadata. See example code for the following languages:
 
-- `Java`_
-- `Python`_
-- `Ruby`_
+- :ref:`Java <java_swift>`
+- :ref:`Python <python_swift>`
+- :ref:`Ruby <ruby_swift>`
 
 
 .. ditaa::
@@ -57,6 +57,3 @@ metadata. See example code for the following languages:
            |                            |        |                             |
            +----------------------------+        +-----------------------------+
 
-.. _Java: ../java
-.. _Python: ../python
-.. _Ruby: ../ruby
index 26c88c13a7f7226c9e03119324f43141dbd2fac7..8fd4cd8b7bc50b9c42d1981d4cd7c3d1da76e9b2 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-vault:
+
 ===========================
 HashiCorp Vault Integration
 ===========================
@@ -157,9 +159,9 @@ Vault instances, or you could use either separately mounted
 transit instances, or different branches under a common transit
 point.  If you are not using separate Vault instances, you can
 use these to point SSE-KMS and SSE-S3 to separate containers:
-``rgw_crypt_vault_prefix``
+:confval:`rgw_crypt_vault_prefix`
 and/or
-``rgw_crypt_sse_s3_vault_prefix``.
+:confval:`rgw_crypt_sse_s3_vault_prefix`.
 When granting Vault permissions to SSE-KMS bucket owners, you should
 not give them permission to muck around with SSE-S3 keys;
 only Ceph itself should be doing that.
index 5b5986527ab6847694ca7a76f11b11ee1b53ae83..5ad3cc0acf6de6e384b69a606d2dc77fcf542b59 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-zone-features:
+
 =============
 Zone Features
 =============