]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/radosgw: change all intra-docs links to use ref (1 of 6) 66944/head
authorVille Ojamo <14869000+bluikko@users.noreply.github.com>
Fri, 16 Jan 2026 08:55:27 +0000 (15:55 +0700)
committerVille Ojamo <14869000+bluikko@users.noreply.github.com>
Thu, 22 Jan 2026 05:18:46 +0000 (12:18 +0700)
Part 1 of 6 to make backporting easier. Many of the following parts
depend on this.

Use the the ref role for all remaining links in doc/radosgw/ with the
exception of config-ref.rst which will depend on changes to rgw.yaml.in.

The external link definitions syntax being removed is intended for
linking to external websites and not for intra-docs links. Validity of
ref links will be checked during the docs build process.

Add labels for links targets if necessary.
Remove unused external link definitions in the modified files.

Use confval instead of literal text for 2 configuration keys in
vault.rst.
Use Ceph Object Gateway consistently in multisite.rst.

Signed-off-by: Ville Ojamo <14869000+bluikko@users.noreply.github.com>
17 files changed:
doc/man/8/radosgw-admin.rst
doc/radosgw/admin.rst
doc/radosgw/barbican.rst
doc/radosgw/elastic-sync-module.rst
doc/radosgw/encryption.rst
doc/radosgw/iam.rst
doc/radosgw/kmip.rst
doc/radosgw/multisite.rst
doc/radosgw/notifications.rst
doc/radosgw/orphans.rst
doc/radosgw/placement.rst
doc/radosgw/pools.rst
doc/radosgw/role.rst
doc/radosgw/swift/auth.rst
doc/radosgw/swift/tutorial.rst
doc/radosgw/vault.rst
doc/radosgw/zone-features.rst

index ae317aef7dfb5bbe49210de83d2e79a2298a8ca8..3860f02081908f4ca835b04def55565982fe87ad 100644 (file)
@@ -1,5 +1,7 @@
 :orphan:
 
+.. _man-radosgw-admin:
+
 =================================================================
  radosgw-admin -- rados REST gateway user administration utility
 =================================================================
index 93c78e05973c3604cf5515907eb4d00cdb31590d..c04ce3b5a50b84870a45bfd84bbafc290eee80b1 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-admin-guide:
+
 =============
  Admin Guide
 =============
@@ -432,6 +434,8 @@ To remove the admin flag from an existing user:
 
    radosgw-admin user modify --uid={username} --admin=0
 
+.. _radosgw-quota-management:
+
 Quota Management
 ================
 
@@ -618,6 +622,8 @@ commands, as in the following examples:
    be restarted for the changes to take effect.
 
 
+.. _radosgw-rate-limit-management:
+
 Rate Limit Management
 =====================
 
index 013294b33f8e98a2ac7f24ea9b86d4a5beae42d8..ac3fdc7eb87aee43cec87d2fb228b72e7d8aee1f 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-barbican:
+
 ==============================
 OpenStack Barbican Integration
 ==============================
index 60c806e879b0a173f8700ae6ebfb251cfddb33ee..b902e7372d2cd54840462cde868ee1d87721a881 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-elastic-sync-module:
+
 =========================
 ElasticSearch Sync Module
 =========================
index e95bfeb05aabdd2514f98937f52b4e1429074aeb..64e8b63dc3a33d74ce7a3e36b2fd543c855bc078 100644 (file)
@@ -43,8 +43,8 @@ This is implemented in S3 according to the `Amazon SSE-KMS`_ specification.
 In principle, any key management service could be used here.  Currently
 integration with `Barbican`_, `Vault`_, and `KMIP`_ are implemented.
 
-See `OpenStack Barbican Integration`_, `HashiCorp Vault Integration`_,
-and `KMIP Integration`_.
+See :ref:`radosgw-barbican`, :ref:`radosgw-vault`,
+and :ref:`radosgw-kmip`.
 
 SSE-S3
 ======
@@ -59,7 +59,7 @@ This is implemented in S3 according to the `Amazon SSE-S3`_ specification.
 In principle, any key management service could be used here.  Currently
 only integration with `Vault`_, is implemented.
 
-See `HashiCorp Vault Integration`_.
+See :ref:`radosgw-vault`.
 
 Bucket Encryption APIs
 ======================
@@ -93,6 +93,3 @@ The configuration expects a base64-encoded 256 bit key. For example::
 .. _PutBucketEncryption: https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html
 .. _GetBucketEncryption: https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html
 .. _DeleteBucketEncryption: https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html
-.. _OpenStack Barbican Integration: ../barbican
-.. _HashiCorp Vault Integration: ../vault
-.. _KMIP Integration: ../kmip
index 444edea87eb5e4dd2c9ff4b3d5d969673b3e97e1..c123aee0ea5603a19147ba12e3c798f6100f7145 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-iam:
+
 =============================
  Ceph Object Gateway IAM API
 =============================
@@ -8,7 +10,7 @@ The Ceph Object Gateway supports a subset of the `Amazon IAM API`_ for
 the RESTful management of account users, roles, and associated policies.
 
 This REST API is served by the same HTTP endpoint as the
-`Ceph Object Gateway S3 API`_.
+:ref:`radosgw s3`.
 
 Authorization
 =============
@@ -194,4 +196,3 @@ AmazonS3ReadOnlyAccess
 
 
 .. _Amazon IAM API: https://docs.aws.amazon.com/IAM/latest/APIReference/welcome.html
-.. _Ceph Object Gateway S3 API: ../s3/
index 25677b268a021e8bb065b4faa68da14259bad151..2943ede8ddce5b7f9c861a0c6e78559e64bba05e 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-kmip:
+
 ================
 KMIP Integration
 ================
index 87e9a32659d412babc26f049eef1f4a4e7339b4f..3b62b0e4f4f4e22ad20c3c25f266ec9c99770c2b 100644 (file)
@@ -121,12 +121,12 @@ Requirements and Assumptions
 ============================
 
 A multi-site configuration requires at least two Ceph storage clusters. The
-multi-site configuration must have at least two Ceph object gateway instances
+multi-site configuration must have at least two Ceph Object Gateway instances
 (one for each Ceph storage cluster).
 
 This guide assumes that at least two Ceph storage clusters are in
 geographically separate locations; however, the configuration can work on the
-same site. This guide also assumes two Ceph object gateway servers named
+same site. This guide also assumes two Ceph Object Gateway servers named
 ``rgw1`` and ``rgw2``.
 
 .. important:: Running a single geographically-distributed Ceph storage cluster
@@ -140,8 +140,8 @@ In this guide, the ``rgw1`` host will serve as the master zone of the master
 zonegroup; and, the ``rgw2`` host will serve as the secondary zone of the
 master zonegroup.
 
-See `Pools`_ for instructions on creating and tuning pools for Ceph Object
-Storage.
+See :ref:`radosgw-pools` for instructions on creating and tuning pools for the
+Ceph Object Gateway.
 
 See :ref:`Sync Policy Config <radosgw-multisite-sync-policy>` for instructions
 on defining fine-grained bucket sync policy rules.
@@ -1381,7 +1381,9 @@ Zones
 -----
 
 A zone defines a logical group that consists of one or more Ceph Object Gateway
-instances. All Ceph Object Gateways in a given zone serve S3 objects that are backed by RADOS objects that are stored in the same set of pools in the same cluster. Ceph Object Gateway supports zones.
+instances. All Ceph Object Gateways in a given zone serve S3 objects that are
+backed by RADOS objects that are stored in the same set of pools in the same
+cluster. Ceph Object Gateway supports zones.
 
 The procedure for configuring zones differs from typical configuration
 procedures, because not all of the settings end up in a Ceph configuration
@@ -1600,5 +1602,3 @@ instance.
 |                                     | changing this setting.            |         |                       |
 +-------------------------------------+-----------------------------------+---------+-----------------------+
 
-
-.. _`Pools`: ../pools
index 645ed7f4e920d189a535f46465f05a8a283da070..35e088c53e45b8f9f7751b4dafd74badd8aaa919 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-notifications:
+
 ====================
 Bucket Notifications
 ====================
index bf6b10edfca0f5fbd97165d6e6bd004c1a0bacdf..dd2399c811f59a0ff6208906717d49a0791888a7 100644 (file)
@@ -113,5 +113,3 @@ RGW. When larger objects are copied from bucket to bucket, only the
 shared. Those shared objects will contain the marker of the original
 bucket.
 
-.. _Data Layout in RADOS : ../layout
-.. _Pool Placement and Storage Classes : ../placement
index 384accbea81d57d84179cd94f103c61351a40bd7..80b5ad304c1866eb98bdfec9f6ff7c367c2418b9 100644 (file)
@@ -9,7 +9,7 @@ Placement Targets
 
 .. versionadded:: Jewel
 
-Placement targets control which `Pools`_ are associated with a particular
+Placement targets control which :ref:`radosgw-pools` are associated with a particular
 bucket. A bucket's placement target is selected on creation, and cannot be
 modified. The ``radosgw-admin bucket stats`` command will display its
 ``placement_rule``.
@@ -271,4 +271,3 @@ names be used with Ceph, including ``INTELLIGENT-TIERING``, ``STANDARD_IA``,
 ``CHEAPNDEEP`` are accepted by Ceph but might not be by some clients and
 libraries.
 
-.. _`Pools`: ../pools
index 2bca23fa924bbd2f0b2fddd770847330f52db54e..e54866813d36463642d6c0da29620af8d620ec20 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-pools:
+
 =====
 Pools
 =====
index 514f17d5caecc86ad663e1a79c098fa530c9a821..2d283bea28a67e71d1266525add96b26ea3634a0 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-role:
+
 ======
  Role
 ======
index 12d6b23ffee5408b9d3f497618730439a201dd77..b507d6ee3df26ccf7eaa57ab31e01a654c323435 100644 (file)
@@ -10,9 +10,7 @@ To obtain a token from RADOS Gateway, you must create a user. For example::
     sudo radosgw-admin user create --subuser="{username}:{subusername}" --uid="{username}" 
     --display-name="{Display Name}" --key-type=swift --secret="{password}" --access=full
 
-For details on RADOS Gateway administration, see `radosgw-admin`_. 
-
-.. _radosgw-admin: ../../../man/8/radosgw-admin/ 
+For details on RADOS Gateway administration, see :ref:`man-radosgw-admin`. 
 
 .. note::
   For those used to the Swift API this is implementing the Swift auth v1.0 API, as such
index 5d2889b192d20c5ba10328f72eac18c039358c13..fca7c30ee0f838eca3eaa2170bebbdd67da26227 100644 (file)
@@ -8,9 +8,9 @@ client and the RADOS Gateway server. Then, you may follow a natural
 container and object lifecycle, including adding and retrieving object 
 metadata. See example code for the following languages:
 
-- `Java`_
-- `Python`_
-- `Ruby`_
+- :ref:`Java <java_swift>`
+- :ref:`Python <python_swift>`
+- :ref:`Ruby <ruby_swift>`
 
 
 .. ditaa::
@@ -57,6 +57,3 @@ metadata. See example code for the following languages:
            |                            |        |                             |
            +----------------------------+        +-----------------------------+
 
-.. _Java: ../java
-.. _Python: ../python
-.. _Ruby: ../ruby
index 9db28272c1cb4af56cf6769792bf4fd945282748..afda0e040b8b1962860ef0ac4db7147db9d7729a 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-vault:
+
 ===========================
 HashiCorp Vault Integration
 ===========================
@@ -157,9 +159,9 @@ Vault instances, or you could use either separately mounted
 transit instances, or different branches under a common transit
 point.  If you are not using separate Vault instances, you can
 use these to point SSE-KMS and SSE-S3 to separate containers:
-``rgw_crypt_vault_prefix``
+:confval:`rgw_crypt_vault_prefix`
 and/or
-``rgw_crypt_sse_s3_vault_prefix``.
+:confval:`rgw_crypt_sse_s3_vault_prefix`.
 When granting Vault permissions to SSE-KMS bucket owners, you should
 not give them permission to muck around with SSE-S3 keys;
 only Ceph itself should be doing that.
index 63862b8299f4bc4482f99da3650d8dc0ef5243c7..194a06f09d0653e9db8438958736331c11ce4791 100644 (file)
@@ -1,3 +1,5 @@
+.. _radosgw-zone-features:
+
 =============
 Zone Features
 =============