]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/start: Mention RGW in Intro to Ceph 61927/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Tue, 18 Feb 2025 21:31:47 +0000 (16:31 -0500)
committerZac Dover <zac.dover@proton.me>
Thu, 20 Feb 2025 02:04:48 +0000 (12:04 +1000)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
(cherry picked from commit 4a6e9b0de6b899c09fcb40aa73ed3edddfdecba9)

doc/start/index.rst

index 0aec895ab732d5223ad4d246d72d98e25fa892bd..6ffbbc67977d79b1ebb10e256fa27dd9b9ce568c 100644 (file)
@@ -23,9 +23,9 @@ The Ceph Metadata Server is necessary to run Ceph File System clients.
 
 .. ditaa::
 
-            +---------------+ +------------+ +------------+ +---------------+
-            |      OSDs     | | Monitors   | |  Managers  | |      MDSs     |
-            +---------------+ +------------+ +------------+ +---------------+
+            +------+ +----------+ +----------+ +-------+ +------+
+            | OSDs | | Monitors | | Managers | | MDSes | | RGWs |
+            +------+ +----------+ +----------+ +-------+ +------+
 
 - **Monitors**: A :term:`Ceph Monitor` (``ceph-mon``) maintains maps of the
   cluster state, including the :ref:`monitor map<display-mon-map>`, manager
@@ -51,11 +51,15 @@ The Ceph Metadata Server is necessary to run Ceph File System clients.
   heartbeat. At least three Ceph OSDs are normally required for 
   redundancy and high availability.
 
-- **MDSs**: A :term:`Ceph Metadata Server` (MDS, ``ceph-mds``) stores metadata
+- **MDSes**: A :term:`Ceph Metadata Server` (MDS, ``ceph-mds``) stores metadata
   for the :term:`Ceph File System`. Ceph Metadata Servers allow CephFS users to
   run basic commands (like ``ls``, ``find``, etc.) without placing a burden on
   the Ceph Storage Cluster.
 
+- **RGWs**: A :term:`Ceph Object Gateway` (RGW, ``ceph-radosgw``) daemon provides
+  a RESTful gateway between applications and Ceph storage clusters. The
+  S3-compatible API is most commonly used, though Swift is also available.
+
 Ceph stores data as objects within logical storage pools. Using the
 :term:`CRUSH` algorithm, Ceph calculates which placement group (PG) should
 contain the object, and which OSD should store the placement group.  The