]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/start: Mention RGW in Intro to Ceph 61926/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Tue, 18 Feb 2025 21:31:47 +0000 (16:31 -0500)
committerZac Dover <zac.dover@proton.me>
Thu, 20 Feb 2025 02:03:58 +0000 (12:03 +1000)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
(cherry picked from commit 4a6e9b0de6b899c09fcb40aa73ed3edddfdecba9)

doc/glossary.rst
doc/start/index.rst

index a23c01a32c7af0bcabcf08ca6afd726234778a1e..113f1ebad00d51d385dd0f5eec4476734e1f8664 100644 (file)
                 Architecture document<architecture_cluster_map>` for details.
 
         Crimson
-                A next-generation OSD architecture whose core aim is the
+                A next-generation OSD architecture whose aim is the
                 reduction of latency costs incurred due to cross-core
                 communications. A re-design of the OSD that reduces lock
                 contention by reducing communication between shards in the data
index 0aec895ab732d5223ad4d246d72d98e25fa892bd..6ffbbc67977d79b1ebb10e256fa27dd9b9ce568c 100644 (file)
@@ -23,9 +23,9 @@ The Ceph Metadata Server is necessary to run Ceph File System clients.
 
 .. ditaa::
 
-            +---------------+ +------------+ +------------+ +---------------+
-            |      OSDs     | | Monitors   | |  Managers  | |      MDSs     |
-            +---------------+ +------------+ +------------+ +---------------+
+            +------+ +----------+ +----------+ +-------+ +------+
+            | OSDs | | Monitors | | Managers | | MDSes | | RGWs |
+            +------+ +----------+ +----------+ +-------+ +------+
 
 - **Monitors**: A :term:`Ceph Monitor` (``ceph-mon``) maintains maps of the
   cluster state, including the :ref:`monitor map<display-mon-map>`, manager
@@ -51,11 +51,15 @@ The Ceph Metadata Server is necessary to run Ceph File System clients.
   heartbeat. At least three Ceph OSDs are normally required for 
   redundancy and high availability.
 
-- **MDSs**: A :term:`Ceph Metadata Server` (MDS, ``ceph-mds``) stores metadata
+- **MDSes**: A :term:`Ceph Metadata Server` (MDS, ``ceph-mds``) stores metadata
   for the :term:`Ceph File System`. Ceph Metadata Servers allow CephFS users to
   run basic commands (like ``ls``, ``find``, etc.) without placing a burden on
   the Ceph Storage Cluster.
 
+- **RGWs**: A :term:`Ceph Object Gateway` (RGW, ``ceph-radosgw``) daemon provides
+  a RESTful gateway between applications and Ceph storage clusters. The
+  S3-compatible API is most commonly used, though Swift is also available.
+
 Ceph stores data as objects within logical storage pools. Using the
 :term:`CRUSH` algorithm, Ceph calculates which placement group (PG) should
 contain the object, and which OSD should store the placement group.  The