]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/start: Mention RGW in Intro to Ceph 61883/head
authorAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Tue, 18 Feb 2025 21:31:47 +0000 (16:31 -0500)
committerAnthony D'Atri <anthonyeleven@users.noreply.github.com>
Tue, 18 Feb 2025 21:34:04 +0000 (16:34 -0500)
Signed-off-by: Anthony D'Atri <anthonyeleven@users.noreply.github.com>
doc/glossary.rst
doc/start/index.rst

index 5ecee57d21de27cc020bb7812afe644080cbf1e4..e6371385d2f687ac9d6c6bb12d78c80f3ab9adad 100644 (file)
                 Architecture document<architecture_cluster_map>` for details.
 
         Crimson
-                A next-generation OSD architecture whose main aim is the
+                A next-generation OSD architecture whose aim is the
                 reduction of latency costs incurred due to cross-core
                 communications. A re-design of the OSD reduces lock
                 contention by reducing communication between shards in the data
index 439e9b2455541418a14f1a405e11df268a80d6e1..e2cfe6f9f91f8277a3f00e02c3420f16f90608e4 100644 (file)
@@ -23,9 +23,9 @@ The Ceph Metadata Server is necessary to run Ceph File System clients.
 
 .. ditaa::
 
-            +---------------+ +------------+ +------------+ +---------------+
-            |      OSDs     | | Monitors   | |  Managers  | |      MDSs     |
-            +---------------+ +------------+ +------------+ +---------------+
+            +------+ +----------+ +----------+ +-------+ +------+
+            | OSDs | | Monitors | | Managers | | MDSes | | RGWs |
+            +------+ +----------+ +----------+ +-------+ +------+
 
 - **Monitors**: A :term:`Ceph Monitor` (``ceph-mon``) maintains maps of the
   cluster state, including the :ref:`monitor map<display-mon-map>`, manager
@@ -51,11 +51,15 @@ The Ceph Metadata Server is necessary to run Ceph File System clients.
   heartbeat. At least three Ceph OSDs are normally required for 
   redundancy and high availability.
 
-- **MDSs**: A :term:`Ceph Metadata Server` (MDS, ``ceph-mds``) stores metadata
+- **MDSes**: A :term:`Ceph Metadata Server` (MDS, ``ceph-mds``) stores metadata
   for the :term:`Ceph File System`. Ceph Metadata Servers allow CephFS users to
   run basic commands (like ``ls``, ``find``, etc.) without placing a burden on
   the Ceph Storage Cluster.
 
+- **RGWs**: A :term:`Ceph Object Gateway` (RGW, ``ceph-radosgw``) daemon provides
+  a RESTful gateway between applications and Ceph storage clusters. The
+  S3-compatible API is most commonly used, though Swift is also available.
+
 Ceph stores data as objects within logical storage pools. Using the
 :term:`CRUSH` algorithm, Ceph calculates which placement group (PG) should
 contain the object, and which OSD should store the placement group.  The