]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rados: rewrite index.rst 42492/head
authorZac Dover <zac.dover@gmail.com>
Mon, 26 Jul 2021 19:16:41 +0000 (05:16 +1000)
committerZac Dover <zac.dover@gmail.com>
Mon, 26 Jul 2021 19:16:41 +0000 (05:16 +1000)
This PR makes minor alterations to the
text at the beginning of the RADOS Guide.

Most notably, the monitor daemon has been
added to the list of types of daemons that
constitute a Ceph cluster.

Signed-off-by: Zac Dover <zac.dover@gmail.com>
doc/rados/index.rst

index 989ad7bae4935fd2e75c7f2d46af0d403d228420..c41ef05bc4be85d8ba5e18f632075187e2fddd13 100644 (file)
@@ -4,11 +4,15 @@
 
 The :term:`Ceph Storage Cluster` is the foundation for all Ceph deployments.
 Based upon :abbr:`RADOS (Reliable Autonomic Distributed Object Store)`, Ceph
-Storage Clusters consist of two types of daemons: a :term:`Ceph OSD Daemon`
-(OSD) stores data as objects on a storage node; and a :term:`Ceph Monitor` (MON)
-maintains a master copy of the cluster map. A Ceph Storage Cluster may contain
-thousands of storage nodes. A minimal system will have at least one 
-Ceph Monitor and two Ceph OSD Daemons for data replication. 
+Storage Clusters consist of several types of daemons: 
+
+  1. a :term:`Ceph OSD Daemon` (OSD) stores data as objects on a storage node
+  2. a :term:`Ceph Monitor` (MON) maintains a master copy of the cluster map. 
+  3. a :term:`Ceph Manager`  manager daemon
+       
+A Ceph Storage Cluster might contain thousands of storage nodes. A
+minimal system has at least one Ceph Monitor and two Ceph OSD
+Daemons for data replication. 
 
 The Ceph File System, Ceph Object Storage and Ceph Block Devices read data from
 and write data to the Ceph Storage Cluster.