]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
Merge pull request #48785 from zdover23/wip-doc-2022-11-08-backport-48775-to-pacific-2
authorzdover23 <1445107+zdover23@users.noreply.github.com>
Tue, 8 Nov 2022 16:23:29 +0000 (02:23 +1000)
committerGitHub <noreply@github.com>
Tue, 8 Nov 2022 16:23:29 +0000 (02:23 +1000)
pacific: doc/glossary: link to OSD material

Reviewed-by: Cole Mitchell <cole.mitchell@gmail.com>
1  2 
doc/glossary.rst
doc/rados/configuration/storage-devices.rst

Simple merge
index b3d6e6ca5d8dbfea8764cf630eb1b23d7da4b0d7,f9c34d357cf6fbfec4364fd312586566a92c21c7..8536d2cfaab4162f44017282356bdfd515d3a27e
@@@ -4,28 -4,35 +4,34 @@@
  
  There are two Ceph daemons that store data on devices:
  
- * **Ceph OSDs** (or Object Storage Daemons) are where most of the
-   data is stored in Ceph.  Generally speaking, each OSD is backed by
-   a single storage device, like a traditional hard disk (HDD) or
-   solid state disk (SSD).  OSDs can also be backed by a combination
-   of devices, like a HDD for most data and an SSD (or partition of an
-   SSD) for some metadata.  The number of OSDs in a cluster is
-   generally a function of how much data will be stored, how big each
-   storage device will be, and the level and type of redundancy
-   (replication or erasure coding).
- * **Ceph Monitor** daemons manage critical cluster state like cluster
-   membership and authentication information.  For smaller clusters a
-   few gigabytes is all that is needed, although for larger clusters
-   the monitor database can reach tens or possibly hundreds of
-   gigabytes.
+ .. _rados_configuration_storage-devices_ceph_osd:
+ * **Ceph OSDs** (Object Storage Daemons) store most of the data
+   in Ceph. Usually each OSD is backed by a single storage device.
+   This can be a traditional hard disk (HDD) or a solid state disk
+   (SSD). OSDs can also be backed by a combination of devices: for
+   example, a HDD for most data and an SSD (or partition of an
+   SSD) for some metadata. The number of OSDs in a cluster is
+   usually a function of the amount of data to be stored, the size
+   of each storage device, and the level and type of redundancy
+   specified (replication or erasure coding).
+ * **Ceph Monitor** daemons manage critical cluster state. This
+   includes cluster membership and authentication information.
+   Small clusters require only a few gigabytes of storage to hold
+   the monitor database. In large clusters, however, the monitor
+   database can reach sizes of tens of gigabytes to hundreds of
+   gigabytes.  
+ * **Ceph Manager** daemons run alongside monitor daemons, providing
+   additional monitoring and providing interfaces to external
+   monitoring and management systems.
  
  
 -OSD Backends
 -============
 +OSD Back Ends
 +=============
  
 -There are two ways that OSDs can manage the data they store.  Starting
 -with the Luminous 12.2.z release, the new default (and recommended) backend is
 -*BlueStore*.  Prior to Luminous, the default (and only option) was
 -*Filestore*.
 +There are two ways that OSDs manage the data they store.  As of the Luminous
 +12.2.z release, the default (and recommended) back end is *BlueStore*.  Prior
 +to the Luminous release, the default (and only) back end was *Filestore*.
  
  .. _rados_config_storage_devices_bluestore: