]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/glossary: link to OSD material 48785/head
authorZac Dover <zac.dover@gmail.com>
Tue, 8 Nov 2022 02:33:18 +0000 (12:33 +1000)
committerZac Dover <zac.dover@gmail.com>
Tue, 8 Nov 2022 07:53:09 +0000 (17:53 +1000)
Link to the OSD material in RADOS Configuration
"Storage Devices".

Signed-off-by: Zac Dover <zac.dover@gmail.com>
(cherry picked from commit e7d0d59a8b420fdbb882ab8c1e6d62aebebd8827)

doc/glossary.rst
doc/rados/configuration/storage-devices.rst

index 246c5cd4f90bac3f400b221e66abbd2cfc2e52ec..1435380ca6f3b78f61cebaebf971e9262c297a5b 100644 (file)
@@ -88,7 +88,7 @@
                 Gateway.
 
        Ceph Object Store
-       Ceph OSD
+       :ref:`Ceph OSD<rados_configuration_storage-devices_ceph_osd>`
                 Ceph **O**\bject **S**\torage **D**\aemon. The Ceph OSD
                 software, which interacts with logical disks (:term:`OSD`).
                 Around 2013, there was an attempt by "research and industry"
index 0b6bccaeb63f447a580944bb6d5cf6553181243d..f9c34d357cf6fbfec4364fd312586566a92c21c7 100644 (file)
@@ -4,20 +4,26 @@
 
 There are two Ceph daemons that store data on devices:
 
-* **Ceph OSDs** (or Object Storage Daemons) are where most of the
-  data is stored in Ceph.  Generally speaking, each OSD is backed by
-  a single storage device, like a traditional hard disk (HDD) or
-  solid state disk (SSD).  OSDs can also be backed by a combination
-  of devices, like a HDD for most data and an SSD (or partition of an
-  SSD) for some metadata.  The number of OSDs in a cluster is
-  generally a function of how much data will be stored, how big each
-  storage device will be, and the level and type of redundancy
-  (replication or erasure coding).
-* **Ceph Monitor** daemons manage critical cluster state like cluster
-  membership and authentication information.  For smaller clusters a
-  few gigabytes is all that is needed, although for larger clusters
-  the monitor database can reach tens or possibly hundreds of
-  gigabytes.
+.. _rados_configuration_storage-devices_ceph_osd:
+
+* **Ceph OSDs** (Object Storage Daemons) store most of the data
+  in Ceph. Usually each OSD is backed by a single storage device.
+  This can be a traditional hard disk (HDD) or a solid state disk
+  (SSD). OSDs can also be backed by a combination of devices: for
+  example, a HDD for most data and an SSD (or partition of an
+  SSD) for some metadata. The number of OSDs in a cluster is
+  usually a function of the amount of data to be stored, the size
+  of each storage device, and the level and type of redundancy
+  specified (replication or erasure coding).
+* **Ceph Monitor** daemons manage critical cluster state. This
+  includes cluster membership and authentication information.
+  Small clusters require only a few gigabytes of storage to hold
+  the monitor database. In large clusters, however, the monitor
+  database can reach sizes of tens of gigabytes to hundreds of
+  gigabytes.  
+* **Ceph Manager** daemons run alongside monitor daemons, providing
+  additional monitoring and providing interfaces to external
+  monitoring and management systems.
 
 
 OSD Backends