]> git.apps.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
doc/rbd: improve grammar in "immutable object..."
authorZac Dover <zac.dover@gmail.com>
Sun, 20 Nov 2022 06:59:00 +0000 (16:59 +1000)
committerZac Dover <zac.dover@gmail.com>
Sun, 20 Nov 2022 07:13:20 +0000 (17:13 +1000)
Improve the grammar in the "Immutable Object Cache Daemon" section.

Signed-off-by: Zac Dover <zac.dover@gmail.com>
doc/rbd/rbd-persistent-read-only-cache.rst

index 589b8af7fc3ab8d51135d4b51fe2cec6a78e6037..5bef7f592008cc00a2eb905c4b1cd4836206c530 100644 (file)
@@ -50,29 +50,30 @@ Introduction and Generic Settings
 ---------------------------------
 
 The ``ceph-immutable-object-cache`` daemon is responsible for caching parent
-image content within its local caching directory. For better performance it's
-recommended to use SSDs as the underlying storage.
+image content within its local caching directory. Using SSDs as the underlying
+storage is recommended because doing so provides better performance. 
 
 The key components of the daemon are:
 
-#. **Domain socket based IPC:** The daemon will listen on a local domain
-   socket on start up and wait for connections from librbd clients.
-
-#. **LRU based promotion/demotion policy:** The daemon will maintain
-   in-memory statistics of cache-hits on each cache file. It will demote the
-   cold cache if capacity reaches to the configured threshold.
-
-#. **File-based caching store:** The daemon will maintain a simple file
-   based cache store. On promotion the RADOS objects will be fetched from
-   RADOS cluster and stored in the local caching directory.
-
-On opening each cloned rbd image, ``librbd`` will try to connect to the
-cache daemon through its Unix domain socket. Once successfully connected,
-``librbd`` will coordinate with the daemon on the subsequent reads.
-If there's a read that's not cached, the daemon will promote the RADOS object
-to local caching directory, so the next read on that object will be serviced
-from cache. The daemon also maintains simple LRU statistics so that under
-capacity pressure it will evict cold cache files as needed.
+#. **Domain socket based IPC:** The daemon listens on a local domain socket at 
+   startup and waits for connections from librbd clients.
+
+#. **LRU based promotion/demotion policy:** The daemon maintains in-memory
+   statistics of cache hits for each cache file. It demotes the cold cache
+   if capacity reaches the configured threshold.
+
+#. **File-based caching store:** The daemon maintains a simple file-based cache
+   store. On promotion, the RADOS objects are fetched from RADOS cluster and
+   stored in the local caching directory.
+
+When each cloned RBD image is opened, ``librbd`` tries to connect to the cache
+daemon through its Unix domain socket. After ``librbd`` is successfully
+connected, it coordinates with the daemon upon every subsequent read. In the
+case of an uncached read, the daemon promotes the RADOS object to the local
+caching directory and the next read of the object is serviced from the cache.
+The daemon maintains simple LRU statistics, which are used to evict cold cache
+files when required (for example, when the cache is at capacity and under
+pressure). 
 
 Here are some important cache configuration settings: