]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/cephadm: small improvements to upgrade.rst 66859/head
authorVille Ojamo <14869000+bluikko@users.noreply.github.com>
Fri, 9 Jan 2026 10:21:13 +0000 (17:21 +0700)
committerVille Ojamo <14869000+bluikko@users.noreply.github.com>
Fri, 9 Jan 2026 16:27:37 +0000 (23:27 +0700)
Reorganize and split long text paragraphs.
Add a label for ref instead of using section title name.
Fix word capitalization and minor changes to words.

Use title case consistently in section titles.
Use double backticks consistently for literal strings.
Use confval role instead of literal inline for config keys in text.
Improve markup. Improve prompt usage.

Delete spaces at end of lines. Wrap long lines.

Signed-off-by: Ville Ojamo <14869000+bluikko@users.noreply.github.com>
doc/cephadm/upgrade.rst

index f918a2fbc029e55af0261ce8329c8cf837cf5764..9c3eba8fbea461574170eb1980f426d95b07ad40 100644 (file)
@@ -17,7 +17,7 @@ The automated upgrade process follows Ceph best practices.  For example:
    The Ceph cluster health status is likely to switch to
    ``HEALTH_WARNING`` during the upgrade.
 
-.. note:: 
+.. note::
 
    If a cluster host is or becomes unavailable the upgrade will be paused
    until it is restored.
@@ -37,23 +37,23 @@ The automated upgrade process follows Ceph best practices.  For example:
      ceph osd pool set noautoscale
      # Perform the upgrade
      ceph osd pool unset noautoscale
-   
+
    When pausing autoscaler activity in this fashion, the existing values for
    each pool's mode, ``off``, ``on``, or ``warn``, are expected to remain.
    If the new release changes the above target value, there may be splitting
    or merging of PGs when unsetting after the upgrade.
 
 
-Starting the upgrade
+Starting the Upgrade
 ====================
 
 .. note::
    .. note::
-      `Staggered Upgrade`_ of the Monitors and Managers may be necessary to use
-      the below CephFS upgrade feature.
+      :ref:`cephadm_staggered_upgrade` of the Monitors and Managers may be
+      necessary to use the below CephFS upgrade feature.
 
-   Cephadm by default reduces ``max_mds`` to ``1``. This can be disruptive for large
-   scale CephFS deployments because the cluster cannot quickly reduce active MDS(s)
+   Cephadm by default reduces ``max_mds`` to ``1``. This can be disruptive for
+   large-scale CephFS deployments because the cluster cannot quickly reduce active MDS(s)
    to `1` and a single active MDS cannot easily handle the load of all clients
    even for a short time. Therefore, to upgrade MDS(s) without reducing ``max_mds``,
    the ``fail_fs`` option can to be set to ``true`` (default value is ``false``) prior
@@ -64,15 +64,15 @@ Starting the upgrade
       ceph config set mgr mgr/orchestrator/fail_fs true
 
    This would:
-               #. Fail CephFS filesystems, bringing active MDS daemon(s) to
-                  ``up:standby`` state.
-
-               #. Upgrade MDS daemons safely.
 
-               #. Bring CephFS filesystems back up, bringing the state of active
-                  MDS daemon(s) from ``up:standby`` to `up:active``.
+   #. Fail CephFS filesystems, bringing active MDS daemon(s) to
+      ``up:standby`` state.
+   #. Upgrade MDS daemons safely.
+   #. Bring CephFS filesystems back up, bringing the state of active
+      MDS daemon(s) from ``up:standby`` to ``up:active``.
 
-Before you use cephadm to upgrade Ceph, verify that all hosts are currently online and that your cluster is healthy by running the following command:
+Before you use cephadm to upgrade Ceph, verify that all hosts are currently
+online and that your cluster is healthy by running the following command:
 
 .. prompt:: bash #
 
@@ -84,7 +84,7 @@ To upgrade to a specific release, run a command of the following form:
 
   ceph orch upgrade start --ceph-version <version>
 
-For example, to upgrade to v16.2.6, run a command of the following form:
+For example, to upgrade to v16.2.6, run the following command:
 
 .. prompt:: bash #
 
@@ -92,14 +92,15 @@ For example, to upgrade to v16.2.6, run a command of the following form:
 
 .. note::
 
-    From version v16.2.6 the Docker Hub registry is no longer used, so if you use Docker you have to point it to the image in the quay.io registry:
+    From version v16.2.6 the Docker Hub registry is no longer used, so if you
+    use Docker you have to point it to the image in the quay.io registry:
 
-.. prompt:: bash #
+    .. prompt:: bash #
 
-  ceph orch upgrade start --image quay.io/ceph/ceph:v16.2.6
+       ceph orch upgrade start --image quay.io/ceph/ceph:v16.2.6
 
 
-Monitoring the upgrade
+Monitoring the Upgrade
 ======================
 
 Determine (1) whether an upgrade is in progress and (2) which version the
@@ -109,13 +110,14 @@ cluster is upgrading to by running the following command:
 
   ceph orch upgrade status
 
-Watching the progress bar during a Ceph upgrade
+
+Watching the Progress Bar During a Ceph Upgrade
 -----------------------------------------------
 
 During the upgrade, a progress bar is visible in the ceph status output. It
 looks like this:
 
-.. code-block:: console
+.. prompt:: bash # auto
 
   # ceph -s
 
@@ -124,7 +126,8 @@ looks like this:
       Upgrade to docker.io/ceph/ceph:v15.2.1 (00h 20m 12s)
         [=======.....................] (time remaining: 01h 43m 31s)
 
-Watching the cephadm log during an upgrade
+
+Watching the Cephadm Log During an Upgrade
 ------------------------------------------
 
 Watch the cephadm log by running the following command:
@@ -134,7 +137,7 @@ Watch the cephadm log by running the following command:
   ceph -W cephadm
 
 
-Canceling an upgrade
+Canceling an Upgrade
 ====================
 
 You can stop the upgrade process at any time by running the following command:
@@ -143,27 +146,30 @@ You can stop the upgrade process at any time by running the following command:
 
   ceph orch upgrade stop
 
-Post upgrade actions
+
+Post-upgrade Actions
 ====================
 
 In case the new version is based on ``cephadm``, once done with the upgrade the user
-has to update the ``cephadm`` package (or ceph-common package in case the user
+has to update the ``cephadm`` package (or ``ceph-common`` package in case the user
 doesn't use ``cephadm shell``) to a version compatible with the new version.
 
-Potential problems
+
+Potential Problems
 ==================
 
 
 Error: ENOENT: Module not found
 -------------------------------
 
-The message ``Error ENOENT: Module not found`` appears in response to the command ``ceph orch upgrade status`` if the orchestrator has crashed:
+The message ``Error ENOENT: Module not found`` appears in response to the
+command ``ceph orch upgrade status`` if the orchestrator has crashed:
 
 .. prompt:: bash #
 
    ceph orch upgrade status
 
-::
+.. code-block:: console
 
    Error ENOENT: Module not found
 
@@ -171,8 +177,9 @@ This is possibly caused by invalid JSON in a mgr config-key.
 See `Redmine tracker Issue #67329 <https://tracker.ceph.com/issues/67329>`_
 and `this discussion on the ceph-users mailing list <https://www.spinics.net/lists/ceph-users/msg83667.html>`_.
 
-UPGRADE_NO_STANDBY_MGR
-----------------------
+
+``UPGRADE_NO_STANDBY_MGR``
+--------------------------
 
 This alert (``UPGRADE_NO_STANDBY_MGR``) means that Ceph does not detect an
 active standby Manager daemon. In order to proceed with the upgrade, Ceph
@@ -194,14 +201,15 @@ command:
   ceph orch ps --daemon-type mgr
 
 If an existing Manager daemon has stopped, you can try to restart it by running the
-following command: 
+following command:
 
 .. prompt:: bash #
 
   ceph orch daemon restart <name>
 
-UPGRADE_FAILED_PULL
--------------------
+
+``UPGRADE_FAILED_PULL``
+-----------------------
 
 This alert (``UPGRADE_FAILED_PULL``) means that Ceph was unable to pull the
 container image for the target version. This can happen if you specify a
@@ -209,7 +217,7 @@ version or container image that does not exist (e.g. "1.2.3"), or if the
 container registry can not be reached by one or more hosts in the cluster.
 
 To cancel the existing upgrade and to specify a different target version, run
-the following commands: 
+the following commands:
 
 .. prompt:: bash #
 
@@ -217,12 +225,12 @@ the following commands:
   ceph orch upgrade start --ceph-version <version>
 
 
-Using customized container images
+Using Customized Container Images
 =================================
 
 For most users, upgrading requires nothing more complicated than specifying the
-Ceph version to which to upgrade.  In such cases, cephadm locates the specific
-Ceph container image to use by combining the ``container_image_base``
+Ceph version to which to upgrade. In such cases, cephadm locates the specific
+Ceph container image to use by combining the :confval:`container_image_base`
 configuration option (default: ``docker.io/ceph/ceph``) with a tag of
 ``vX.Y.Z``.
 
@@ -235,24 +243,38 @@ you need. For example, the following command upgrades to a development build:
 
 For more information about available container images, see :ref:`containers`.
 
+
+.. _cephadm_staggered_upgrade:
+
 Staggered Upgrade
 =================
 
 Some users may prefer to upgrade components in phases rather than all at once.
 The upgrade command, starting in 16.2.11 and 17.2.1 allows parameters
-to limit which daemons are upgraded by a single upgrade command. The options in
-include ``daemon_types``, ``services``, ``hosts`` and ``limit``. ``daemon_types``
-takes a comma-separated list of daemon types and will only upgrade daemons of those
-types. ``services`` is mutually exclusive with ``daemon_types``, only takes services
-of one type at a time (e.g. can't provide an OSD and RGW service at the same time), and
-will only upgrade daemons belonging to those services. ``hosts`` can be combined
-with ``daemon_types`` or ``services`` or provided on its own. The ``hosts`` parameter
-follows the same format as the command line options for :ref:`orchestrator-cli-placement-spec`.
-``limit`` takes an integer > 0 and provides a numerical limit on the number of
-daemons cephadm will upgrade. ``limit`` can be combined with any of the other
-parameters. For example, if you specify to upgrade daemons of type osd on host
-Host1 with ``limit`` set to 3, cephadm will upgrade (up to) 3 osd daemons on
-Host1.
+to limit which daemons are upgraded by a single upgrade command. The options
+include ``daemon_types``, ``services``, ``hosts`` and ``limit``.
+
+- ``daemon_types`` takes a comma-separated list of daemon types and will only
+  upgrade daemons of those types.
+- ``services`` will only upgrade daemons belonging to those services.
+
+  It is mutually exclusive with ``daemon_types`` and only takes services
+  of one type at a time (e.g. can't provide an OSD and RGW service at the same
+  time).
+
+- ``hosts`` parameter follows the same format as the command line options
+  for :ref:`orchestrator-cli-placement-spec`.
+
+  It can be combined with ``daemon_types`` or ``services`` or provided
+  on its own.
+- ``limit`` takes an integer > 0 and provides a numerical limit on the number
+  of daemons cephadm will upgrade.
+
+  It can be combined with any of the other parameters.
+
+For example, if you specify to upgrade daemons of type ``osd`` on host
+``host1`` with ``limit`` set to ``3``, cephadm will upgrade (up to) 3 OSD
+daemons on ``host1``.
 
 Example: specifying daemon types and hosts:
 
@@ -268,8 +290,8 @@ Example: specifying services and using limit:
 
 .. note::
 
-   Cephadm strictly enforces an order to the upgrade of daemons that is still present
-   in staggered upgrade scenarios. The current upgrade ordering is:
+   Cephadm strictly enforces an order to the upgrade of daemons that is still
+   present in staggered upgrade scenarios. The current upgrade ordering is:
 
    * ``mgr``
    * ``mon``
@@ -291,38 +313,44 @@ Example: specifying services and using limit:
    * ``loki``
    * ``promtail``
 
-   If you specify parameters that would upgrade daemons out of order, the upgrade
-   command will block and note which daemons will be missed if you proceed.
+   If you specify parameters that would upgrade daemons out of order, the
+   upgrade command will block and note which daemons will be missed if
+   you proceed.
 
 .. note::
 
-  Upgrade commands with limiting parameters will validate the options before beginning the
-  upgrade, which may require pulling the new container image. Do not be surprised
-  if the upgrade start command takes a while to return when limiting parameters are provided.
+  Upgrade commands with limiting parameters will validate the options before
+  beginning the upgrade, which may require pulling the new container image. Do
+  not be surprised if the upgrade start command takes a while to return when
+  limiting parameters are provided.
 
 .. note::
 
-   In staggered upgrade scenarios (when a limiting parameter is provided) monitoring
-   stack daemons including Prometheus and node-exporter are refreshed after the Manager
-   daemons have been upgraded. Do not be surprised if Manager upgrades thus take longer
-   than expected. Note that the versions of monitoring stack daemons may not change between
-   Ceph releases, in which case they are only redeployed.
+   In staggered upgrade scenarios (when a limiting parameter is provided)
+   monitoring stack daemons including Prometheus and Node Exporter are
+   refreshed after the Manager daemons have been upgraded. Do not be surprised
+   if Manager upgrades thus take longer than expected. Note that the versions
+   of monitoring stack daemons may not change between Ceph releases, in which
+   case they are only redeployed.
+
 
-Upgrading to a version that supports staggered upgrade from one that doesn't
+Upgrading to a Version that Supports Staggered Upgrade from One that Doesn't
 ----------------------------------------------------------------------------
 
-While upgrading from a version that already supports staggered upgrades the process
-simply requires providing the necessary arguments. However, if you wish to upgrade
-to a version that supports staggered upgrade from one that does not, there is a
-workaround. It requires first manually upgrading the Manager daemons and then passing
-the limiting parameters as usual.
+While upgrading from a version that already supports staggered upgrades, the
+process simply requires providing the necessary arguments. However, if you wish
+to upgrade to a version that supports staggered upgrade from one that does not,
+there is a workaround. It requires first manually upgrading the Manager daemons
+and then passing the limiting parameters as usual.
 
 .. warning::
-  Make sure you have multiple running mgr daemons before attempting this procedure.
+  Make sure you have multiple running Manager daemons before attempting
+  this procedure.
 
-To start with, determine which Manager is your active one and which are standby. This
-can be done in a variety of ways such as looking at the ``ceph -s`` output. Then,
-manually upgrade each standby mgr daemon with:
+To start with, determine which Manager is your active one and which are
+standby. This can be done in a variety of ways such as looking at
+the ``ceph -s`` output. Then, manually upgrade each standby Manager
+daemon with:
 
 .. prompt:: bash #
 
@@ -330,20 +358,25 @@ manually upgrade each standby mgr daemon with:
 
 .. note::
 
-   If you are on a very early version of cephadm (early Octopus) the ``orch daemon redeploy``
-   command may not have the ``--image`` flag. In that case, you must manually set the
-   Manager container image ``ceph config set mgr container_image <new-image-name>`` and then
-   redeploy the Manager ``ceph orch daemon redeploy mgr.example1.abcdef``
+   If you are on a very early version of cephadm (early Octopus), the ``orch
+   daemon redeploy`` command may not have the ``--image`` flag. In that case,
+   you must manually set the Manager container image and then redeploy
+   the Manager:
+
+   .. prompt:: bash #
+
+      ceph config set mgr container_image <new-image-name>
+      ceph orch daemon redeploy mgr.example1.abcdef
 
-At this point, a Manager fail over should allow us to have the active Manager be one
-running the new version.
+At this point, a Manager failover should allow us to have the active Manager be
+the one running the new version.
 
 .. prompt:: bash #
 
   ceph mgr fail
 
-Verify the active Manager is now one running the new version. To complete the Manager
-upgrading:
+Verify the active Manager is now the one running the new version. To complete
+the Manager upgrade:
 
 .. prompt:: bash #
 
@@ -353,8 +386,8 @@ You should now have all your Manager daemons on the new version and be able to
 specify the limiting parameters for the rest of the upgrade.
 
 
-Updating a non-Ceph image service with custom image
-====================================================
+Updating a non-Ceph Image Service with a Custom Image
+=====================================================
 
 To update a non-Ceph image service, run a command of the following form: