]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: rename orchestrator_cli -> orchestrator
authorSebastian Wagner <sebastian.wagner@suse.com>
Fri, 24 Jan 2020 12:00:47 +0000 (13:00 +0100)
committerSebastian Wagner <sebastian.wagner@suse.com>
Mon, 17 Feb 2020 09:24:01 +0000 (10:24 +0100)
Signed-off-by: Sebastian Wagner <sebastian.wagner@suse.com>
doc/cephfs/fs-volumes.rst
doc/cephfs/index.rst
doc/dev/developer_guide/tests-unit-tests.rst
doc/mgr/index.rst
doc/mgr/orchestrator.rst [new file with mode: 0644]
doc/mgr/orchestrator_cli.rst [deleted file]
doc/mgr/orchestrator_modules.rst

index 0cc77011cf36dc24f78d72f37b442e3ed0c2c596..18404ecc80b4f5141c929813f6fc5f2120e7e930 100644 (file)
@@ -47,7 +47,7 @@ Create a volume using::
 
 This creates a CephFS file system and its data and metadata pools. It also tries
 to create MDSes for the filesystem using the enabled ceph-mgr orchestrator
-module  (see :doc:`/mgr/orchestrator_cli`) , e.g., rook.
+module  (see :doc:`/mgr/orchestrator`) , e.g., rook.
 
 Remove a volume using::
 
index 50f453a66331a6161875c61bf508403bbc43023b..4031e10320315497cfaa044791601c539365b421 100644 (file)
@@ -53,9 +53,9 @@ Finally, to mount CephFS on your client nodes, see `Mount CephFS:
 Prerequisites`_ page. Additionally, a command-line shell utility is available
 for interactive access or scripting via the `cephfs-shell`_.
 
-.. _Orchestrator: ../mgr/orchestrator_cli
+.. _Orchestrator: ../mgr/orchestrator
 .. _deploy MDS manually as needed: add-remove-mds
-.. _Orchestrator deployment table: ../mgr/orchestrator_cli/#current-implementation-status
+.. _Orchestrator deployment table: ../mgr/orchestrator/#current-implementation-status
 .. _Mount CephFS\: Prerequisites: mount-prerequisites
 .. _cephfs-shell: cephfs-shell
 
index 7b1f563e20dcb0284314df24b33cd7f4a1e555c8..315811e69676591e9b3889ae7285824dbf9f4c23 100644 (file)
@@ -76,7 +76,6 @@ Currently the following modules use tox:
 
 - Cephadm (``./src/pybind/mgr/cephadm``)
 - Insights (``./src/pybind/mgr/insights``)
-- Orchestrator cli (``./src/pybind/mgr/orchestrator_cli``)
 - Manager core (``./src/pybind/mgr``)
 - Dashboard (``./src/pybind/mgr/dashboard``)
 - Python common (``./src/python-common/tox.ini``)
index 630c5956a80aa684164a10a7eea84ab54e3d044b..159f95e3eec3f106b85606672c9e21ab19a58883 100644 (file)
@@ -42,6 +42,6 @@ sensible.
     Iostat module <iostat>
     Crash module <crash>
     Insights module <insights>
-    Orchestrator CLI module <orchestrator_cli>
+    Orchestrator module <orchestrator>
     Cephadm orchestrator <cephadm>
     Rook module <rook>
diff --git a/doc/mgr/orchestrator.rst b/doc/mgr/orchestrator.rst
new file mode 100644 (file)
index 0000000..1bad0a8
--- /dev/null
@@ -0,0 +1,326 @@
+
+.. _orchestrator-cli-module:
+
+================
+Orchestrator CLI
+================
+
+This module provides a command line interface (CLI) to orchestrator
+modules (ceph-mgr modules which interface with external orchestration services).
+
+As the orchestrator CLI unifies different external orchestrators, a common nomenclature
+for the orchestrator module is needed.
+
++--------------------------------------+---------------------------------------+
+| host                                 | hostname (not DNS name) of the        |
+|                                      | physical host. Not the podname,       |
+|                                      | container name, or hostname inside    |
+|                                      | the container.                        |
++--------------------------------------+---------------------------------------+
+| service type                         | The type of the service. e.g., nfs,   |
+|                                      | mds, osd, mon, rgw, mgr, iscsi        |
++--------------------------------------+---------------------------------------+
+| service                              | A logical service, Typically          |
+|                                      | comprised of multiple service         |
+|                                      | instances on multiple hosts for HA    |
+|                                      |                                       |
+|                                      | * ``fs_name`` for mds type            |
+|                                      | * ``rgw_zone`` for rgw type           |
+|                                      | * ``ganesha_cluster_id`` for nfs type |
++--------------------------------------+---------------------------------------+
+| service instance                     | A single instance of a service.       |
+|                                      |  Usually a daemon, but maybe not      |
+|                                      | (e.g., might be a kernel service      |
+|                                      | like LIO or knfsd or whatever)        |
+|                                      |                                       |
+|                                      | This identifier should                |
+|                                      | uniquely identify the instance        |
++--------------------------------------+---------------------------------------+
+| daemon                               | A running process on a host; use      |
+|                                      | “service instance” instead            |
++--------------------------------------+---------------------------------------+
+
+The relation between the names is the following:
+
+* a service belongs to a service type
+* a service instance belongs to a service type
+* a service instance belongs to a single service group
+
+Configuration
+=============
+
+To enable the orchestrator, please select the orchestrator module to use
+with the ``set backend`` command::
+
+    ceph orch set backend <module>
+
+For example, to enable the Rook orchestrator module and use it with the CLI::
+
+    ceph mgr module enable rook
+    ceph orch set backend rook
+
+You can then check backend is properly configured::
+
+    ceph orch status
+
+Disable the Orchestrator
+~~~~~~~~~~~~~~~~~~~~~~~~
+
+To disable the orchestrator again, use the empty string ``""``::
+
+    ceph orch set backend ""
+    ceph mgr module disable rook
+
+Usage
+=====
+
+.. warning::
+
+    The orchestrator CLI is unfinished and work in progress. Some commands will not
+    exist, or return a different result.
+
+.. note::
+
+    Orchestrator modules may only implement a subset of the commands listed below.
+    Also, the implementation of the commands are orchestrator module dependent and will
+    differ between implementations.
+
+Status
+~~~~~~
+
+::
+
+    ceph orch status
+
+Show current orchestrator mode and high-level status (whether the module able
+to talk to it)
+
+Also show any in-progress actions.
+
+Host Management
+~~~~~~~~~~~~~~~
+
+List hosts associated with the cluster::
+
+    ceph orch host ls
+
+Add and remove hosts::
+
+    ceph orch host add <host>
+    ceph orch host rm <host>
+
+OSD Management
+~~~~~~~~~~~~~~
+
+List Devices
+^^^^^^^^^^^^
+
+Print a list of discovered devices, grouped by node and optionally
+filtered to a particular node:
+
+::
+
+    ceph orch device ls [--host=...] [--refresh]
+
+Example::
+
+    # ceph orch device ls
+    Host 192.168.121.206:
+    Device Path           Type       Size    Rotates  Available Model
+    /dev/sdb               hdd      50.0G       True       True ATA/QEMU HARDDISK
+    /dev/sda               hdd      50.0G       True      False ATA/QEMU HARDDISK
+
+    Host 192.168.121.181:
+    Device Path           Type       Size    Rotates  Available Model
+    /dev/sdb               hdd      50.0G       True       True ATA/QEMU HARDDISK
+    /dev/sda               hdd      50.0G       True      False ATA/QEMU HARDDISK
+
+.. note::
+    Output form Ansible orchestrator
+
+Create OSDs
+^^^^^^^^^^^
+
+Create OSDs on a group of devices on a single host::
+
+    ceph orch osd create <host>:<drive>
+    ceph orch osd create -i <path-to-drive-group.json>
+
+
+The output of ``osd create`` is not specified and may vary between orchestrator backends.
+
+Where ``drive.group.json`` is a JSON file containing the fields defined in
+:class:`ceph.deployment_utils.drive_group.DriveGroupSpec`
+
+Example::
+
+    # ceph orch osd create 192.168.121.206:/dev/sdc
+    {"status": "OK", "msg": "", "data": {"event": "playbook_on_stats", "uuid": "7082f3ba-f5b7-4b7c-9477-e74ca918afcb", "stdout": "\r\nPLAY RECAP *********************************************************************\r\n192.168.121.206            : ok=96   changed=3    unreachable=0    failed=0   \r\n", "counter": 932, "pid": 10294, "created": "2019-05-28T22:22:58.527821", "end_line": 1170, "runner_ident": "083cad3c-8197-11e9-b07a-2016b900e38f", "start_line": 1166, "event_data": {"ignored": 0, "skipped": {"192.168.121.206": 186}, "ok": {"192.168.121.206": 96}, "artifact_data": {}, "rescued": 0, "changed": {"192.168.121.206": 3}, "pid": 10294, "dark": {}, "playbook_uuid": "409364a6-9d49-4e44-8b7b-c28e5b3adf89", "playbook": "add-osd.yml", "failures": {}, "processed": {"192.168.121.206": 1}}, "parent_uuid": "409364a6-9d49-4e44-8b7b-c28e5b3adf89"}}
+
+.. note::
+    Output form Ansible orchestrator
+
+Decommission an OSD
+^^^^^^^^^^^^^^^^^^^
+::
+
+    ceph orch osd rm <osd-id> [osd-id...]
+
+Removes one or more OSDs from the cluster and the host, if the OSDs are marked as
+``destroyed``.
+
+Example::
+
+    # ceph orch osd rm 4
+    {"status": "OK", "msg": "", "data": {"event": "playbook_on_stats", "uuid": "1a16e631-906d-48e0-9e24-fa7eb593cc0a", "stdout": "\r\nPLAY RECAP *********************************************************************\r\n192.168.121.158            : ok=2    changed=0    unreachable=0    failed=0   \r\n192.168.121.181            : ok=2    changed=0    unreachable=0    failed=0   \r\n192.168.121.206            : ok=2    changed=0    unreachable=0    failed=0   \r\nlocalhost                  : ok=31   changed=8    unreachable=0    failed=0   \r\n", "counter": 240, "pid": 10948, "created": "2019-05-28T22:26:09.264012", "end_line": 308, "runner_ident": "8c093db0-8197-11e9-b07a-2016b900e38f", "start_line": 301, "event_data": {"ignored": 0, "skipped": {"localhost": 37}, "ok": {"192.168.121.181": 2, "192.168.121.158": 2, "192.168.121.206": 2, "localhost": 31}, "artifact_data": {}, "rescued": 0, "changed": {"localhost": 8}, "pid": 10948, "dark": {}, "playbook_uuid": "a12ec40e-bce9-4bc9-b09e-2d8f76a5be02", "playbook": "shrink-osd.yml", "failures": {}, "processed": {"192.168.121.181": 1, "192.168.121.158": 1, "192.168.121.206": 1, "localhost": 1}}, "parent_uuid": "a12ec40e-bce9-4bc9-b09e-2d8f76a5be02"}}
+
+.. note::
+    Output form Ansible orchestrator
+
+..
+    Blink Device Lights
+    ^^^^^^^^^^^^^^^^^^^
+    ::
+
+        ceph orch device ident-on <dev_id>
+        ceph orch device ident-on <dev_name> <host>
+        ceph orch device fault-on <dev_id>
+        ceph orch device fault-on <dev_name> <host>
+
+        ceph orch device ident-off <dev_id> [--force=true]
+        ceph orch device ident-off <dev_id> <host> [--force=true]
+        ceph orch device fault-off <dev_id> [--force=true]
+        ceph orch device fault-off <dev_id> <host> [--force=true]
+
+    where ``dev_id`` is the device id as listed in ``osd metadata``,
+    ``dev_name`` is the name of the device on the system and ``host`` is the host as
+    returned by ``orchestrator host ls``
+
+        ceph orch osd ident-on {primary,journal,db,wal,all} <osd-id>
+        ceph orch osd ident-off {primary,journal,db,wal,all} <osd-id>
+        ceph orch osd fault-on {primary,journal,db,wal,all} <osd-id>
+        ceph orch osd fault-off {primary,journal,db,wal,all} <osd-id>
+
+    Where ``journal`` is the filestore journal, ``wal`` is the write ahead log of
+    bluestore and ``all`` stands for all devices associated with the osd
+
+
+Monitor and manager management
+~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+
+Creates or removes MONs or MGRs from the cluster. Orchestrator may return an
+error if it doesn't know how to do this transition.
+
+Update the number of monitor nodes::
+
+    ceph orch apply mon <num> [host, host:network...]
+
+Each host can optionally specify a network for the monitor to listen on.
+
+Update the number of manager nodes::
+
+    ceph orch apply mgr <num> [host...]
+
+..
+    .. note::
+
+        The host lists are the new full list of mon/mgr hosts
+
+    .. note::
+
+        specifying hosts is optional for some orchestrator modules
+        and mandatory for others (e.g. Ansible).
+
+
+Service Status
+~~~~~~~~~~~~~~
+
+Print a list of services known to the orchestrator. The list can be limited to
+services on a particular host with the optional --host parameter and/or
+services of a particular type via optional --type parameter
+(mon, osd, mgr, mds, rgw):
+
+::
+
+    ceph orch ps
+    ceph orch service ls [--host host] [--svc_type type] [--refresh]
+
+Discover the status of a particular service or daemons::
+
+    ceph orch service ls --svc_type type --svc_id <name> [--refresh]
+
+
+Query the status of a particular service instance (mon, osd, mds, rgw).  For OSDs
+the id is the numeric OSD ID, for MDS services it is the file system name::
+
+    ceph orch daemon status <type> <instance-name> [--refresh]
+
+
+
+Stateless services (MDS/RGW/NFS/rbd-mirror/iSCSI)
+~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+The orchestrator is not responsible for configuring the services. Please look into the corresponding
+documentation for details.
+
+The ``name`` parameter is an identifier of the group of instances:
+
+* a CephFS file system for a group of MDS daemons,
+* a zone name for a group of RGWs
+
+Sizing: the ``size`` parameter gives the number of daemons in the cluster
+(e.g. the number of MDS daemons for a particular CephFS file system).
+
+Creating/growing/shrinking/removing services::
+
+    ceph orch {mds,rgw} update <name> <size> [host…]
+    ceph orch {mds,rgw} add <name>
+    ceph orch nfs update <name> <size> [host…]
+    ceph orch nfs add <name> <pool> [--namespace=<namespace>]
+    ceph orch {mds,rgw,nfs} rm <name>
+
+e.g., ``ceph orch mds update myfs 3 host1 host2 host3``
+
+Start/stop/reload::
+
+    ceph orch service {stop,start,reload} <type> <name>
+
+    ceph orch daemon {start,stop,reload} <type> <daemon-id>
+
+
+Current Implementation Status
+=============================
+
+This is an overview of the current implementation status of the orchestrators.
+
+=================================== ====== =========
+ Command                             Rook   Cephadm
+=================================== ====== =========
+ apply iscsi                         ⚪      ⚪
+ apply mds                           ✔      ✔
+ apply mgr                           ⚪      ✔
+ apply mon                           ✔      ✔
+ apply nfs                           ✔      ⚪
+ apply osd                           ✔      ✔
+ apply rbd-mirror                    ✔      ✔
+ apply rgw                           ⚪      ✔
+ host add                            ⚪      ✔
+ host ls                             ✔      ✔
+ host rm                             ⚪      ✔
+ daemon status                       ⚪      ✔
+ daemon {stop,start,...}             ⚪      ✔
+ device {ident,fault}-(on,off}       ⚪      ✔
+ device ls                           ✔      ✔
+ iscsi add                           ⚪      ⚪
+ mds add                             ✔      ✔
+ nfs add                             ✔      ⚪
+ ps                                  ⚪      ✔
+ rbd-mirror add                      ⚪      ✔
+ rgw add                             ✔      ✔
+ service ls                          ✔      ⚪
+=================================== ====== =========
+
+where
+
+* ⚪ = not yet implemented
+* ❌ = not applicable
+* ✔ = implemented
diff --git a/doc/mgr/orchestrator_cli.rst b/doc/mgr/orchestrator_cli.rst
deleted file mode 100644 (file)
index 1bad0a8..0000000
+++ /dev/null
@@ -1,326 +0,0 @@
-
-.. _orchestrator-cli-module:
-
-================
-Orchestrator CLI
-================
-
-This module provides a command line interface (CLI) to orchestrator
-modules (ceph-mgr modules which interface with external orchestration services).
-
-As the orchestrator CLI unifies different external orchestrators, a common nomenclature
-for the orchestrator module is needed.
-
-+--------------------------------------+---------------------------------------+
-| host                                 | hostname (not DNS name) of the        |
-|                                      | physical host. Not the podname,       |
-|                                      | container name, or hostname inside    |
-|                                      | the container.                        |
-+--------------------------------------+---------------------------------------+
-| service type                         | The type of the service. e.g., nfs,   |
-|                                      | mds, osd, mon, rgw, mgr, iscsi        |
-+--------------------------------------+---------------------------------------+
-| service                              | A logical service, Typically          |
-|                                      | comprised of multiple service         |
-|                                      | instances on multiple hosts for HA    |
-|                                      |                                       |
-|                                      | * ``fs_name`` for mds type            |
-|                                      | * ``rgw_zone`` for rgw type           |
-|                                      | * ``ganesha_cluster_id`` for nfs type |
-+--------------------------------------+---------------------------------------+
-| service instance                     | A single instance of a service.       |
-|                                      |  Usually a daemon, but maybe not      |
-|                                      | (e.g., might be a kernel service      |
-|                                      | like LIO or knfsd or whatever)        |
-|                                      |                                       |
-|                                      | This identifier should                |
-|                                      | uniquely identify the instance        |
-+--------------------------------------+---------------------------------------+
-| daemon                               | A running process on a host; use      |
-|                                      | “service instance” instead            |
-+--------------------------------------+---------------------------------------+
-
-The relation between the names is the following:
-
-* a service belongs to a service type
-* a service instance belongs to a service type
-* a service instance belongs to a single service group
-
-Configuration
-=============
-
-To enable the orchestrator, please select the orchestrator module to use
-with the ``set backend`` command::
-
-    ceph orch set backend <module>
-
-For example, to enable the Rook orchestrator module and use it with the CLI::
-
-    ceph mgr module enable rook
-    ceph orch set backend rook
-
-You can then check backend is properly configured::
-
-    ceph orch status
-
-Disable the Orchestrator
-~~~~~~~~~~~~~~~~~~~~~~~~
-
-To disable the orchestrator again, use the empty string ``""``::
-
-    ceph orch set backend ""
-    ceph mgr module disable rook
-
-Usage
-=====
-
-.. warning::
-
-    The orchestrator CLI is unfinished and work in progress. Some commands will not
-    exist, or return a different result.
-
-.. note::
-
-    Orchestrator modules may only implement a subset of the commands listed below.
-    Also, the implementation of the commands are orchestrator module dependent and will
-    differ between implementations.
-
-Status
-~~~~~~
-
-::
-
-    ceph orch status
-
-Show current orchestrator mode and high-level status (whether the module able
-to talk to it)
-
-Also show any in-progress actions.
-
-Host Management
-~~~~~~~~~~~~~~~
-
-List hosts associated with the cluster::
-
-    ceph orch host ls
-
-Add and remove hosts::
-
-    ceph orch host add <host>
-    ceph orch host rm <host>
-
-OSD Management
-~~~~~~~~~~~~~~
-
-List Devices
-^^^^^^^^^^^^
-
-Print a list of discovered devices, grouped by node and optionally
-filtered to a particular node:
-
-::
-
-    ceph orch device ls [--host=...] [--refresh]
-
-Example::
-
-    # ceph orch device ls
-    Host 192.168.121.206:
-    Device Path           Type       Size    Rotates  Available Model
-    /dev/sdb               hdd      50.0G       True       True ATA/QEMU HARDDISK
-    /dev/sda               hdd      50.0G       True      False ATA/QEMU HARDDISK
-
-    Host 192.168.121.181:
-    Device Path           Type       Size    Rotates  Available Model
-    /dev/sdb               hdd      50.0G       True       True ATA/QEMU HARDDISK
-    /dev/sda               hdd      50.0G       True      False ATA/QEMU HARDDISK
-
-.. note::
-    Output form Ansible orchestrator
-
-Create OSDs
-^^^^^^^^^^^
-
-Create OSDs on a group of devices on a single host::
-
-    ceph orch osd create <host>:<drive>
-    ceph orch osd create -i <path-to-drive-group.json>
-
-
-The output of ``osd create`` is not specified and may vary between orchestrator backends.
-
-Where ``drive.group.json`` is a JSON file containing the fields defined in
-:class:`ceph.deployment_utils.drive_group.DriveGroupSpec`
-
-Example::
-
-    # ceph orch osd create 192.168.121.206:/dev/sdc
-    {"status": "OK", "msg": "", "data": {"event": "playbook_on_stats", "uuid": "7082f3ba-f5b7-4b7c-9477-e74ca918afcb", "stdout": "\r\nPLAY RECAP *********************************************************************\r\n192.168.121.206            : ok=96   changed=3    unreachable=0    failed=0   \r\n", "counter": 932, "pid": 10294, "created": "2019-05-28T22:22:58.527821", "end_line": 1170, "runner_ident": "083cad3c-8197-11e9-b07a-2016b900e38f", "start_line": 1166, "event_data": {"ignored": 0, "skipped": {"192.168.121.206": 186}, "ok": {"192.168.121.206": 96}, "artifact_data": {}, "rescued": 0, "changed": {"192.168.121.206": 3}, "pid": 10294, "dark": {}, "playbook_uuid": "409364a6-9d49-4e44-8b7b-c28e5b3adf89", "playbook": "add-osd.yml", "failures": {}, "processed": {"192.168.121.206": 1}}, "parent_uuid": "409364a6-9d49-4e44-8b7b-c28e5b3adf89"}}
-
-.. note::
-    Output form Ansible orchestrator
-
-Decommission an OSD
-^^^^^^^^^^^^^^^^^^^
-::
-
-    ceph orch osd rm <osd-id> [osd-id...]
-
-Removes one or more OSDs from the cluster and the host, if the OSDs are marked as
-``destroyed``.
-
-Example::
-
-    # ceph orch osd rm 4
-    {"status": "OK", "msg": "", "data": {"event": "playbook_on_stats", "uuid": "1a16e631-906d-48e0-9e24-fa7eb593cc0a", "stdout": "\r\nPLAY RECAP *********************************************************************\r\n192.168.121.158            : ok=2    changed=0    unreachable=0    failed=0   \r\n192.168.121.181            : ok=2    changed=0    unreachable=0    failed=0   \r\n192.168.121.206            : ok=2    changed=0    unreachable=0    failed=0   \r\nlocalhost                  : ok=31   changed=8    unreachable=0    failed=0   \r\n", "counter": 240, "pid": 10948, "created": "2019-05-28T22:26:09.264012", "end_line": 308, "runner_ident": "8c093db0-8197-11e9-b07a-2016b900e38f", "start_line": 301, "event_data": {"ignored": 0, "skipped": {"localhost": 37}, "ok": {"192.168.121.181": 2, "192.168.121.158": 2, "192.168.121.206": 2, "localhost": 31}, "artifact_data": {}, "rescued": 0, "changed": {"localhost": 8}, "pid": 10948, "dark": {}, "playbook_uuid": "a12ec40e-bce9-4bc9-b09e-2d8f76a5be02", "playbook": "shrink-osd.yml", "failures": {}, "processed": {"192.168.121.181": 1, "192.168.121.158": 1, "192.168.121.206": 1, "localhost": 1}}, "parent_uuid": "a12ec40e-bce9-4bc9-b09e-2d8f76a5be02"}}
-
-.. note::
-    Output form Ansible orchestrator
-
-..
-    Blink Device Lights
-    ^^^^^^^^^^^^^^^^^^^
-    ::
-
-        ceph orch device ident-on <dev_id>
-        ceph orch device ident-on <dev_name> <host>
-        ceph orch device fault-on <dev_id>
-        ceph orch device fault-on <dev_name> <host>
-
-        ceph orch device ident-off <dev_id> [--force=true]
-        ceph orch device ident-off <dev_id> <host> [--force=true]
-        ceph orch device fault-off <dev_id> [--force=true]
-        ceph orch device fault-off <dev_id> <host> [--force=true]
-
-    where ``dev_id`` is the device id as listed in ``osd metadata``,
-    ``dev_name`` is the name of the device on the system and ``host`` is the host as
-    returned by ``orchestrator host ls``
-
-        ceph orch osd ident-on {primary,journal,db,wal,all} <osd-id>
-        ceph orch osd ident-off {primary,journal,db,wal,all} <osd-id>
-        ceph orch osd fault-on {primary,journal,db,wal,all} <osd-id>
-        ceph orch osd fault-off {primary,journal,db,wal,all} <osd-id>
-
-    Where ``journal`` is the filestore journal, ``wal`` is the write ahead log of
-    bluestore and ``all`` stands for all devices associated with the osd
-
-
-Monitor and manager management
-~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
-
-Creates or removes MONs or MGRs from the cluster. Orchestrator may return an
-error if it doesn't know how to do this transition.
-
-Update the number of monitor nodes::
-
-    ceph orch apply mon <num> [host, host:network...]
-
-Each host can optionally specify a network for the monitor to listen on.
-
-Update the number of manager nodes::
-
-    ceph orch apply mgr <num> [host...]
-
-..
-    .. note::
-
-        The host lists are the new full list of mon/mgr hosts
-
-    .. note::
-
-        specifying hosts is optional for some orchestrator modules
-        and mandatory for others (e.g. Ansible).
-
-
-Service Status
-~~~~~~~~~~~~~~
-
-Print a list of services known to the orchestrator. The list can be limited to
-services on a particular host with the optional --host parameter and/or
-services of a particular type via optional --type parameter
-(mon, osd, mgr, mds, rgw):
-
-::
-
-    ceph orch ps
-    ceph orch service ls [--host host] [--svc_type type] [--refresh]
-
-Discover the status of a particular service or daemons::
-
-    ceph orch service ls --svc_type type --svc_id <name> [--refresh]
-
-
-Query the status of a particular service instance (mon, osd, mds, rgw).  For OSDs
-the id is the numeric OSD ID, for MDS services it is the file system name::
-
-    ceph orch daemon status <type> <instance-name> [--refresh]
-
-
-
-Stateless services (MDS/RGW/NFS/rbd-mirror/iSCSI)
-~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
-The orchestrator is not responsible for configuring the services. Please look into the corresponding
-documentation for details.
-
-The ``name`` parameter is an identifier of the group of instances:
-
-* a CephFS file system for a group of MDS daemons,
-* a zone name for a group of RGWs
-
-Sizing: the ``size`` parameter gives the number of daemons in the cluster
-(e.g. the number of MDS daemons for a particular CephFS file system).
-
-Creating/growing/shrinking/removing services::
-
-    ceph orch {mds,rgw} update <name> <size> [host…]
-    ceph orch {mds,rgw} add <name>
-    ceph orch nfs update <name> <size> [host…]
-    ceph orch nfs add <name> <pool> [--namespace=<namespace>]
-    ceph orch {mds,rgw,nfs} rm <name>
-
-e.g., ``ceph orch mds update myfs 3 host1 host2 host3``
-
-Start/stop/reload::
-
-    ceph orch service {stop,start,reload} <type> <name>
-
-    ceph orch daemon {start,stop,reload} <type> <daemon-id>
-
-
-Current Implementation Status
-=============================
-
-This is an overview of the current implementation status of the orchestrators.
-
-=================================== ====== =========
- Command                             Rook   Cephadm
-=================================== ====== =========
- apply iscsi                         ⚪      ⚪
- apply mds                           ✔      ✔
- apply mgr                           ⚪      ✔
- apply mon                           ✔      ✔
- apply nfs                           ✔      ⚪
- apply osd                           ✔      ✔
- apply rbd-mirror                    ✔      ✔
- apply rgw                           ⚪      ✔
- host add                            ⚪      ✔
- host ls                             ✔      ✔
- host rm                             ⚪      ✔
- daemon status                       ⚪      ✔
- daemon {stop,start,...}             ⚪      ✔
- device {ident,fault}-(on,off}       ⚪      ✔
- device ls                           ✔      ✔
- iscsi add                           ⚪      ⚪
- mds add                             ✔      ✔
- nfs add                             ✔      ⚪
- ps                                  ⚪      ✔
- rbd-mirror add                      ⚪      ✔
- rgw add                             ✔      ✔
- service ls                          ✔      ⚪
-=================================== ====== =========
-
-where
-
-* ⚪ = not yet implemented
-* ❌ = not applicable
-* ✔ = implemented
index a3c7e6abd08b4d1b555ff1c350e4f2c88c343b6c..deff5aaa32ca93d0e731011fd8c8c90bcc863c58 100644 (file)
@@ -34,7 +34,7 @@ the dashboard, to work with various different backends.
             volumes [label="mgr/volumes"]
             rook [label="mgr/rook"]
             dashboard [label="mgr/dashboard"]
-            orchestrator_cli [label="mgr/orchestrator_cli"]
+            orchestrator_cli [label="mgr/orchestrator"]
             orchestrator [label="Orchestrator Interface"]
             cephadm [label="mgr/cephadm"]
 
@@ -179,7 +179,7 @@ In detail, orchestrators need to explicitly deal with different kinds of errors:
 
 4. Input validation errors
 
-   The ``orchestrator_cli`` module and other calling modules are supposed to
+   The ``orchestrator`` module and other calling modules are supposed to
    provide meaningful error messages.
 
    See :class:`OrchestratorValidationError`.