]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/orchestrator: Substitute `host` for `node` 33467/head
authorSebastian Wagner <sebastian.wagner@suse.com>
Fri, 21 Feb 2020 17:15:14 +0000 (18:15 +0100)
committerSage Weil <sage@redhat.com>
Sun, 23 Feb 2020 18:07:24 +0000 (12:07 -0600)
Signed-off-by: Sebastian Wagner <sebastian.wagner@suse.com>
doc/mgr/cephadm.rst
doc/mgr/orchestrator.rst
doc/mgr/orchestrator_modules.rst

index 739d79996806ef0efbaa7923bcde57d946aa0517..d90a1ae08331d377ed186a14a0c66b799b7d2972 100644 (file)
@@ -5,7 +5,7 @@ cephadm orchestrator
 ====================
 
 The cephadm orchestrator is an orchestrator module that does not rely on a separate
-system such as Rook or Ansible, but rather manages nodes in a cluster by
+system such as Rook or Ansible, but rather manages hosts in a cluster by
 establishing an SSH connection and issuing explicit management commands.
 
 Orchestrator modules only provide services to other modules, which in turn
index 3498badb5e36e8d28288a76d98bbe4c4b185cd16..f239b50078c5693217c04f5c6cb3a0b5670ddb87 100644 (file)
@@ -115,8 +115,8 @@ OSD Management
 List Devices
 ^^^^^^^^^^^^
 
-Print a list of discovered devices, grouped by node and optionally
-filtered to a particular node:
+Print a list of discovered devices, grouped by host and optionally
+filtered to a particular host:
 
 ::
 
@@ -211,13 +211,13 @@ Monitor and manager management
 Creates or removes MONs or MGRs from the cluster. Orchestrator may return an
 error if it doesn't know how to do this transition.
 
-Update the number of monitor nodes::
+Update the number of monitor hosts::
 
     ceph orch apply mon <num> [host, host:network...]
 
 Each host can optionally specify a network for the monitor to listen on.
 
-Update the number of manager nodes::
+Update the number of manager hosts::
 
     ceph orch apply mgr <num> [host...]
 
index deff5aaa32ca93d0e731011fd8c8c90bcc863c58..43160708a3cbcd5f974cb53dfaadc6f0a637a8ee 100644 (file)
@@ -72,9 +72,9 @@ Stateless service
 
 Label
   arbitrary string tags that may be applied by administrators
-  to nodes.  Typically administrators use labels to indicate
-  which nodes should run which kinds of service.  Labels are
-  advisory (from human input) and do not guarantee that nodes
+  to hosts.  Typically administrators use labels to indicate
+  which hosts should run which kinds of service.  Labels are
+  advisory (from human input) and do not guarantee that hosts
   have particular physical capabilities.
 
 Drive group
@@ -83,20 +83,20 @@ Drive group
   journals/dbs for a group of HDDs).
 
 Placement
-  choice of which node is used to run a service.
+  choice of which host is used to run a service.
 
 Key Concepts
 ------------
 
 The underlying orchestrator remains the source of truth for information
 about whether a service is running, what is running where, which
-nodes are available, etc.  Orchestrator modules should avoid taking
+hosts are available, etc.  Orchestrator modules should avoid taking
 any internal copies of this information, and read it directly from
 the orchestrator backend as much as possible.
 
-Bootstrapping nodes and adding them to the underlying orchestration
+Bootstrapping hosts and adding them to the underlying orchestration
 system is outside the scope of Ceph's orchestrator interface.  Ceph
-can only work on nodes when the orchestrator is already aware of them.
+can only work on hosts when the orchestrator is already aware of them.
 
 Calls to orchestrator modules are all asynchronous, and return *completion*
 objects (see below) rather than returning values immediately.
@@ -207,7 +207,7 @@ Excluded functionality
   the Ceph cluster's services only.
 - Multipathed storage is not handled (multipathing is unnecessary for
   Ceph clusters).  Each drive is assumed to be visible only on
-  a single node.
+  a single host.
 
 Host management
 ---------------