]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: update docs
authorSage Weil <sage@newdream.net>
Tue, 9 Mar 2021 19:29:39 +0000 (14:29 -0500)
committerSage Weil <sage@newdream.net>
Tue, 9 Mar 2021 19:29:39 +0000 (14:29 -0500)
Signed-off-by: Sage Weil <sage@newdream.net>
doc/cephadm/adoption.rst
doc/cephadm/rgw.rst
doc/mgr/orchestrator.rst

index 3e12dbfb33b25aeefa560f491cc0f48692c38f6d..3835128fb2013ce491454e3e81d1e3fca46858a0 100644 (file)
@@ -181,10 +181,11 @@ Adoption process
 
    .. prompt:: bash #
 
-      ceph orch apply rgw <realm> <zone> [--subcluster=<subcluster>] [--port=<port>] [--ssl] [--placement=<placement>]
+      ceph orch apply rgw <svc_id> [--rgw-realm=<realm>] [--rgw-zone=<zone>] [--port=<port>] [--ssl] [--placement=<placement>]
 
    where *<placement>* can be a simple daemon count, or a list of
-   specific hosts (see :ref:`orchestrator-cli-placement-spec`).
+   specific hosts (see :ref:`orchestrator-cli-placement-spec`), and the
+   zone and realm arguments are needed only for a multisite setup.
 
    After the daemons have started and you have confirmed that they are
    functioning, stop and remove the old, legacy daemons:
@@ -194,8 +195,5 @@ Adoption process
       systemctl stop ceph-rgw.target
       rm -rf /var/lib/ceph/radosgw/ceph-*
 
-   To learn more about adopting single-site systems without a realm, see
-   :ref:`rgw-multisite-migrate-from-single-site`.
-
 #. Check the output of the command ``ceph health detail`` for cephadm warnings
    about stray cluster daemons or hosts that are not yet managed by cephadm.
index 3964c987a1f728c3c1e9de7a0b1f223e4830bde8..a5d6d89acb9b1a49988c34ab0984e611705e7e20 100644 (file)
@@ -8,32 +8,41 @@ Deploy RGWs
 ===========
 
 Cephadm deploys radosgw as a collection of daemons that manage a
-particular *realm* and *zone*.  (For more information about realms and
-zones, see :ref:`multisite`.)
+single-cluster deployment or a particular *realm* and *zone* in a
+multisite deployment.  (For more information about realms and zones,
+see :ref:`multisite`.)
 
 Note that with cephadm, radosgw daemons are configured via the monitor
 configuration database instead of via a `ceph.conf` or the command line.  If
 that configuration isn't already in place (usually in the
-``client.rgw.<realmname>.<zonename>`` section), then the radosgw
+``client.rgw.<something>`` section), then the radosgw
 daemons will start up with default settings (e.g., binding to port
 80).
 
-To deploy a set of radosgw daemons for a particular realm and zone, run the
-following command:
+To deploy a set of radosgw daemons, with an arbitrary service name
+*name*, run the following command:
 
 .. prompt:: bash #
 
-  ceph orch apply rgw *<realm-name>* *<zone-name>* --placement="*<num-daemons>* [*<host1>* ...]"
+  ceph orch apply rgw *<name>* [--rgw-realm=*<realm-name>*] [--rgw-zone=*<zone-name>*] --placement="*<num-daemons>* [*<host1>* ...]"
 
-For example, to deploy 2 rgw daemons serving the *myorg* realm and the *us-east-1* zone on *myhost1* and *myhost2*:
+For example, to deploy 2 RGW daemons (the default) for a single-cluster RGW deployment
+under the arbitrary service id *foo*:
 
 .. prompt:: bash #
 
-   ceph orch apply rgw myorg us-east-1 --placement="2 myhost1 myhost2"
+   ceph orch apply rgw foo
 
-Cephadm will wait for a healthy cluster and automatically create the supplied realm and zone if they do not exist before deploying the rgw daemon(s)
+To deploy RGWs serving the multisite *myorg* realm and the *us-east-1* zone on
+*myhost1* and *myhost2*:
 
-Alternatively, the realm, zonegroup, and zone can be manually created using ``radosgw-admin`` commands:
+.. prompt:: bash #
+
+   ceph orch apply rgw east --rgw-realm=myorg --rgw-zone=us-east-1 --placement="2 myhost1 myhost2"
+
+Note that in a multisite situation, cephadm only deploys the daemons.  It does not create
+or update the realm or zone configurations.  To create a new realm and zone, you need to do
+something like:
 
 .. prompt:: bash #
 
@@ -52,7 +61,7 @@ Alternatively, the realm, zonegroup, and zone can be manually created using ``ra
   radosgw-admin period update --rgw-realm=<realm-name> --commit
 
 See :ref:`orchestrator-cli-placement-spec` for details of the placement
-specification.
+specification.  See :ref:`multisite` for more information of setting up multisite RGW.
 
 
 .. _orchestrator-haproxy-service-spec:
index 7174eb69c1c1ced97a8ec24973dff4e07629537b..2bffbdd0590fdffd1342fd856ded176c39da29b3 100644 (file)
@@ -103,7 +103,7 @@ The ``name`` parameter is an identifier of the group of instances:
 Creating/growing/shrinking/removing services::
 
     ceph orch apply mds <fs_name> [--placement=<placement>] [--dry-run]
-    ceph orch apply rgw <realm> <zone> [--subcluster=<subcluster>] [--port=<port>] [--ssl] [--placement=<placement>] [--dry-run]
+    ceph orch apply rgw <name> [--rgw-realm=<realm>] [--rgw-zone=<zone>] [--port=<port>] [--ssl] [--placement=<placement>] [--dry-run]
     ceph orch apply nfs <name> <pool> [--namespace=<namespace>] [--placement=<placement>] [--dry-run]
     ceph orch rm <service_name> [--force]
 
@@ -157,7 +157,7 @@ This is an overview of the current implementation status of the orchestrators.
  apply nfs                           ✔      ✔
  apply osd                           ✔      ✔
  apply rbd-mirror                    ✔      ✔
- apply rgw                           â\9aª      ✔
+ apply rgw                           â\9c\94      ✔
  apply container                     ⚪      ✔
  host add                            ⚪      ✔
  host ls                             ✔      ✔