]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: replace region with zonegroup in configure bucket sharding section 18865/head
authorOrit Wasserman <owasserm@redhat.com>
Sun, 1 Oct 2017 05:40:27 +0000 (08:40 +0300)
committerShinobu Kinjo <shinobu@redhat.com>
Fri, 10 Nov 2017 04:31:41 +0000 (23:31 -0500)
Fixes: http://tracker.ceph.com/issues/21610
Signed-off-by: Orit Wasserman <owasserm@redhat.com>
(cherry picked from commit 8a1034bccdd514a3eaa6abfdc62c5e3d1e46d5cf)

doc/install/install-ceph-gateway.rst

index cf599cd2ac8d40a04654eed73f5055cca3305d50..2ca865521e6b139540acb4a0115310ccf656aa5c 100644 (file)
@@ -265,23 +265,22 @@ On Ubuntu execute::
  sudo service radosgw restart id=rgw.<short-hostname>
 
 For federated configurations, each zone may have a different ``index_pool``
-setting for failover. To make the value consistent for a region's zones, you
-may set ``rgw_override_bucket_index_max_shards`` in a gateway's region
+setting for failover. To make the value consistent for a zonegroup's zones, you
+may set ``rgw_override_bucket_index_max_shards`` in a gateway's zonegroup
 configuration. For example::
 
-  radosgw-admin region get > region.json
+  radosgw-admin zonegroup get > zonegroup.json
 
-Open the ``region.json`` file and edit the ``bucket_index_max_shards`` setting
-for each named zone. Save the ``region.json`` file and reset the region. For
-example::
-
-   radosgw-admin region set < region.json
+Open the ``zonegroup.json`` file and edit the ``bucket_index_max_shards`` setting
+for each named zone. Save the ``zonegroup.json`` file and reset the zonegroup.
+For example::
 
-Once you have updated your region, update the region map. For example::
+   radosgw-admin zonegroup set < zonegroup.json
 
-   radosgw-admin regionmap update --name client.rgw.ceph-client
+Once you have updated your zonegroup, update and commit the period.
+For example::
 
-Where ``client.rgw.ceph-client`` is the name of the gateway user.
+   radosgw-admin period update --commit
 
 .. note:: Mapping the index pool (for each zone, if applicable) to a CRUSH
           ruleset of SSD-based OSDs may also help with bucket index performance.