]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc/rbd: Replaced numbered steps with a # for dynamic numbering
authorAron Gunn <ritz_303@yahoo.com>
Wed, 12 Jul 2017 22:11:25 +0000 (17:11 -0500)
committerJason Dillaman <dillaman@redhat.com>
Wed, 30 Aug 2017 13:53:00 +0000 (09:53 -0400)
Fixes: http://tracker.ceph.com/issues/20437
Signed-off-by: Aron Gunn <agunn@redhat.com>
doc/rbd/iscsi-initiator-esx.rst
doc/rbd/iscsi-initiator-rhel.rst
doc/rbd/iscsi-initiator-win.rst
doc/rbd/iscsi-monitoring.rst
doc/rbd/iscsi-target-ansible.rst
doc/rbd/iscsi-target-cli.rst

index faa0c5470bbe9657b277c8380f429a242055bd99..2a0371e4d8c24c928bbc46e0cc0768fb2c693ec9 100644 (file)
@@ -8,26 +8,26 @@ The iSCSI Initiator for VMware ESX
 
 **iSCSI Discovery and Multipath Device Setup:**
 
-1. From vSphere, open the Storage Adapters, on the Configuration tab. Right click
+#. From vSphere, open the Storage Adapters, on the Configuration tab. Right click
    on the iSCSI Software Adapter and select Properties.
 
-2. If CHAP was setup on the iSCSI gateway, in the General tab click the "CHAP…​"
+#. If CHAP was setup on the iSCSI gateway, in the General tab click the "CHAP…​"
    button. If CHAP is not being used, skip to step 4.
 
-3. On the CHAP Credentials windows, select “Do not use CHAP unless required by target”,
+#. On the CHAP Credentials windows, select “Do not use CHAP unless required by target”,
    and enter the "Name" and "Secret" values used on the initial setup for the iSCSI
    gateway, then click on the "OK" button.
 
-4. On the Dynamic Discovery tab, click the "Add…​" button, and enter the IP address
+#. On the Dynamic Discovery tab, click the "Add…​" button, and enter the IP address
    and port of one of the iSCSI target portals. Click on the "OK" button.
 
-5. Close the iSCSI Initiator Properties window. A prompt will ask to rescan the
+#. Close the iSCSI Initiator Properties window. A prompt will ask to rescan the
    iSCSI software adapter. Select Yes.
 
-6. In the Details pane, the LUN on the iSCSI target will be displayed. Right click
+#. In the Details pane, the LUN on the iSCSI target will be displayed. Right click
    on a device and select "Manage Paths":
 
-7. On the Manage Paths window, select “Most Recently Used (VMware)” for the policy
+#. On the Manage Paths window, select “Most Recently Used (VMware)” for the policy
    path selection. Close and repeat for the other disks:
 
 Now the disks can be used for datastores.
index 3244ffaf0cef0069e6ce9aae58d837c39a4649e8..27f0b08781ad146e097311ef02c32fa1b094303f 100644 (file)
@@ -12,7 +12,7 @@ The iSCSI Initiator for Red Hat Enterprise Linux
 
 **Installing:**
 
-1. Install the iSCSI initiator and multipath tools:
+Install the iSCSI initiator and multipath tools:
 
    ::
 
@@ -21,14 +21,14 @@ The iSCSI Initiator for Red Hat Enterprise Linux
 
 **Configuring:**
 
-1. Create the default ``/etc/multipath.conf`` file and enable the
+#. Create the default ``/etc/multipath.conf`` file and enable the
    ``multiapthd`` service:
 
    ::
 
        # mpathconf --enable --with_multipathd y
 
-2. Add the following to ``/etc/multipath.conf`` file:
+#. Add the following to ``/etc/multipath.conf`` file:
 
    ::
 
@@ -46,7 +46,7 @@ The iSCSI Initiator for Red Hat Enterprise Linux
                }
        }
 
-3. Restart the ``multipathd`` service:
+#. Restart the ``multipathd`` service:
 
    ::
 
@@ -54,7 +54,7 @@ The iSCSI Initiator for Red Hat Enterprise Linux
 
 **iSCSI Discovery and Setup:**
 
-1. Discover the target portals:
+#. Discover the target portals:
 
    ::
 
@@ -62,7 +62,7 @@ The iSCSI Initiator for Red Hat Enterprise Linux
        192.168.56.101:3260,1 iqn.2003-01.org.linux-iscsi.rheln1
        192.168.56.102:3260,2 iqn.2003-01.org.linux-iscsi.rheln1
 
-2. Login to target:
+#. Login to target:
 
    ::
 
index 27175a54a3ee74fe706cc95c3ddbf7012a588a55..0f63ffe889e6847f5d7ada965c0caad487f4d7a5 100644 (file)
@@ -8,24 +8,24 @@ The iSCSI Initiator for Microsoft Windows
 
 **iSCSI Initiator, Discovery and Setup:**
 
-1. Install the iSCSI initiator driver and MPIO tools.
+#. Install the iSCSI initiator driver and MPIO tools.
 
-2. Launch the MPIO program, click on the “Discover Multi-Paths” tab select “Add
+#. Launch the MPIO program, click on the “Discover Multi-Paths” tab select “Add
    support for iSCSI devices”.
 
-3. On the iSCSI Initiator Properties window, on the "Discovery" tab, add a target
+#. On the iSCSI Initiator Properties window, on the "Discovery" tab, add a target
    portal. Enter the IP address or DNS name and Port of the Ceph iSCSI gateway.
 
-4. On the “Targets” tab, select the target and click on “Connect”.
+#. On the “Targets” tab, select the target and click on “Connect”.
 
-5. On the “Connect To Target” window, select the “Enable multi-path” option, and
+#. On the “Connect To Target” window, select the “Enable multi-path” option, and
    click the “Advanced” button.
 
-6. Under the "Connet using" section, select a “Target portal IP” . Select the
+#. Under the "Connet using" section, select a “Target portal IP” . Select the
    “Enable CHAP login on” and enter the "Name" and "Target secret" values from the
    Ceph iSCSI Ansible client credentials section, and click OK.
 
-7. Repeat steps 5 and 6 for each target portal defined when setting up
+#. Repeat steps 5 and 6 for each target portal defined when setting up
    the iSCSI gateway.
 
 **Multipath IO Setup:**
@@ -53,13 +53,13 @@ reset is done in the MPIO tool.
     mpclaim -s -m
     MSDSM-wide Load Balance Policy: Fail Over Only
 
-1. Using the MPIO tool, from the “Targets” tab, click on the
+#. Using the MPIO tool, from the “Targets” tab, click on the
    “Devices…​” button:
 
-2. From the Devices window, select a disk and click the
+#. From the Devices window, select a disk and click the
    “MPIO…​” button:
 
-3. On the "Device Details" window the paths to each target portal is
+#. On the "Device Details" window the paths to each target portal is
    displayed. If using the ``ceph-iscsi-ansible`` setup method, the
    iSCSI gateway will use ALUA to tell the iSCSI initiator which path
    and iSCSI gateway should be used as the primary path. The Load
index b3de0094db011ad299a3b01c9b1ba458bfcb892e..d4252323153588456dffbae8915aa6af4eb8fa3a 100644 (file)
@@ -18,27 +18,27 @@ metrics.
 
 **Installing:**
 
-1. As ``root``, install the ``ceph-iscsi-tools`` package on each iSCSI
+#. As ``root``, install the ``ceph-iscsi-tools`` package on each iSCSI
    gateway node:
 
    ::
 
        # yum install ceph-iscsi-tools
 
-2. As ``root``, install the performance co-pilot package on each iSCSI
+#. As ``root``, install the performance co-pilot package on each iSCSI
    gateway node:
 
    ::
 
        # yum install pcp
 
-3. As ``root``, install the LIO PMDA package on each iSCSI gateway node:
+#. As ``root``, install the LIO PMDA package on each iSCSI gateway node:
 
    ::
 
        # yum install pcp-pmda-lio
 
-4. As ``root``, enable and start the performance co-pilot service on
+#. As ``root``, enable and start the performance co-pilot service on
    each iSCSI gateway node:
 
    ::
@@ -46,7 +46,7 @@ metrics.
        # systemctl enable pmcd
        # systemctl start pmcd
 
-5. As ``root``, register the ``pcp-pmda-lio`` agent:
+#. As ``root``, register the ``pcp-pmda-lio`` agent:
 
    ::
 
index 3e0d402f4a5f2fac225a1478c391eeb5e0f41f01..9a585f73bc85a9fe8c56cb30faedd402abf596ac 100644 (file)
@@ -20,16 +20,16 @@ install, and configure the Ceph iSCSI gateway for basic operation.
 
 **Installing:**
 
-1. On the Ansible installer node, which could be either the administration node
+#. On the Ansible installer node, which could be either the administration node
    or a dedicated deployment node, perform the following steps:
 
-   a. As ``root``, install the ``ceph-iscsi-ansible`` package:
+   #. As ``root``, install the ``ceph-iscsi-ansible`` package:
 
       ::
 
           # yum install ceph-iscsi-ansible
 
-   b. Add an entry in ``/etc/ansible/hosts`` file for the gateway group:
+   #. Add an entry in ``/etc/ansible/hosts`` file for the gateway group:
 
       ::
 
@@ -126,8 +126,7 @@ and update accordingly.
 |                                      | connection defines an ``image_list`` |
 |                                      | which is a comma separated list of   |
 |                                      | the form                             |
-|                                      | ``pool.rbd_image[,pool.rbd_image,…​] |
-|                                      | ``.                                  |
+|                                      | ``pool.rbd_image[,pool.rbd_image]``. |
 |                                      | RBD images can be added and removed  |
 |                                      | from this list, to change the client |
 |                                      | masking. Note that there are no      |
@@ -145,7 +144,7 @@ and update accordingly.
 
 On the Ansible installer node, perform the following steps.
 
-1. As ``root``, execute the Ansible playbook:
+#. As ``root``, execute the Ansible playbook:
 
    ::
 
@@ -156,7 +155,7 @@ On the Ansible installer node, perform the following steps.
     The Ansible playbook will handle RPM dependencies, RBD creation
     and Linux IO configuration.
 
-2. Verify the configuration from an iSCSI gateway node:
+#. Verify the configuration from an iSCSI gateway node:
 
    ::
 
index f34e3e745bbe2519ee91314bf745adc8bd593109..5a542596a171828d6918d2c4b495e93cb0911c04 100644 (file)
@@ -28,43 +28,43 @@ install, and configure the Ceph iSCSI gateway for basic operation.
 Do the following steps on the Ceph iSCSI gateway node before proceeding
 to the *Installing* section:
 
-1. If the Ceph iSCSI gateway is not colocated on an OSD node, then copy
+#. If the Ceph iSCSI gateway is not colocated on an OSD node, then copy
    the Ceph configuration files, located in ``/etc/ceph/``, from a
    running Ceph node in the storage cluster to the iSCSI Gateway node.
    The Ceph configuration files must exist on the iSCSI gateway node
    under ``/etc/ceph/``.
 
-2. Install and configure the `Ceph Command-line
+#. Install and configure the `Ceph Command-line
    Interface <http://docs.ceph.com/docs/master/start/quick-rbd/#install-ceph>`_
 
-3. If needed, open TCP ports 3260 and 5000 on the firewall.
+#. If needed, open TCP ports 3260 and 5000 on the firewall.
 
-4. Create a new or use an existing RADOS Block Device (RBD).
+#. Create a new or use an existing RADOS Block Device (RBD).
 
 **Installing:**
 
-1. As ``root``, on all iSCSI gateway nodes, install the
+#. As ``root``, on all iSCSI gateway nodes, install the
    ``ceph-iscsi-cli`` package:
 
    ::
 
        # yum install ceph-iscsi-cli
 
-2. As ``root``, on all iSCSI gateway nodes, install the ``tcmu-runner``
+#. As ``root``, on all iSCSI gateway nodes, install the ``tcmu-runner``
    package:
 
    ::
 
        # yum install tcmu-runner
 
-3. As ``root``, on a iSCSI gateway node, create a file named
+#. As ``root``, on a iSCSI gateway node, create a file named
    ``iscsi-gateway.cfg`` in the ``/etc/ceph/`` directory:
 
    ::
 
        # touch /etc/ceph/iscsi-gateway.cfg
 
-   a. Edit the ``iscsi-gateway.cfg`` file and add the following lines:
+   #. Edit the ``iscsi-gateway.cfg`` file and add the following lines:
 
       ::
 
@@ -107,10 +107,10 @@ to the *Installing* section:
       .. IMPORTANT::
         The ``iscsi-gateway.cfg`` file must be identical on all iSCSI gateway nodes.
 
-   b. As ``root``, copy the ``iscsi-gateway.cfg`` file to all iSCSI
+   #. As ``root``, copy the ``iscsi-gateway.cfg`` file to all iSCSI
       gateway nodes.
 
-4. As ``root``, on all iSCSI gateway nodes, enable and start the API
+#. As ``root``, on all iSCSI gateway nodes, enable and start the API
    service:
 
    ::
@@ -120,14 +120,14 @@ to the *Installing* section:
 
 **Configuring:**
 
-1. As ``root``, on a iSCSI gateway node, start the iSCSI gateway
+#. As ``root``, on a iSCSI gateway node, start the iSCSI gateway
    command-line interface:
 
    ::
 
        # gwcli
 
-2. Creating the iSCSI gateways:
+#. Creating the iSCSI gateways:
 
    ::
 
@@ -136,14 +136,14 @@ to the *Installing* section:
        > create <iscsi_gw_name> <IP_addr_of_gw>
        > create <iscsi_gw_name> <IP_addr_of_gw>
 
-3. Adding a RADOS Block Device (RBD):
+#. Adding a RADOS Block Device (RBD):
 
    ::
 
        > cd /iscsi-target/iqn.2003-01.com.redhat.iscsi-gw:<target_name>/disks/
        >/disks/ create pool=<pool_name> image=<image_name> size=<image_size>m|g|t
 
-4. Creating a client:
+#. Creating a client:
 
    ::
 
@@ -156,7 +156,7 @@ to the *Installing* section:
       CHAP must always be configured. Without CHAP, the target will
       reject any login requests.
 
-5. Adding disks to a client:
+#. Adding disks to a client:
 
    ::