]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: Added the root discussion to deploy with mkcephfs.
authorJohn Wilkins <john.wilkins@inktank.com>
Wed, 6 Jun 2012 00:09:59 +0000 (17:09 -0700)
committerJohn Wilkins <john.wilkins@inktank.com>
Wed, 6 Jun 2012 00:09:59 +0000 (17:09 -0700)
Signed-off-by: John Wilkins <john.wilkins@inktank.com>
doc/config-cluster/mkcephfs.rst

index 789002ce51e07cacab507185ec55cbdcc20a8dff..3392609f6d17eac5a91bf848b17bbd7a27708e29 100644 (file)
@@ -2,6 +2,41 @@
  Deploying with ``mkcephfs``
 =============================
 
+Enable Login to Cluster Hosts as ``root``
+~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+To deploy with ``mkcephfs``, you will need to be able to login as ``root``
+on each host without a password. For each host, perform the following:: 
+
+       sudo passwd root
+
+Enter a password for the root user. 
+
+On the admin host, generate an ``ssh`` key without specifying a passphrase
+and use the default locations. :: 
+
+       ssh-keygen
+       Generating public/private key pair.
+       Enter file in which to save the key (/ceph-admin/.ssh/id_rsa): 
+       Enter passphrase (empty for no passphrase): 
+       Enter same passphrase again: 
+       Your identification has been saved in /ceph-admin/.ssh/id_rsa.
+       Your public key has been saved in /ceph-admin/.ssh/id_rsa.pub.
+
+You may use RSA or DSA keys. Once you generate your keys, copy them to each 
+OSD host. For example:: 
+
+       ssh-copy-id root@myserver01
+       ssh-copy-id root@myserver02     
+       
+Modify your ``~/.ssh/config`` file to login as ``root``, as follows:: 
+
+       Host myserver01
+               Hostname myserver01.fully-qualified-domain.com
+               User root
+       Host myserver02
+               Hostname myserver02.fully-qualified-domain.com
+               User root
+
 Copy Configuration File to All Hosts
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 Ceph's ``mkcephfs`` deployment script does not copy the configuration file you
@@ -12,9 +47,10 @@ if you are using ``mkcephfs`` to deploy Ceph.
 
 ::
 
-       ssh myserver01 sudo tee /etc/ceph/ceph.conf <mycluster.conf
-       ssh myserver02 sudo tee /etc/ceph/ceph.conf <mycluster.conf
-       ssh myserver03 sudo tee /etc/ceph/ceph.conf <mycluster.conf
+       cd /etc/ceph
+       ssh myserver01 sudo tee /etc/ceph/ceph.conf <ceph.conf
+       ssh myserver02 sudo tee /etc/ceph/ceph.conf <ceph.conf
+       ssh myserver03 sudo tee /etc/ceph/ceph.conf <ceph.conf
 
 
 Create the Default Directories
@@ -27,19 +63,19 @@ the following:
 
 On ``myserver01``::
 
-       sudo mkdir srv/osd.0
-       sudo mkdir srv/mon.a
+       sudo mkdir /srv/osd.0
+       sudo mkdir /srv/mon.a
 
 On ``myserver02``::
 
-       sudo mkdir srv/osd.1
-       sudo mkdir srv/mon.b
+       sudo mkdir /srv/osd.1
+       sudo mkdir /srv/mon.b
 
 On ``myserver03``::
 
-       sudo mkdir srv/osd.2
-       sudo mkdir srv/mon.c
-       sudo mkdir srv/mds.a
+       sudo mkdir /srv/osd.2
+       sudo mkdir /srv/mon.c
+       sudo mkdir /srv/mds.a
 
 Run ``mkcephfs``
 ~~~~~~~~~~~~~~~~
@@ -59,5 +95,13 @@ For production environments, deploy Ceph using Chef cookbooks. To run
 The script adds an admin key to the ``ceph.keyring``, which is analogous to a 
 root password. See `Authentication`_ when running with ``cephx`` enabled.
 
+When you start or stop your cluster, you will not have to use ``sudo`` or
+provide passwords. For example:: 
+
+       service ceph -a start
+
+See `Start | Stop the Cluster`_ for details.
+
 
-.. _Authentication: ../authentication
\ No newline at end of file
+.. _Authentication: ../authentication
+.. _Start | Stop the Cluster: ../../init/
\ No newline at end of file