]> git.apps.os.sepia.ceph.com Git - ceph-ansible.git/commitdiff
review feedback
authorJim Curtis <jim.curtis@redhat.com>
Fri, 19 Feb 2016 19:46:33 +0000 (11:46 -0800)
committerSébastien Han <seb@redhat.com>
Thu, 24 Mar 2016 15:19:55 +0000 (16:19 +0100)
README.md
roles/ceph-osd/tasks/docker/start_docker_osd.yml
vagrant_variables.yml.openstack

index 29ca847235c65f22b2662697fbbbed385b115903..a4831a17ca85ad5f7529fd459058bfcb21572eab 100644 (file)
--- a/README.md
+++ b/README.md
@@ -198,7 +198,39 @@ VBoxManage storagectl `VBoxManage list vms |grep ceph-ansible_osd0|awk '{print $
 
 then run `vagrant up --provider=virtualbox` again.
 
-
+## Setup for Vagrant using OpenStack provider
+
+Install the Vagrant plugin for the openstack provider: vagrant plugin install vagrant-openstack-provider.
+
+cp site.yml.sample site.yml
+cp group_vars/all.docker.sample group_vars/all
+cp vagrant_variables.yml.openstack vagrant_variables.yml
+Edit vagrant_variables.yml:
+  Set mon_vms and osd_vms to the numbers you want.
+  If you are using an Atomic image, un-comment out the skip_tags line.
+  Un-comment the os_ lines.
+    Set os_ssh_username to 'centos' for Centos and 'cloud-user' for RHEL images.
+    Set os_ssh_private_key_path to '~/.ssh/id_rsa'
+    Set os_openstack_auth_url to the auth url of your Open Stack cloud
+    Set os_username and os_password to what you provided for Open Stack 
+        registration or leave them as ENV vars if you have set the
+        corresponding env vars for your user.
+    Set os_tenant_name to your Open Stack cloud project name.
+    Set os_region to your Open Stack cloud region name.
+    Set os_flavor to 'm3.medium'.  This size has ephemeral storage with will
+        be used by the OSD for the /dev/vdb disk
+    Set the os_image to an image found in the Images list in the Open Stack
+        cloud Dashboard (i.e. 'centos-atomic-host').
+    Set the os_keypair_name to the keypair name you used when you did the 
+        Open Stack registration.
+vagrant up --provider=openstack
+Once the playbook is finished, you should be able to do vagrant ssh mon0 or 
+vagrant ssh osd0 to get to the VMs.  
+sudo docker ps should show the running containers
+When you are done, use vagrant destroy to get rid of the VMs.  You should 
+also remove the associated entries in .ssh/known_hosts so that if the IP 
+addresses get reused by future Open Stack Cloud instances there will not be
+old known_hosts entries.
 
 # Want to contribute?
 
index a700a8ba6b6e101339d5014c9500dc6636bf81f8..919b98de905796790a739853870931a20ae31fca 100644 (file)
@@ -2,7 +2,11 @@
 # For openstack VMs modify the mount point below depending on if the Openstack
 # VM deploy tool defaults to mounting ephemeral disks
 - name: umount ceph disk (if on openstack)
-  mount: name=/mnt src=/dev/vdb fstype=ext3 state=unmounted
+  mount: 
+    name: /mnt
+    src: /dev/vdb
+    fstype: ext3
+    state: unmounted
   when: ceph_docker_on_openstack
   
 # (rootfs) for reasons I haven't figured out, docker pull and run will fail.
index 64e4d2598f592c1559f58f2f54eb9c5bd575afa8..ddf01823c725f9714316048b3309b17faab407fb 100644 (file)
@@ -21,15 +21,15 @@ eth: 'eth0'
 vagrant_box: 'openstack'
 
 # For Atomic (RHEL or Cento) uncomment the line below
-skip_tags: 'with_pkg'
+#skip_tags: 'with_pkg'
 
 # For deploying on OpenStack VMs uncomment these vars and assign values.  
 # You can use env vars for the values if it makes sense.
 #os_ssh_username : 
 #os_ssh_private_key_path : 
 #os_openstack_auth_url : 
-#os_username : 
-#os_password : 
+#os_username : ENV['OS_USERNAME']
+#os_password : ENV['OS_PASSWORD']
 #os_tenant_name : 
 #os_region : 
 #os_flavor :