]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph-ansible.git/commitdiff
Do not track group_vars files 328/head
authorleseb <seb@redhat.com>
Fri, 17 Jul 2015 12:42:16 +0000 (14:42 +0200)
committerleseb <seb@redhat.com>
Fri, 17 Jul 2015 12:42:16 +0000 (14:42 +0200)
While deploying it's a bit annoying to have these files tracked by git.
If we want to closely work with the upstream version it will be easier.

Signed-off-by: leseb <seb@redhat.com>
13 files changed:
.gitignore
group_vars/all [deleted file]
group_vars/all.sample [new file with mode: 0644]
group_vars/mdss [deleted file]
group_vars/mdss.sample [new file with mode: 0644]
group_vars/mons [deleted file]
group_vars/mons.sample [new file with mode: 0644]
group_vars/osds [deleted file]
group_vars/osds.sample [new file with mode: 0644]
group_vars/restapis [deleted file]
group_vars/restapis.sample [new file with mode: 0644]
group_vars/rgws [deleted file]
group_vars/rgws.sample [new file with mode: 0644]

index eeb5690549aa617319d6fa65aea7a7825cf3cc89..a422e1ed2eb55b5d8e29198efc77ece202a982f3 100644 (file)
@@ -3,3 +3,9 @@
 *.keyring
 fetch/4a158d27-f750-41d5-9e7f-26ce4c9d2d45/*
 vagrant_variables.yml
+group_vars/all
+group_vars/mons
+group_vars/osds
+group_vars/mdss
+group_vars/rgws
+group_vars/restapis
diff --git a/group_vars/all b/group_vars/all
deleted file mode 100644 (file)
index bae2f7b..0000000
+++ /dev/null
@@ -1,204 +0,0 @@
----
-# Variables here are applicable to all host groups NOT roles
-
-# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.
-dummy:
-
-#########
-# INSTALL
-#########
-
-#mon_group_name: mons
-#osd_group_name: osds
-#rgw_group_name: rgws
-#mds_group_name: mdss
-#restapi_group_name: restapis
-
-# /!\ EITHER ACTIVE ceph_stable OR ceph_stable_ice OR ceph_dev /!\
-
-# STABLE
-########
-
-# COMMUNITY VERSION
-#ceph_stable: false # use ceph stable branch
-#ceph_stable_key: https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc
-#ceph_stable_release: hammer # ceph stable release
-
-# Use the option below to specify your applicable package tree, eg. when using non-LTS Ubuntu versions
-# # for a list of available Debian distributions, visit http://ceph.com/debian-{{ ceph_stable_release }}/dists/
-# for more info read: https://github.com/ceph/ceph-ansible/issues/305
-#ceph_stable_distro_source:
-
-# This option is needed for _both_ stable and dev version, so please always fill the right version
-# # for supported distros, see http://ceph.com/rpm-{{ ceph_stable_release }}/
-#ceph_stable_redhat_distro: el7
-
-# ENTERPRISE VERSION ICE (old, prior to the 1.3)
-#ceph_stable_ice: false # use Inktank Ceph Enterprise
-#ceph_stable_ice_url: https://download.inktank.com/enterprise
-#ceph_stable_ice_temp_path: /opt/ICE/ceph-repo/
-#ceph_stable_ice_kmod: 3.10-0.1.20140702gitdc9ac62.el7.x86_64
-#ceph_stable_ice_distro: rhel7 # Please check the download website for the supported versions.
-#ceph_stable_ice_version: 1.2.2
-#ceph_stable_ice_kmod_version: 1.2
-#ceph_stable_ice_user: # htaccess user
-#ceph_stable_ice_password: # htaccess password
-
-# ENTERPRISE VERSION RED HAT STORAGE (from 1.3)
-# This version is only supported on RHEL 7.1
-# As of RHEL 7.1, libceph.ko and rbd.ko are now included in Red Hat's kernel
-# packages natively. The RHEL 7.1 kernel packages are more stable and secure than
-# using these 3rd-party kmods with RHEL 7.0. Please update your systems to RHEL
-# 7.1 or later if you want to use the kernel RBD client.
-#
-# The CephFS kernel client is undergoing rapid development upstream, and we do
-# not recommend running the CephFS kernel module on RHEL 7's 3.10 kernel at this
-# time. Please use ELRepo's latest upstream 4.x kernels if you want to run CephFS
-# on RHEL 7.
-#
-#ceph_stable_rh_storage: false
-#ceph_stable_rh_storage_cdn_install: false # assumes all the nodes can connect to cdn.redhat.com
-#ceph_stable_rh_storage_iso_install: false # usually used when nodes don't have access to cdn.redhat.com
-#ceph_stable_rh_storage_iso_path:
-#ceph_stable_rh_storage_mount_path: /tmp/rh-storage-mount
-#ceph_stable_rh_storage_repository_path: /tmp/rh-storage-repo # where to copy iso's content
-
-# DEV
-# ###
-
-#ceph_dev: false # use ceph development branch
-#ceph_dev_key: https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/autobuild.asc
-#ceph_dev_branch: master # development branch you would like to use e.g: master, wip-hack
-
-# supported distros are centos6, centos7, fc17, fc18, fc19, fc20, fedora17, fedora18,
-# fedora19, fedora20, opensuse12, sles0. (see http://gitbuilder.ceph.com/).
-# For rhel, please pay attention to the versions: 'rhel6 3' or 'rhel 4', the fullname is _very_ important.
-#ceph_dev_redhat_distro: centos7
-
-###############
-# CONFIGURATION
-###############
-
-## Ceph options
-#
-#fsid: "{{ cluster_uuid.stdout }}"
-#cephx: true
-#cephx_require_signatures: true # Kernel RBD does NOT support signatures!
-#cephx_cluster_require_signatures: true
-#cephx_service_require_signatures: false
-#max_open_files: 131072
-#disable_in_memory_logs: true
-
-## Client options
-#
-#rbd_cache: "true"
-#rbd_cache_writethrough_until_flush: "true"
-#rbd_concurrent_management_ops: 20
-#rbd_client_directories: false # this will create rbd_client_log_path and rbd_client_admin_socket_path directories with proper permissions, this WON'T work if libvirt and kvm are installed
-#rbd_client_log_file: /var/log/rbd-clients/qemu-guest-$pid.log # must be writable by QEMU and allowed by SELinux or AppArmor
-#rbd_client_log_path: /var/log/rbd-clients/
-#rbd_client_admin_socket_path: /var/run/ceph/rbd-clients/
-#rbd_default_features: 3
-#rbd_default_map_options: rw
-#rbd_default_format: 2
-
-## Monitor options
-#
-#monitor_interface: interface
-#monitor_secret: "{{ monitor_keyring.stdout }}"
-#mon_osd_down_out_interval: 600
-#mon_osd_min_down_reporters: 7 # number of OSDs per host + 1
-#mon_clock_drift_allowed: .15
-#mon_clock_drift_warn_backoff: 30
-#mon_osd_full_ratio: .95
-#mon_osd_nearfull_ratio: .85
-#mon_osd_report_timeout: 300
-#mon_pg_warn_max_per_osd: 0 # disable complains about low pgs numbers per osd
-
-## OSD options
-#
-#journal_size: 0
-#pool_default_pg_num: 128
-#pool_default_pgp_num: 128
-#pool_default_size: 2
-#pool_default_min_size: 1
-#public_network: 0.0.0.0/0
-#cluster_network: {{ public_network }}
-#osd_mkfs_type: xfs
-#osd_mkfs_options_xfs: -f -i size=2048
-#osd_mount_options_xfs: noatime
-#osd_mon_heartbeat_interval: 30
-
-# CRUSH
-#pool_default_crush_rule: 0
-#osd_crush_update_on_start: "true"
-# Object backend
-#osd_objectstore: filestore
-
-# Performance tuning
-#filestore_merge_threshold: 40
-#filestore_split_multiple: 8
-#osd_op_threads: 8
-#filestore_op_threads: 8
-#filestore_max_sync_interval: 5
-#osd_max_scrubs: 1
-
-# Recovery tuning
-#osd_recovery_max_active: 5
-#osd_max_backfills: 2
-#osd_recovery_op_priority: 2
-#osd_recovery_max_chunk: 1048576
-#osd_recovery_threads: 1
-
-# Deep scrub
-#osd_scrub_sleep: .1
-#osd_disk_thread_ioprio_class: idle
-#osd_disk_thread_ioprio_priority: 0
-#osd_scrub_chunk_max: 5
-#osd_deep_scrub_stride: 1048576
-
-# Rados Gateway options
-#
-#radosgw_dns_name: your.subdomain.tld # subdomains used by radosgw. See http://ceph.com/docs/master/radosgw/config/#enabling-subdomain-s3-calls
-#radosgw_frontend: civetweb # supported options are 'apache' or 'civetweb', also edit roles/ceph-radosgw/defaults/main.yml
-#radosgw_civetweb_port: 80
-#radosgw_keystone: false # activate OpenStack Keystone options full detail here: http://ceph.com/docs/master/radosgw/keystone/
-#radosgw_keystone_url: # url:admin_port ie: http://192.168.0.1:35357
-#radosgw_keystone_admin_token: password
-#radosgw_keystone_accepted_roles: Member, _member_, admin
-#radosgw_keystone_token_cache_size: 10000
-#radosgw_keystone_revocation_internal: 900
-#radosgw_s3_auth_use_keystone: "true"
-#radosgw_nss_db_path: /var/lib/ceph/radosgw/ceph-radosgw.{{ ansible_hostname }}/nss
-
-## REST API options
-#
-#restapi_interface: "{{ monitor_interface }}"
-#restapi_port: 5000
-#restapi_base_url: /api/v0.1
-#restapi_log_level: warning
-
-## Testing mode
-# enable this mode _only_ when you have a single node
-# if you don't want it keep the option commented
-#common_single_host_mode: true
-
-
-#############
-# OS TUNING #
-#############
-
-#disable_transparent_hugepage: true
-#disable_swap: true
-#os_tuning_params:
-#  - { name: kernel.pid_max, value: 4194303 }
-#  - { name: fs.file-max, value: 26234859 }
-#  - { name: vm.zone_reclaim_mode, value: 0 }
-#  - { name: vm.vfs_cache_pressure, value: 50 }
-
-
-##########
-# DOCKER #
-##########
-
-#docker: false
diff --git a/group_vars/all.sample b/group_vars/all.sample
new file mode 100644 (file)
index 0000000..bae2f7b
--- /dev/null
@@ -0,0 +1,204 @@
+---
+# Variables here are applicable to all host groups NOT roles
+
+# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.
+dummy:
+
+#########
+# INSTALL
+#########
+
+#mon_group_name: mons
+#osd_group_name: osds
+#rgw_group_name: rgws
+#mds_group_name: mdss
+#restapi_group_name: restapis
+
+# /!\ EITHER ACTIVE ceph_stable OR ceph_stable_ice OR ceph_dev /!\
+
+# STABLE
+########
+
+# COMMUNITY VERSION
+#ceph_stable: false # use ceph stable branch
+#ceph_stable_key: https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc
+#ceph_stable_release: hammer # ceph stable release
+
+# Use the option below to specify your applicable package tree, eg. when using non-LTS Ubuntu versions
+# # for a list of available Debian distributions, visit http://ceph.com/debian-{{ ceph_stable_release }}/dists/
+# for more info read: https://github.com/ceph/ceph-ansible/issues/305
+#ceph_stable_distro_source:
+
+# This option is needed for _both_ stable and dev version, so please always fill the right version
+# # for supported distros, see http://ceph.com/rpm-{{ ceph_stable_release }}/
+#ceph_stable_redhat_distro: el7
+
+# ENTERPRISE VERSION ICE (old, prior to the 1.3)
+#ceph_stable_ice: false # use Inktank Ceph Enterprise
+#ceph_stable_ice_url: https://download.inktank.com/enterprise
+#ceph_stable_ice_temp_path: /opt/ICE/ceph-repo/
+#ceph_stable_ice_kmod: 3.10-0.1.20140702gitdc9ac62.el7.x86_64
+#ceph_stable_ice_distro: rhel7 # Please check the download website for the supported versions.
+#ceph_stable_ice_version: 1.2.2
+#ceph_stable_ice_kmod_version: 1.2
+#ceph_stable_ice_user: # htaccess user
+#ceph_stable_ice_password: # htaccess password
+
+# ENTERPRISE VERSION RED HAT STORAGE (from 1.3)
+# This version is only supported on RHEL 7.1
+# As of RHEL 7.1, libceph.ko and rbd.ko are now included in Red Hat's kernel
+# packages natively. The RHEL 7.1 kernel packages are more stable and secure than
+# using these 3rd-party kmods with RHEL 7.0. Please update your systems to RHEL
+# 7.1 or later if you want to use the kernel RBD client.
+#
+# The CephFS kernel client is undergoing rapid development upstream, and we do
+# not recommend running the CephFS kernel module on RHEL 7's 3.10 kernel at this
+# time. Please use ELRepo's latest upstream 4.x kernels if you want to run CephFS
+# on RHEL 7.
+#
+#ceph_stable_rh_storage: false
+#ceph_stable_rh_storage_cdn_install: false # assumes all the nodes can connect to cdn.redhat.com
+#ceph_stable_rh_storage_iso_install: false # usually used when nodes don't have access to cdn.redhat.com
+#ceph_stable_rh_storage_iso_path:
+#ceph_stable_rh_storage_mount_path: /tmp/rh-storage-mount
+#ceph_stable_rh_storage_repository_path: /tmp/rh-storage-repo # where to copy iso's content
+
+# DEV
+# ###
+
+#ceph_dev: false # use ceph development branch
+#ceph_dev_key: https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/autobuild.asc
+#ceph_dev_branch: master # development branch you would like to use e.g: master, wip-hack
+
+# supported distros are centos6, centos7, fc17, fc18, fc19, fc20, fedora17, fedora18,
+# fedora19, fedora20, opensuse12, sles0. (see http://gitbuilder.ceph.com/).
+# For rhel, please pay attention to the versions: 'rhel6 3' or 'rhel 4', the fullname is _very_ important.
+#ceph_dev_redhat_distro: centos7
+
+###############
+# CONFIGURATION
+###############
+
+## Ceph options
+#
+#fsid: "{{ cluster_uuid.stdout }}"
+#cephx: true
+#cephx_require_signatures: true # Kernel RBD does NOT support signatures!
+#cephx_cluster_require_signatures: true
+#cephx_service_require_signatures: false
+#max_open_files: 131072
+#disable_in_memory_logs: true
+
+## Client options
+#
+#rbd_cache: "true"
+#rbd_cache_writethrough_until_flush: "true"
+#rbd_concurrent_management_ops: 20
+#rbd_client_directories: false # this will create rbd_client_log_path and rbd_client_admin_socket_path directories with proper permissions, this WON'T work if libvirt and kvm are installed
+#rbd_client_log_file: /var/log/rbd-clients/qemu-guest-$pid.log # must be writable by QEMU and allowed by SELinux or AppArmor
+#rbd_client_log_path: /var/log/rbd-clients/
+#rbd_client_admin_socket_path: /var/run/ceph/rbd-clients/
+#rbd_default_features: 3
+#rbd_default_map_options: rw
+#rbd_default_format: 2
+
+## Monitor options
+#
+#monitor_interface: interface
+#monitor_secret: "{{ monitor_keyring.stdout }}"
+#mon_osd_down_out_interval: 600
+#mon_osd_min_down_reporters: 7 # number of OSDs per host + 1
+#mon_clock_drift_allowed: .15
+#mon_clock_drift_warn_backoff: 30
+#mon_osd_full_ratio: .95
+#mon_osd_nearfull_ratio: .85
+#mon_osd_report_timeout: 300
+#mon_pg_warn_max_per_osd: 0 # disable complains about low pgs numbers per osd
+
+## OSD options
+#
+#journal_size: 0
+#pool_default_pg_num: 128
+#pool_default_pgp_num: 128
+#pool_default_size: 2
+#pool_default_min_size: 1
+#public_network: 0.0.0.0/0
+#cluster_network: {{ public_network }}
+#osd_mkfs_type: xfs
+#osd_mkfs_options_xfs: -f -i size=2048
+#osd_mount_options_xfs: noatime
+#osd_mon_heartbeat_interval: 30
+
+# CRUSH
+#pool_default_crush_rule: 0
+#osd_crush_update_on_start: "true"
+# Object backend
+#osd_objectstore: filestore
+
+# Performance tuning
+#filestore_merge_threshold: 40
+#filestore_split_multiple: 8
+#osd_op_threads: 8
+#filestore_op_threads: 8
+#filestore_max_sync_interval: 5
+#osd_max_scrubs: 1
+
+# Recovery tuning
+#osd_recovery_max_active: 5
+#osd_max_backfills: 2
+#osd_recovery_op_priority: 2
+#osd_recovery_max_chunk: 1048576
+#osd_recovery_threads: 1
+
+# Deep scrub
+#osd_scrub_sleep: .1
+#osd_disk_thread_ioprio_class: idle
+#osd_disk_thread_ioprio_priority: 0
+#osd_scrub_chunk_max: 5
+#osd_deep_scrub_stride: 1048576
+
+# Rados Gateway options
+#
+#radosgw_dns_name: your.subdomain.tld # subdomains used by radosgw. See http://ceph.com/docs/master/radosgw/config/#enabling-subdomain-s3-calls
+#radosgw_frontend: civetweb # supported options are 'apache' or 'civetweb', also edit roles/ceph-radosgw/defaults/main.yml
+#radosgw_civetweb_port: 80
+#radosgw_keystone: false # activate OpenStack Keystone options full detail here: http://ceph.com/docs/master/radosgw/keystone/
+#radosgw_keystone_url: # url:admin_port ie: http://192.168.0.1:35357
+#radosgw_keystone_admin_token: password
+#radosgw_keystone_accepted_roles: Member, _member_, admin
+#radosgw_keystone_token_cache_size: 10000
+#radosgw_keystone_revocation_internal: 900
+#radosgw_s3_auth_use_keystone: "true"
+#radosgw_nss_db_path: /var/lib/ceph/radosgw/ceph-radosgw.{{ ansible_hostname }}/nss
+
+## REST API options
+#
+#restapi_interface: "{{ monitor_interface }}"
+#restapi_port: 5000
+#restapi_base_url: /api/v0.1
+#restapi_log_level: warning
+
+## Testing mode
+# enable this mode _only_ when you have a single node
+# if you don't want it keep the option commented
+#common_single_host_mode: true
+
+
+#############
+# OS TUNING #
+#############
+
+#disable_transparent_hugepage: true
+#disable_swap: true
+#os_tuning_params:
+#  - { name: kernel.pid_max, value: 4194303 }
+#  - { name: fs.file-max, value: 26234859 }
+#  - { name: vm.zone_reclaim_mode, value: 0 }
+#  - { name: vm.vfs_cache_pressure, value: 50 }
+
+
+##########
+# DOCKER #
+##########
+
+#docker: false
diff --git a/group_vars/mdss b/group_vars/mdss
deleted file mode 100644 (file)
index 22fa572..0000000
+++ /dev/null
@@ -1,13 +0,0 @@
----\r
-dummy:\r
-\r
-#cephx: true\r
-\r
-\r
-##########\r
-# DOCKER #\r
-##########\r
-\r
-#ceph_containerized_deployment: false\r
-#ceph_mds_docker_username: ceph\r
-#ceph_mds_docker_imagename: daemon\r
diff --git a/group_vars/mdss.sample b/group_vars/mdss.sample
new file mode 100644 (file)
index 0000000..22fa572
--- /dev/null
@@ -0,0 +1,13 @@
+---\r
+dummy:\r
+\r
+#cephx: true\r
+\r
+\r
+##########\r
+# DOCKER #\r
+##########\r
+\r
+#ceph_containerized_deployment: false\r
+#ceph_mds_docker_username: ceph\r
+#ceph_mds_docker_imagename: daemon\r
diff --git a/group_vars/mons b/group_vars/mons
deleted file mode 100644 (file)
index 44b0b4d..0000000
+++ /dev/null
@@ -1,60 +0,0 @@
----\r
-# You can override vars by using host or group vars\r
-# Variables here are applicable to all host groups NOT roles\r
-\r
-# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.\r
-dummy:\r
-\r
-###########\r
-# GENERAL #\r
-###########\r
-\r
-# ACTIVATE BOTH FSID AND MONITOR_SECRET VARIABLES FOR NON-VAGRANT DEPLOYMENT\r
-#fsid: "{{ cluster_uuid.stdout }}"\r
-#monitor_secret: "{{ monitor_keyring.stdout }}"\r
-#cephx: true\r
-\r
-# CephFS\r
-#pool_default_pg_num: 128\r
-#cephfs_data: cephfs_data\r
-#cephfs_metadata: cephfs_metadata\r
-#cephfs: cephfs\r
-\r
-# Secure your cluster\r
-# This will set the following flags on all the pools:\r
-# * nosizechange\r
-# * nopgchange\r
-# * nodelete\r
-\r
-#secure_cluster: false\r
-#secure_cluster_flags:\r
-#  - nopgchange\r
-#  - nodelete\r
-#  - nosizechange\r
-#\r
-\r
-#############\r
-# OPENSTACK #\r
-#############\r
-\r
-#openstack_config: false\r
-#openstack_glance_pool: images\r
-#openstack_cinder_pool: volumes\r
-#openstack_nova_pool: vms\r
-#openstack_cinder_backup_pool: backups\r
-#\r
-#openstack_keys:\r
-#  - { name: client.glance, value: "mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool={{ openstack_glance_pool }}'" }\r
-#  - { name: client.cinder, value: "mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool={{ openstack_cinder_pool }}, allow rwx pool={{ openstack_nova_pool }}, allow rx pool={{ openstack_glance_pool }}'"  }\r
-#  - { name: client.cinder-backup, value: "mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool={{ openstack_cinder_backup_pool }}'" }\r
-\r
-\r
-##########\r
-# DOCKER #\r
-##########\r
-\r
-#ceph_containerized_deployment: false\r
-#ceph_mon_docker_username: ceph\r
-#ceph_mon_docker_imagename: "daemon"\r
-#ceph_mon_docker_interface: eth0\r
-#ceph_mon_docker_subnet: # subnet of the ceph_mon_docker_interface\r
diff --git a/group_vars/mons.sample b/group_vars/mons.sample
new file mode 100644 (file)
index 0000000..44b0b4d
--- /dev/null
@@ -0,0 +1,60 @@
+---\r
+# You can override vars by using host or group vars\r
+# Variables here are applicable to all host groups NOT roles\r
+\r
+# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.\r
+dummy:\r
+\r
+###########\r
+# GENERAL #\r
+###########\r
+\r
+# ACTIVATE BOTH FSID AND MONITOR_SECRET VARIABLES FOR NON-VAGRANT DEPLOYMENT\r
+#fsid: "{{ cluster_uuid.stdout }}"\r
+#monitor_secret: "{{ monitor_keyring.stdout }}"\r
+#cephx: true\r
+\r
+# CephFS\r
+#pool_default_pg_num: 128\r
+#cephfs_data: cephfs_data\r
+#cephfs_metadata: cephfs_metadata\r
+#cephfs: cephfs\r
+\r
+# Secure your cluster\r
+# This will set the following flags on all the pools:\r
+# * nosizechange\r
+# * nopgchange\r
+# * nodelete\r
+\r
+#secure_cluster: false\r
+#secure_cluster_flags:\r
+#  - nopgchange\r
+#  - nodelete\r
+#  - nosizechange\r
+#\r
+\r
+#############\r
+# OPENSTACK #\r
+#############\r
+\r
+#openstack_config: false\r
+#openstack_glance_pool: images\r
+#openstack_cinder_pool: volumes\r
+#openstack_nova_pool: vms\r
+#openstack_cinder_backup_pool: backups\r
+#\r
+#openstack_keys:\r
+#  - { name: client.glance, value: "mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool={{ openstack_glance_pool }}'" }\r
+#  - { name: client.cinder, value: "mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool={{ openstack_cinder_pool }}, allow rwx pool={{ openstack_nova_pool }}, allow rx pool={{ openstack_glance_pool }}'"  }\r
+#  - { name: client.cinder-backup, value: "mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool={{ openstack_cinder_backup_pool }}'" }\r
+\r
+\r
+##########\r
+# DOCKER #\r
+##########\r
+\r
+#ceph_containerized_deployment: false\r
+#ceph_mon_docker_username: ceph\r
+#ceph_mon_docker_imagename: "daemon"\r
+#ceph_mon_docker_interface: eth0\r
+#ceph_mon_docker_subnet: # subnet of the ceph_mon_docker_interface\r
diff --git a/group_vars/osds b/group_vars/osds
deleted file mode 100644 (file)
index 640c9e8..0000000
+++ /dev/null
@@ -1,118 +0,0 @@
----
-# Variables here are applicable to all host groups NOT roles
-#
-
-# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.
-dummy:
-
-####################
-# OSD CRUSH LOCATION
-####################
-
-# The following options will build a ceph.conf with OSD sections
-# Example:
-# [osd.X]
-# osd crush location = "root=location"
-#
-# This works with your inventory file
-# To match the following 'osd_crush_location' option the inventory must look like:
-#
-# [osds]
-# osd0 ceph_crush_root=foo ceph_crush_rack=bar
-
-crush_location: false
-osd_crush_location: "'root={{ ceph_crush_root }} rack={{ ceph_crush_rack }} host={{ ansible_hostname }}'"
-
-##############
-# CEPH OPTIONS
-##############
-
-#cephx: true
-
-# Devices to be used as OSDs
-# You can pre-provision disks that are not present yet.
-# Ansible will just skip them. Newly added disk will be
-# automatically configured during the next run.
-#
-
-
-# !! WARNING !!
-#
-# /!\ ENABLE ONLY ONE SCENARIO AT A TIME /!\
-#
-# !! WARNING !!
-
-# USE WITH CAUTION
-# Erase partitions structure and layout of the given devices below prior to prepare them
-#zap_devices: false
-
-# Declare devices
-# All the scenarii inherit from the following device declaration
-#
-#devices:
-#  - /dev/sdb
-#  - /dev/sdc
-#  - /dev/sdd
-#  - /dev/sde
-
-# Device discovery is based on the Ansible fact 'ansible_devices'
-# which reports all the devices on a system. If chosen all the disks
-# found will be passed to ceph-disk. You should not be worried on using
-# this option since ceph-disk has a built-in check which looks for empty devices.
-# Thus devices with existing partition tables will not be used.
-# This mode prevents you from filling out the 'devices' variable above.
-#
-#osd_auto_discovery: false
-
-# I. First scenario: journal and osd_data on the same device
-# Use 'true' to enable this scenario
-# This will collocate both journal and data on the same disk
-# creating a partition at the beginning of the device
-
-#journal_collocation: false
-
-
-# II. Second scenario: single journal device for N OSDs
-# Use 'true' to enable this scenario
-
-# deprecated, please use scenario III with a single raw_journal_device
-
-
-# III. Third scenario: N journal devices for N OSDs
-# Use 'true' to enable this scenario
-#
-# In the following example:
-# * sdd and sde will get sdb as a journal
-# * sdf and sdg will get sdc as a journal
-# While starting you have 2 options:
-# 1. Pre-allocate all the devices
-# 2. Progressively add new devices
-
-#raw_multi_journal: false
-#raw_journal_devices:
-#  - /dev/sdb
-#  - /dev/sdb
-#  - /dev/sdc
-#  - /dev/sdc
-#
-
-# IV. Fourth scenario: use directory instead of disk for OSDs
-# Use 'true' to enable this scenario
-
-#osd_directory: false
-#osd_directories:
-#  - /var/lib/ceph/osd/mydir1
-#  - /var/lib/ceph/osd/mydir2
-#  - /var/lib/ceph/osd/mydir3
-#  - /var/lib/ceph/osd/mydir4
-
-
-##########
-# DOCKER #
-##########
-
-#ceph_containerized_deployment: false
-#ceph_osd_docker_username: ceph
-#ceph_osd_docker_imagename: daemon
-#ceph_osd_docker_devices:
-#  - /dev/sdb
diff --git a/group_vars/osds.sample b/group_vars/osds.sample
new file mode 100644 (file)
index 0000000..640c9e8
--- /dev/null
@@ -0,0 +1,118 @@
+---
+# Variables here are applicable to all host groups NOT roles
+#
+
+# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.
+dummy:
+
+####################
+# OSD CRUSH LOCATION
+####################
+
+# The following options will build a ceph.conf with OSD sections
+# Example:
+# [osd.X]
+# osd crush location = "root=location"
+#
+# This works with your inventory file
+# To match the following 'osd_crush_location' option the inventory must look like:
+#
+# [osds]
+# osd0 ceph_crush_root=foo ceph_crush_rack=bar
+
+crush_location: false
+osd_crush_location: "'root={{ ceph_crush_root }} rack={{ ceph_crush_rack }} host={{ ansible_hostname }}'"
+
+##############
+# CEPH OPTIONS
+##############
+
+#cephx: true
+
+# Devices to be used as OSDs
+# You can pre-provision disks that are not present yet.
+# Ansible will just skip them. Newly added disk will be
+# automatically configured during the next run.
+#
+
+
+# !! WARNING !!
+#
+# /!\ ENABLE ONLY ONE SCENARIO AT A TIME /!\
+#
+# !! WARNING !!
+
+# USE WITH CAUTION
+# Erase partitions structure and layout of the given devices below prior to prepare them
+#zap_devices: false
+
+# Declare devices
+# All the scenarii inherit from the following device declaration
+#
+#devices:
+#  - /dev/sdb
+#  - /dev/sdc
+#  - /dev/sdd
+#  - /dev/sde
+
+# Device discovery is based on the Ansible fact 'ansible_devices'
+# which reports all the devices on a system. If chosen all the disks
+# found will be passed to ceph-disk. You should not be worried on using
+# this option since ceph-disk has a built-in check which looks for empty devices.
+# Thus devices with existing partition tables will not be used.
+# This mode prevents you from filling out the 'devices' variable above.
+#
+#osd_auto_discovery: false
+
+# I. First scenario: journal and osd_data on the same device
+# Use 'true' to enable this scenario
+# This will collocate both journal and data on the same disk
+# creating a partition at the beginning of the device
+
+#journal_collocation: false
+
+
+# II. Second scenario: single journal device for N OSDs
+# Use 'true' to enable this scenario
+
+# deprecated, please use scenario III with a single raw_journal_device
+
+
+# III. Third scenario: N journal devices for N OSDs
+# Use 'true' to enable this scenario
+#
+# In the following example:
+# * sdd and sde will get sdb as a journal
+# * sdf and sdg will get sdc as a journal
+# While starting you have 2 options:
+# 1. Pre-allocate all the devices
+# 2. Progressively add new devices
+
+#raw_multi_journal: false
+#raw_journal_devices:
+#  - /dev/sdb
+#  - /dev/sdb
+#  - /dev/sdc
+#  - /dev/sdc
+#
+
+# IV. Fourth scenario: use directory instead of disk for OSDs
+# Use 'true' to enable this scenario
+
+#osd_directory: false
+#osd_directories:
+#  - /var/lib/ceph/osd/mydir1
+#  - /var/lib/ceph/osd/mydir2
+#  - /var/lib/ceph/osd/mydir3
+#  - /var/lib/ceph/osd/mydir4
+
+
+##########
+# DOCKER #
+##########
+
+#ceph_containerized_deployment: false
+#ceph_osd_docker_username: ceph
+#ceph_osd_docker_imagename: daemon
+#ceph_osd_docker_devices:
+#  - /dev/sdb
diff --git a/group_vars/restapis b/group_vars/restapis
deleted file mode 100644 (file)
index 2bb3591..0000000
+++ /dev/null
@@ -1,15 +0,0 @@
----
-# Variables here are applicable to all host groups NOT roles
-
-# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.
-dummy:
-
-##########
-# DOCKER #
-##########
-
-#ceph_containerized_deployment: false
-#ceph_restapi_docker_interface: eth0
-#ceph_restapi_port: 5000
-#ceph_restapi_docker_username: ceph
-#ceph_restapi_docker_imagename: daemon
diff --git a/group_vars/restapis.sample b/group_vars/restapis.sample
new file mode 100644 (file)
index 0000000..2bb3591
--- /dev/null
@@ -0,0 +1,15 @@
+---
+# Variables here are applicable to all host groups NOT roles
+
+# Dummy variable to avoid error because ansible does not recognize the file as a good configuration file when no variable in it.
+dummy:
+
+##########
+# DOCKER #
+##########
+
+#ceph_containerized_deployment: false
+#ceph_restapi_docker_interface: eth0
+#ceph_restapi_port: 5000
+#ceph_restapi_docker_username: ceph
+#ceph_restapi_docker_imagename: daemon
diff --git a/group_vars/rgws b/group_vars/rgws
deleted file mode 100644 (file)
index 9f6c9a6..0000000
+++ /dev/null
@@ -1,30 +0,0 @@
----\r
-dummy:\r
-\r
-## Ceph options\r
-#\r
-#cephx: true\r
-\r
-# Used for the sudo exception while starting the radosgw process\r
-# a new entry /etc/sudoers.d/ceph will be created\r
-# allowing root to not require tty\r
-#radosgw_user: root\r
-\r
-# Toggle 100-continue support for Apache and FastCGI\r
-# WARNING: Changing this value will cause an outage of Apache while it is reinstalled on RGW nodes\r
-#http_100_continue: false\r
-\r
-# Rados Gateway options\r
-#redhat_distro_ceph_extra: centos6.4 # supported distros are centos6.3, centos6.4, centos6, fedora18, fedora19, opensuse12.2, rhel6.3, rhel6.4, rhel6.5, rhel6, sles11sp2\r
-#email_address: foo@bar.com\r
-#radosgw_frontend: civetweb # we currently only support a single backend\r
-\r
-\r
-##########\r
-# DOCKER #\r
-##########\r
-\r
-#ceph_containerized_deployment: false\r
-#ceph_rgw_docker_username: ceph\r
-#ceph_rgw_docker_imagename: daemon\r
-#ceph_rgw_civetweb_port: 80\r
diff --git a/group_vars/rgws.sample b/group_vars/rgws.sample
new file mode 100644 (file)
index 0000000..9f6c9a6
--- /dev/null
@@ -0,0 +1,30 @@
+---\r
+dummy:\r
+\r
+## Ceph options\r
+#\r
+#cephx: true\r
+\r
+# Used for the sudo exception while starting the radosgw process\r
+# a new entry /etc/sudoers.d/ceph will be created\r
+# allowing root to not require tty\r
+#radosgw_user: root\r
+\r
+# Toggle 100-continue support for Apache and FastCGI\r
+# WARNING: Changing this value will cause an outage of Apache while it is reinstalled on RGW nodes\r
+#http_100_continue: false\r
+\r
+# Rados Gateway options\r
+#redhat_distro_ceph_extra: centos6.4 # supported distros are centos6.3, centos6.4, centos6, fedora18, fedora19, opensuse12.2, rhel6.3, rhel6.4, rhel6.5, rhel6, sles11sp2\r
+#email_address: foo@bar.com\r
+#radosgw_frontend: civetweb # we currently only support a single backend\r
+\r
+\r
+##########\r
+# DOCKER #\r
+##########\r
+\r
+#ceph_containerized_deployment: false\r
+#ceph_rgw_docker_username: ceph\r
+#ceph_rgw_docker_imagename: daemon\r
+#ceph_rgw_civetweb_port: 80\r