]> git.apps.os.sepia.ceph.com Git - ceph-ansible.git/commitdiff
Revert "config: Always use osd_memory_target if set"
authorDimitri Savineau <dsavinea@redhat.com>
Wed, 9 Dec 2020 19:02:45 +0000 (14:02 -0500)
committerGuillaume Abrioux <gabrioux@redhat.com>
Mon, 14 Dec 2020 01:41:45 +0000 (02:41 +0100)
This reverts commit 4d1fdd2b05d55f8028fb5593d41fa61dbddd7095.

This breaks the backward compatibility with previous osd_memory_target
calculation and we could have a value lower than the minimum value allowed
(896M) which causes some ceph commands to fail (like ceph assimilate-conf).

Signed-off-by: Dimitri Savineau <dsavinea@redhat.com>
(cherry picked from commit aa6e1f20eaa5272ff0bb5e8b3cded16273aa120c)

group_vars/all.yml.sample
group_vars/rhcs.yml.sample
roles/ceph-config/templates/ceph.conf.j2
roles/ceph-defaults/defaults/main.yml

index 722f5ff671c603a6d4bbe1019884bcb02f0438d8..f7c6fbfb3a97cc6f2ab66c6ad479d5d2fc53209b 100644 (file)
@@ -342,12 +342,10 @@ dummy:
 
 ## OSD options
 #
-# Variables to calculate a suitable osd_memory_target based on the number of OSDs
 #is_hci: false
 #hci_safety_factor: 0.2
 #non_hci_safety_factor: 0.7
-# You can also set an explicit value which will override the calculation if set.
-# osd_memory_target: 4294967296
+#osd_memory_target: 4294967296
 #journal_size: 5120 # OSD journal size in MB
 #block_db_size: -1 # block db size in bytes for the ceph-volume lvm batch. -1 means use the default of 'as big as possible'.
 #public_network: 0.0.0.0/0
index b11d4dd8f412f9b8d894305946beaed8e3e5e14f..91617f7fc2d03109e9a597ce6dbac56781463c9e 100644 (file)
@@ -342,12 +342,10 @@ ceph_iscsi_config_dev: false
 
 ## OSD options
 #
-# Variables to calculate a suitable osd_memory_target based on the number of OSDs
 #is_hci: false
 #hci_safety_factor: 0.2
 #non_hci_safety_factor: 0.7
-# You can also set an explicit value which will override the calculation if set.
-# osd_memory_target: 4294967296
+#osd_memory_target: 4294967296
 #journal_size: 5120 # OSD journal size in MB
 #block_db_size: -1 # block db size in bytes for the ceph-volume lvm batch. -1 means use the default of 'as big as possible'.
 #public_network: 0.0.0.0/0
index 2c12b7db46e22e59d712372d1fe5cdd20e711748..d00f3b9827828e5df7e1cb64f701eec0b6399a26 100644 (file)
@@ -88,16 +88,18 @@ filestore xattr use omap = true
 {% if osd_objectstore == 'bluestore' %}
 {% set _num_osds = num_osds | default(0) | int %}
 [osd]
-{% if is_hci | bool and _num_osds > 0 and not osd_memory_target is defined %}
+{% if is_hci | bool and _num_osds > 0 %}
 {# hci_safety_factor is the safety factor for HCI deployments #}
+{% if ansible_memtotal_mb * 1048576 * hci_safety_factor / _num_osds > osd_memory_target %}
 {% set _osd_memory_target = (ansible_memtotal_mb * 1048576 * hci_safety_factor / _num_osds) | int %}
-{% elif _num_osds > 0 and not osd_memory_target is defined %}
+{% endif %}
+{% elif _num_osds > 0 %}
 {# non_hci_safety_factor is the safety factor for dedicated nodes #}
+{% if ansible_memtotal_mb * 1048576 * non_hci_safety_factor / _num_osds > osd_memory_target %}
 {% set _osd_memory_target = (ansible_memtotal_mb * 1048576 * non_hci_safety_factor / _num_osds) | int %}
 {% endif %}
-{% if _osd_memory_target is defined or osd_memory_target is defined %}
-osd memory target = {{ _osd_memory_target | default(osd_memory_target) }}
 {% endif %}
+osd memory target = {{ _osd_memory_target | default(osd_memory_target) }}
 {% endif %}
 {% endif %}
 
index 8ad5ee39f5932312b95b8fc2c6bae2d66cbc8f83..cbcda5b705982523c6367139161bc462ade9a62b 100644 (file)
@@ -334,12 +334,10 @@ cephfs_pools:
 
 ## OSD options
 #
-# Variables to calculate a suitable osd_memory_target based on the number of OSDs
 is_hci: false
 hci_safety_factor: 0.2
 non_hci_safety_factor: 0.7
-# You can also set an explicit value which will override the calculation if set.
-# osd_memory_target: 4294967296
+osd_memory_target: 4294967296
 journal_size: 5120 # OSD journal size in MB
 block_db_size: -1 # block db size in bytes for the ceph-volume lvm batch. -1 means use the default of 'as big as possible'.
 public_network: 0.0.0.0/0