]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
mgr/cephadm: fix capitalization, level; drop elipses of log msgs
authorSage Weil <sage@newdream.net>
Thu, 28 Jan 2021 15:02:27 +0000 (09:02 -0600)
committerSage Weil <sage@newdream.net>
Mon, 1 Feb 2021 23:20:14 +0000 (17:20 -0600)
Signed-off-by: Sage Weil <sage@newdream.net>
src/pybind/mgr/cephadm/schedule.py
src/pybind/mgr/cephadm/serve.py
src/pybind/mgr/cephadm/upgrade.py

index 2018aa3677772ec7ee77ed234feb5566d14317eb..ca459c4069bbe65533a617357679977542c0c0b5 100644 (file)
@@ -124,7 +124,7 @@ class HostAssignment(object):
             logger.debug('Provided hosts: %s' % candidates)
             # if asked to place even number of mons, deploy 1 less
             if self.spec.service_type == 'mon' and (len(candidates) % 2) == 0:
-                logger.info("deploying %s monitor(s) instead of %s so monitors may achieve consensus" % (
+                logger.info("Deploying %s monitor(s) instead of %s so monitors may achieve consensus" % (
                     len(candidates) - 1, len(candidates)))
                 return candidates[0:len(candidates)-1]
 
@@ -144,7 +144,7 @@ class HostAssignment(object):
             # is determining factor in how many mons will be placed
             if count >= len(candidates):
                 if (len(candidates) % 2) == 0:
-                    logger.info("deploying %s monitor(s) instead of %s so monitors may achieve consensus" % (
+                    logger.info("Deploying %s monitor(s) instead of %s so monitors may achieve consensus" % (
                         len(candidates) - 1, len(candidates)))
                     count = len(candidates) - 1
             # if count < number of candidates then count is determining
@@ -152,7 +152,7 @@ class HostAssignment(object):
             else:
                 if (count % 2) == 0:
                     logger.info(
-                        "deploying %s monitor(s) instead of %s so monitors may achieve consensus" % (count - 1, count))
+                        "Deploying %s monitor(s) instead of %s so monitors may achieve consensus" % (count - 1, count))
                     count = count - 1
 
         # prefer hosts that already have services.
@@ -181,11 +181,11 @@ class HostAssignment(object):
                     if self.spec.service_type == 'ha-rgw':
                         logger.info(
                             f"Filtered out host {h.hostname} for ha-rgw. Could not verify host allowed virtual ips")
-                logger.info('filtered %s down to %s' % (old, others))
+                logger.debug('filtered %s down to %s' % (old, others))
 
             # ask the scheduler to return a set of hosts with a up to the value of <count>
             others = self.scheduler.place(others, need)
-            logger.info('Combine hosts with existing daemons %s + new hosts %s' % (
+            logger.debug('Combine hosts with existing daemons %s + new hosts %s' % (
                 hosts_with_daemons, others))
             # if a host already has the anticipated daemon, merge it with the candidates
             # to get a list of HostPlacementSpec that can be deployed on.
index bf4c7cccfe10d092058226fedfc080e01803f3b3..35ad8c759d140993f13d4e071453f7a13996c031 100644 (file)
@@ -151,7 +151,7 @@ class CephadmServe:
                     failures.append(r)
 
             if self.mgr.cache.host_needs_facts_refresh(host):
-                self.log.info(('refreshing %s facts' % host))
+                self.log.info(('Refreshing %s facts' % host))
                 r = self._refresh_facts(host)
                 if r:
                     failures.append(r)
index a80a4f33b3b0600bced4068da1be94a0bca0e59d..bd9186bbe3f6926993628a6b8565693a69f0d39b 100644 (file)
@@ -338,7 +338,7 @@ class CephadmUpgrade:
         daemons = self.mgr.cache.get_daemons()
         done = 0
         for daemon_type in CEPH_UPGRADE_ORDER:
-            logger.info('Upgrade: Checking %s daemons...' % daemon_type)
+            logger.info('Upgrade: Checking %s daemons' % daemon_type)
             need_upgrade_self = False
             for d in daemons:
                 if d.daemon_type != daemon_type:
@@ -399,7 +399,7 @@ class CephadmUpgrade:
                         continue
                 if not self._wait_for_ok_to_stop(d):
                     return
-                logger.info('Upgrade: Redeploying %s.%s' %
+                logger.info('Upgrade: Updating %s.%s' %
                             (d.daemon_type, d.daemon_id))
                 try:
                     self.mgr._daemon_action(
@@ -455,7 +455,7 @@ class CephadmUpgrade:
 
             # push down configs
             if image_settings.get(daemon_type) != target_image:
-                logger.info('Upgrade: Setting container_image for all %s...' %
+                logger.info('Upgrade: Setting container_image for all %s' %
                             daemon_type)
                 self.mgr.set_container_image(name_to_config_section(daemon_type), target_image)
             to_clean = []
@@ -463,7 +463,7 @@ class CephadmUpgrade:
                 if section.startswith(name_to_config_section(daemon_type) + '.'):
                     to_clean.append(section)
             if to_clean:
-                logger.debug('Upgrade: Cleaning up container_image for %s...' %
+                logger.debug('Upgrade: Cleaning up container_image for %s' %
                              to_clean)
                 for section in to_clean:
                     ret, image, err = self.mgr.check_mon_command({