]> git.apps.os.sepia.ceph.com Git - teuthology.git/commitdiff
python3: get rid of iteritems 1314/head
authorKyr Shatskyy <kyrylo.shatskyy@suse.com>
Thu, 3 Oct 2019 13:31:51 +0000 (15:31 +0200)
committerKyr Shatskyy <kyrylo.shatskyy@suse.com>
Fri, 4 Oct 2019 10:59:40 +0000 (12:59 +0200)
Signed-off-by: Kyr Shatskyy <kyrylo.shatskyy@suse.com>
39 files changed:
teuthology/config.py
teuthology/coverage.py
teuthology/kill.py
teuthology/lock/cli.py
teuthology/lock/keys.py
teuthology/lock/query.py
teuthology/lock/util.py
teuthology/misc.py
teuthology/nuke/__init__.py
teuthology/nuke/actions.py
teuthology/openstack/__init__.py
teuthology/openstack/test/test_openstack.py
teuthology/orchestra/cluster.py
teuthology/orchestra/monkey.py
teuthology/orchestra/opsys.py
teuthology/prune.py
teuthology/run.py
teuthology/run_tasks.py
teuthology/suite/__init__.py
teuthology/suite/test/test_build_matrix.py
teuthology/task/__init__.py
teuthology/task/background_exec.py
teuthology/task/ceph_ansible.py
teuthology/task/cephmetrics.py
teuthology/task/console_log.py
teuthology/task/exec.py
teuthology/task/full_sequential.py
teuthology/task/full_sequential_finally.py
teuthology/task/hadoop.py
teuthology/task/install/__init__.py
teuthology/task/internal/__init__.py
teuthology/task/kernel.py
teuthology/task/loop.py
teuthology/task/parallel.py
teuthology/task/parallel_example.py
teuthology/task/pexec.py
teuthology/task/selinux.py
teuthology/task/sequential.py
teuthology/test/task/test_pcp.py

index e212c33669a1443a7adcf2271b36f792e05245e5..2a26e3f4923c088ef9bc79484e19c96e051e7130 100644 (file)
@@ -222,7 +222,7 @@ class FakeNamespace(YamlConfig):
         correctly.
         """
         result = dict()
-        for key, value in config_dict.iteritems():
+        for key, value in config_dict.items():
             new_key = key
             if new_key.startswith("--"):
                 new_key = new_key[2:]
index 46706360e187b3d3513b9248a29c1cb4e3f1fcea..63d33e36f635e70fa609151ea28bc66c4ad5f4e6 100644 (file)
@@ -46,7 +46,7 @@ def connect_to_db():
 def store_coverage(test_coverage, rev, suite):
     with closing(connect_to_db()) as db:
         rows = []
-        for test, coverage in test_coverage.iteritems():
+        for test, coverage in test_coverage.items():
             flattened_cov = [item for sublist in coverage for item in sublist]
             rows.append([rev, test, suite] + flattened_cov)
         log.debug('inserting rows into db: %s', str(rows))
@@ -156,7 +156,7 @@ def analyze(test_dir, cov_tools_dir, lcov_output, html_output, skip_init):
         )
 
     test_coverage = {}
-    for test, summary in test_summaries.iteritems():
+    for test, summary in test_summaries.items():
         lcov_file = '{name}.lcov'.format(name=test)
 
         log.info('analyzing coverage for %s', test)
index 931c7872f2edc5cf0dd281933bf585256f3fe816..da73870761af63346a7b99e012473b5f53ab7e1e 100755 (executable)
@@ -88,7 +88,7 @@ def find_run_info(serializer, run_name):
     job_num = 0
     jobs = serializer.jobs_for_run(run_name)
     job_total = len(jobs)
-    for (job_id, job_dir) in jobs.iteritems():
+    for (job_id, job_dir) in jobs.items():
         if not os.path.isdir(job_dir):
             continue
         job_num += 1
index 5df9ad0926ce7d5107ddd85d52eeb06e8a4fd44c..73e571662f72c01d201fcde52a3d88826613eaaa 100644 (file)
@@ -249,7 +249,7 @@ def do_summary(ctx):
         lockd[who][1] += 1 if l['up'] else 0
         lockd[who][2] = l['machine_type']
 
-    locks = sorted([p for p in lockd.iteritems()
+    locks = sorted([p for p in lockd.items()
                     ], key=lambda sort: (sort[1][2], sort[1][0]))
     total_count, total_up = 0, 0
     print "TYPE     COUNT  UP  OWNER"
index 9f8497e50b52c7d9f78a2d91c09de05ebc7f637d..3ed2f987ca78ddc93723704aa27cf778bf18e6b0 100644 (file)
@@ -17,7 +17,7 @@ def do_update_keys(machines, all_=False, _raise=True):
 
 def push_new_keys(keys_dict, reference):
     ret = 0
-    for hostname, pubkey in keys_dict.iteritems():
+    for hostname, pubkey in keys_dict.items():
         log.info('Checking %s', hostname)
         if reference[hostname]['ssh_pub_key'] != pubkey:
             log.info('New key found. Updating...')
index 2adf12e23f492f80a443cf024fe27c13f391926a..9dcdd77015d8f46468281f47a700f4d430b0523f 100644 (file)
@@ -50,7 +50,7 @@ def is_vm(name=None, status=None):
 
 def list_locks(keyed_by_name=False, **kwargs):
     uri = os.path.join(config.lock_server, 'nodes', '')
-    for key, value in kwargs.iteritems():
+    for key, value in kwargs.items():
         if kwargs[key] is False:
             kwargs[key] = '0'
         if kwargs[key] is True:
index 5dc0814d4921f7dd1b5ebc0b66a4ce5484b21533..91f957eab7e18233e32f7905bd6d3c70f0642d5f 100644 (file)
@@ -77,7 +77,7 @@ def json_matching_statuses(json_file_or_str, statuses):
 
     return_statuses = list()
     for status in statuses:
-        for k, v in query.iteritems():
+        for k, v in query.items():
             if not misc.is_in_dict(k, v, status):
                 break
         else:
index 78d3d10c5f30634923c967a399e25ac11d2e60f1..832c726e8976e749ac52d8bb4ef762dae19f0287 100644 (file)
@@ -331,7 +331,7 @@ def skeleton_config(ctx, roles, ips, cluster='ceph',
     mons = get_mons(roles=roles, ips=ips,
                     mon_bind_msgr2=mon_bind_msgr2,
                     mon_bind_addrvec=mon_bind_addrvec)
-    for role, addr in mons.iteritems():
+    for role, addr in mons.items():
         mon_cluster, _, _ = split_role(role)
         if mon_cluster != cluster:
             continue
@@ -406,7 +406,7 @@ def all_roles(cluster):
 
     :param cluster: Cluster extracted from the ctx.
     """
-    for _, roles_for_host in cluster.remotes.iteritems():
+    for _, roles_for_host in cluster.remotes.items():
         for name in roles_for_host:
             yield name
 
@@ -419,7 +419,7 @@ def all_roles_of_type(cluster, type_):
     :param cluster: Cluster extracted from the ctx.
     :param type_: role type
     """
-    for _, roles_for_host in cluster.remotes.iteritems():
+    for _, roles_for_host in cluster.remotes.items():
         for id_ in roles_of_type(roles_for_host, type_):
             yield id_
 
@@ -478,7 +478,7 @@ def create_simple_monmap(ctx, remote, conf, path=None,
 
         Each invocation returns the next monitor address
         """
-        for section, data in conf.iteritems():
+        for section, data in conf.items():
             PREFIX = 'mon.'
             if not section.startswith(PREFIX):
                 continue
@@ -1110,7 +1110,7 @@ def deep_merge(a, b):
         return a
     if isinstance(a, dict):
         assert isinstance(b, dict)
-        for (k, v) in b.iteritems():
+        for (k, v) in b.items():
             if k in a:
                 a[k] = deep_merge(a[k], v)
             else:
@@ -1364,7 +1364,7 @@ def is_in_dict(searchkey, searchval, d):
     """
     val = d.get(searchkey, None)
     if isinstance(val, dict) and isinstance(searchval, dict):
-        for foundkey, foundval in searchval.iteritems():
+        for foundkey, foundval in searchval.items():
             if not is_in_dict(foundkey, foundval, val):
                 return False
         return True
index 343e2ff13f9c0a4197846e7eccb6a6c80232092b..5c105ef3df2743f30c9b77a03c838243967a91db 100644 (file)
@@ -63,7 +63,7 @@ OPENSTACK_DELAY = 30 * 60
 
 
 def stale_openstack_instances(ctx, instances, locked_nodes):
-    for (instance_id, instance) in instances.iteritems():
+    for (instance_id, instance) in instances.items():
         i = OpenStackInstance(instance_id)
         if not i.exists():
             log.debug("stale-openstack: {instance} disappeared, ignored"
@@ -136,7 +136,7 @@ def stale_openstack_volumes(ctx, volumes):
 
 def stale_openstack_nodes(ctx, instances, locked_nodes):
     names = set([ i['Name'] for i in instances.values() ])
-    for (name, node) in locked_nodes.iteritems():
+    for (name, node) in locked_nodes.items():
         name = decanonicalize_hostname(name)
         if node['machine_type'] != 'openstack':
             continue
@@ -253,7 +253,7 @@ def nuke(ctx, should_unlock, sync_clocks=True, reboot_all=True, noipmi=False):
                             "Not nuking %s because description doesn't match",
                             lock['name'])
     with parallel() as p:
-        for target, hostkey in ctx.config['targets'].iteritems():
+        for target, hostkey in ctx.config['targets'].items():
             p.spawn(
                 nuke_one,
                 ctx,
index 5a1db5604649a4f2163eae64624d1fd6784b7e91..8c088aa2fc3ebce4b62efe52f41253d6f9c6b670 100644 (file)
@@ -193,7 +193,7 @@ def reset_syslog_dir(ctx):
         )
         nodes[remote.name] = proc
 
-    for name, proc in nodes.iteritems():
+    for name, proc in nodes.items():
         log.info('Waiting for %s to restart syslog...', name)
         proc.wait()
 
index 1f006dedc9ca0b23683b325f589f4eda7c13163f..c4668fdf748c5c04049f9ff2ee560a780ccfd850 100644 (file)
@@ -68,7 +68,7 @@ class OpenStackInstance(object):
         if info is None:
             self.set_info()
         else:
-            self.info = dict(map(lambda (k,v): (k.lower(), v), info.iteritems()))
+            self.info = dict(map(lambda (k,v): (k.lower(), v), info.items()))
 
     def set_info(self):
         try:
@@ -458,7 +458,7 @@ class OpenStack(object):
                 if resource in hint:
                     new = hint[resource]
                     current = result[resource]
-                    for key, value in hint[resource].iteritems():
+                    for key, value in hint[resource].items():
                         current[key] = max(current[key], new[key])
         return result
 
@@ -920,7 +920,7 @@ ssh access           : ssh {identity}{username}@{ip} # logs in /usr/share/nginx/
                                      '../..', self.user_data)
         template = open(user_data).read()
         openrc = ''
-        for (var, value) in os.environ.iteritems():
+        for (var, value) in os.environ.items():
             if var in ('OS_TOKEN_VALUE', 'OS_TOKEN_EXPIRES'):
                 continue
             if var.startswith('OS_'):
index 49a13da0cd81057de0f41ac64d742e4f7c43d662..1cf0b9df8b40990ea31776c1d10e5e945ef872a1 100644 (file)
@@ -1501,7 +1501,7 @@ class TestOpenStack(TestOpenStackBase):
         }
         os.environ['OS_REGION_NAME'] = 'REGION'
         os.environ['OS_TENANT_ID'] = 'TENANT'
-        for (type, cmds) in type2cmd.iteritems():
+        for (type, cmds) in type2cmd.items():
             for cmd in cmds:
                 assert ("//" + type) in o.get_os_url(cmd + " ")
         for type in type2cmd.keys():
index 36febec9c41e386be031e9e20d52fe548af8f0c9..ebae8de216d14f1763c84c96035e409bdc3c6504 100644 (file)
@@ -104,7 +104,7 @@ class Cluster(object):
         want = frozenset(r for r in roles if not callable(r))
         matchers = [r for r in roles if callable(r)]
 
-        for remote, has_roles in self.remotes.iteritems():
+        for remote, has_roles in self.remotes.items():
             # strings given as roles must all match
             if frozenset(has_roles) & want != want:
                 # not a match
@@ -129,7 +129,7 @@ class Cluster(object):
         """
         matches = self.only(*roles)
         c = self.__class__()
-        for remote, has_roles in self.remotes.iteritems():
+        for remote, has_roles in self.remotes.items():
             if remote not in matches.remotes:
                 c.add(remote, has_roles)
         return c
index 9b09c7a8ddc5720173f9e2c1ab5c5c1ad5598e23..e13e77305ed31280913acad3185956f2e01bcabe 100644 (file)
@@ -49,7 +49,7 @@ def patch_all():
     """
     Run all the patch_* functions in this module.
     """
-    monkeys = [(k, v) for (k, v) in globals().iteritems() if k.startswith('patch_') and k != 'patch_all']
+    monkeys = [(k, v) for (k, v) in globals().items() if k.startswith('patch_') and k != 'patch_all']
     monkeys.sort()
     for k, v in monkeys:
         log.debug('Patching %s', k)
index 20795dcc0cd9490261246460b060b898189ae204..ef3162c62a6c652885d42f8f25b0b7912167ac8e 100644 (file)
@@ -83,13 +83,13 @@ class OS(object):
 
     @staticmethod
     def _version_to_codename(name, version):
-        for (_version, codename) in DISTRO_CODENAME_MAP[name].iteritems():
+        for (_version, codename) in DISTRO_CODENAME_MAP[name].items():
             if str(version) == _version or str(version).split('.')[0] == _version:
                 return codename
 
     @staticmethod
     def _codename_to_version(name, codename):
-        for (version, _codename) in DISTRO_CODENAME_MAP[name].iteritems():
+        for (version, _codename) in DISTRO_CODENAME_MAP[name].items():
             if codename == _codename:
                 return version
         raise RuntimeError("No version found for %s %s !" % (
index cf7bda8671a7d91fb3b1a5a2e0c335422dc6f19c..a98547a67a30894e986f4a5e1de9518543c88b52 100644 (file)
@@ -178,7 +178,7 @@ def maybe_remove_remotes(run_dir, days, dry_run=False):
         if (should_preserve(item) or not os.path.isdir(item) or not
                 is_old_enough(item, days)):
             continue
-        for (subdir, description) in subdirs.iteritems():
+        for (subdir, description) in subdirs.items():
             _maybe_remove_subdir(item, subdir, days, description, dry_run)
 
 
index ceaa9715870c9567cf0274085fc867fb51b09669..4d3099268ae4b0af5dfa52a8bad8ee7b50d83f43 100644 (file)
@@ -288,7 +288,7 @@ def get_teuthology_command(args):
     and returns it as a string.
     """
     cmd = ["teuthology"]
-    for key, value in args.iteritems():
+    for key, value in args.items():
         if value:
             # an option, not an argument
             if not key.startswith("<"):
index 36d47739a7d3b01c566d029d0932da20ee8759ce..f55d60ac4e584c7ce2a24d710794e0c653543de2 100644 (file)
@@ -78,7 +78,7 @@ def run_tasks(tasks, ctx):
     try:
         for taskdict in tasks:
             try:
-                ((taskname, config),) = taskdict.iteritems()
+                ((taskname, config),) = taskdict.items()
             except (ValueError, AttributeError):
                 raise RuntimeError('Invalid task definition: %s' % taskdict)
             log.info('Running task %s...', taskname)
index 3f30170ccfc47c136d91cb7ea2bace3fe19a0f81..a7060d2ea5a4a16eebc80e9f2f7ee82054fd6ec1 100644 (file)
@@ -49,7 +49,7 @@ def process_args(args):
         '<config_yaml>': 'base_yaml_paths',
         'filter': 'filter_in',
     }
-    for (key, value) in args.iteritems():
+    for (key, value) in args.items():
         # Translate --foo-bar to foo_bar
         key = key.lstrip('--').replace('-', '_')
         # Rename the key if necessary
index e4e58ab38ffc1fc4ed3d8ca6af26a0d81a3d04ba..a9764cd728f55364b58b54ccc8fb1298092a86bc 100644 (file)
@@ -664,7 +664,7 @@ class TestSubset(object):
     @staticmethod
     def verify_facets(tree, description_list, subset, mat, first, matlimit):
         def flatten(tree):
-            for k,v in tree.iteritems():
+            for k,v in tree.items():
                 if v is None and '.yaml' in k:
                     yield k
                 elif v is not None and '.disable' not in k:
@@ -673,7 +673,7 @@ class TestSubset(object):
 
         def pptree(tree, tabs=0):
             ret = ""
-            for k, v in tree.iteritems():
+            for k, v in tree.items():
                 if v is None:
                     ret += ('\t'*tabs) + k.ljust(10) + "\n"
                 else:
index 725c5c872dcb92975272d0376c6698e84d4c5896..d21ff509e8f6436c3a14c3dc21687700499b2e4d 100644 (file)
@@ -72,10 +72,10 @@ class Task(object):
         for host_spec in host_specs:
             role_matches = self.ctx.cluster.only(host_spec)
             if len(role_matches.remotes) > 0:
-                for (remote, roles) in role_matches.remotes.iteritems():
+                for (remote, roles) in role_matches.remotes.items():
                     cluster.add(remote, roles)
             elif isinstance(host_spec, basestring):
-                for (remote, roles) in self.ctx.cluster.remotes.iteritems():
+                for (remote, roles) in self.ctx.cluster.remotes.items():
                     if remote.name.split('@')[-1] == host_spec or \
                             remote.shortname == host_spec:
                         cluster.add(remote, roles)
index c954224215df2afe6b77d2279b5eec83f7ed3d64..6691b50d4154cb2863eb8408c9edcab404a05bdf 100644 (file)
@@ -46,7 +46,7 @@ def task(ctx, config):
     testdir = misc.get_testdir(ctx)
 
     tasks = {}
-    for role, cmd in config.iteritems():
+    for role, cmd in config.items():
         (remote,) = ctx.cluster.only(role).remotes.iterkeys()
         log.info('Running background command on role %s host %s', role,
                  remote.name)
@@ -70,7 +70,7 @@ def task(ctx, config):
         yield
 
     finally:
-        for name, task in tasks.iteritems():
+        for name, task in tasks.items():
             log.info('Stopping background command on %s', name)
             task.stdin.close()
         run.wait(tasks.itervalues())
index 63b2c848bc7140be85a35c50042bb34e19eefd42..f8b3b07760d3663338af0f6eb916f4aba33f1ad1 100644 (file)
@@ -140,7 +140,7 @@ class CephAnsible(Task):
         for group in sorted(self.groups_to_roles.keys()):
             role_prefix = self.groups_to_roles[group]
             want = lambda role: role.startswith(role_prefix)
-            for (remote, roles) in self.cluster.only(want).remotes.iteritems():
+            for (remote, roles) in self.cluster.only(want).remotes.items():
                 hostname = remote.hostname
                 host_vars = self.get_host_vars(remote)
                 if group not in hosts_dict:
index 6e4b677a652978226b5f9c3eaf5cf812e53cdce7..0de36e303d81395afe8d08ef0879311dc68f793d 100644 (file)
@@ -40,7 +40,7 @@ class CephMetrics(Ansible):
             if group not in hosts_dict:
                 hosts_dict[group] = dict(hosts=dict())
             group_dict = hosts_dict[group]['hosts']
-            for (remote, roles) in self.cluster.only(want).remotes.iteritems():
+            for (remote, roles) in self.cluster.only(want).remotes.items():
                 hostname = remote.hostname
                 group_dict[hostname] = dict(
                     ansible_user=remote.user,
index 7c1c701421c0172c3b690f5c4d6d540856b8fbf5..01b89351f58a97f687c3eb72776272f481f06a87 100644 (file)
@@ -29,7 +29,7 @@ class ConsoleLog(Task):
         if not hasattr(self.ctx, 'cluster'):
             return
         new_cluster = Cluster()
-        for (remote, roles) in self.cluster.remotes.iteritems():
+        for (remote, roles) in self.cluster.remotes.items():
             if not hasattr(remote.console, 'spawn_sol_log'):
                 log.debug("%s does not support IPMI; excluding",
                           remote.shortname)
index df66b1a1d87c396238546ddcf7a9aec3a5e8deff..0f8308ab910c1c423a2f40594a7ed767b3d422fa 100644 (file)
@@ -40,7 +40,7 @@ def task(ctx, config):
         roles = teuthology.all_roles(ctx.cluster)
         config = dict((id_, a) for id_ in roles)
 
-    for role, ls in config.iteritems():
+    for role, ls in config.items():
         (remote,) = ctx.cluster.only(role).remotes.iterkeys()
         log.info('Running commands on role %s host %s', role, remote.name)
         for c in ls:
index 4114d92da22fdb0622d164dde282b7b9a1759d33..a9990f2aa33859cfbd37b5f0d73edbb3a06fa5f6 100644 (file)
@@ -25,7 +25,7 @@ def task(ctx, config):
     for entry in config:
         if not isinstance(entry, dict):
             entry = ctx.config.get(entry, {})
-        ((taskname, confg),) = entry.iteritems()
+        ((taskname, confg),) = entry.items()
         log.info('In full_sequential, running task %s...' % taskname)
         mgr = run_tasks.run_one_task(taskname, ctx=ctx, config=confg)
         if hasattr(mgr, '__enter__'):
index a24a344772a31384629e9cc86582babebf309454..76e3bbbdebe42bce850d0a897903a2748475a8c8 100644 (file)
@@ -40,7 +40,7 @@ def task(ctx, config):
         for entry in config:
             if not isinstance(entry, dict):
                 entry = ctx.config.get(entry, {})
-            ((taskname, confg),) = entry.iteritems()
+            ((taskname, confg),) = entry.items()
             log.info('In full_sequential_finally, running task %s...' % taskname)
             mgr = run_tasks.run_one_task(taskname, ctx=ctx, config=confg)
             if hasattr(mgr, '__enter__'):
index a798695d83a526d2b4e7fa735070ac19d827ac1a..53f07d89bc13e529eb959409719383335bec5189 100644 (file)
@@ -12,7 +12,7 @@ HADOOP_2x_URL = "https://archive.apache.org/dist/hadoop/core/hadoop-2.5.2/hadoop
 
 def dict_to_hadoop_conf(items):
     out = "<configuration>\n"
-    for key, value in items.iteritems():
+    for key, value in items.items():
         out += "  <property>\n"
         out += "    <name>" + key + "</name>\n"
         out += "    <value>" + value + "</value>\n"
index b83a7e78cc1646cf0eb33386dd7e3598de1fc95f..711660ff6c710d1abf314e9013e8c15bb7804a1a 100644 (file)
@@ -282,7 +282,7 @@ def upgrade_remote_to_config(ctx, config):
             remotes[remote] = config.get(role)
 
     result = {}
-    for remote, node in remotes.iteritems():
+    for remote, node in remotes.items():
         if not node:
             node = {}
 
@@ -316,7 +316,7 @@ def upgrade_common(ctx, config, deploy_style):
     extra_pkgs = config.get('extra_packages', [])
     log.info('extra packages: {packages}'.format(packages=extra_pkgs))
 
-    for remote, node in remotes.iteritems():
+    for remote, node in remotes.items():
 
         system_type = teuthology.get_system_type(remote)
         assert system_type in ('deb', 'rpm')
index 0c674e317e0f86c8c71876a14fd2bee38012706a..cf255a199d751e9d4af809a5b9f6341490f7a3a4 100644 (file)
@@ -142,7 +142,7 @@ def add_remotes(ctx, config):
     machs = []
     for name in ctx.config['targets'].iterkeys():
         machs.append(name)
-    for t, key in ctx.config['targets'].iteritems():
+    for t, key in ctx.config['targets'].items():
         t = misc.canonicalize_hostname(t)
         try:
             if ctx.config['sshkeys'] == 'ignore':
@@ -245,7 +245,7 @@ def serialize_remote_roles(ctx, config):
         with open(os.path.join(ctx.archive, 'info.yaml'), 'r+') as info_file:
             info_yaml = yaml.safe_load(info_file)
             info_file.seek(0)
-            info_yaml['cluster'] = dict([(rem.name, {'roles': roles}) for rem, roles in ctx.cluster.remotes.iteritems()])
+            info_yaml['cluster'] = dict([(rem.name, {'roles': roles}) for rem, roles in ctx.cluster.remotes.items()])
             yaml.safe_dump(info_yaml, info_file, default_flow_style=False)
 
 
index eba98a03cc3b1cf2bcc0ff1272a9dfa98e726cb0..ffb236fdb75ff1d06ea5df30ed710cdaa040b8d0 100644 (file)
@@ -86,7 +86,7 @@ def normalize_config(ctx, config):
         return new_config
 
     new_config = {}
-    for role, role_config in config.iteritems():
+    for role, role_config in config.items():
         if role_config is None:
             role_config = CONFIG_DEFAULT
         if '.' in role:
@@ -129,7 +129,7 @@ def normalize_and_apply_overrides(ctx, config, overrides):
         # (e.g. 'branch: foo' is overridden with 'tag: bar').  To be able to
         # use deep_merge(), drop all version keys from the original config if
         # the corresponding override has a version key.
-        for role, role_config in config.iteritems():
+        for role, role_config in config.items():
             if (role in overrides and
                     any(k in overrides[role] for k in VERSION_KEYS)):
                 for k in VERSION_KEYS:
@@ -147,7 +147,7 @@ def validate_config(ctx, config):
     :param ctx: Context
     :param config: Configuration
     """
-    for _, roles_for_host in ctx.cluster.remotes.iteritems():
+    for _, roles_for_host in ctx.cluster.remotes.items():
         kernel = None
         for role in roles_for_host:
             role_kernel = config.get(role, kernel)
@@ -307,7 +307,7 @@ def download_kernel(ctx, config):
     :param config: Configuration
     """
     procs = {}
-    for role, src in config.iteritems():
+    for role, src in config.items():
         needs_download = False
 
         if src == 'distro':
@@ -416,7 +416,7 @@ def download_kernel(ctx, config):
                 wait=False)
             procs[role_remote.name] = proc
 
-    for name, proc in procs.iteritems():
+    for name, proc in procs.items():
         log.debug('Waiting for download/copy to %s to complete...', name)
         proc.wait()
 
@@ -491,7 +491,7 @@ def install_and_reboot(ctx, config):
     """
     procs = {}
     kernel_title = ''
-    for role, src in config.iteritems():
+    for role, src in config.items():
         (role_remote,) = ctx.cluster.only(role).remotes.keys()
         if isinstance(src, str) and src.find('distro') >= 0:
             log.info('Installing distro kernel on {role}...'.format(role=role))
@@ -632,7 +632,7 @@ def install_and_reboot(ctx, config):
             )
         procs[role_remote.name] = proc
 
-    for name, proc in procs.iteritems():
+    for name, proc in procs.items():
         log.debug('Waiting for install on %s to complete...', name)
         proc.wait()
 
@@ -645,7 +645,7 @@ def enable_disable_kdb(ctx, config):
     :param ctx: Context
     :param config: Configuration
     """
-    for role, enable in config.iteritems():
+    for role, enable in config.items():
         (role_remote,) = ctx.cluster.only(role).remotes.keys()
         if "mira" in role_remote.name:
             serialdev = "ttyS2"
@@ -1229,7 +1229,7 @@ def task(ctx, config):
 
     remove_old_kernels(ctx)
 
-    for role, role_config in config.iteritems():
+    for role, role_config in config.items():
         # gather information about this remote
         (role_remote,) = ctx.cluster.only(role).remotes.keys()
         system_type = role_remote.os.name
index 1fa0152a0eeec1c4220f0f7d97d8bbafc0840886..cd48df1cca270418330e594204629fb96be2fa97 100644 (file)
@@ -29,7 +29,7 @@ def task(ctx, config):
             for entry in config.get('body', []):
                 if not isinstance(entry, dict):
                     entry = ctx.config.get(entry, {})
-                ((taskname, confg),) = entry.iteritems()
+                ((taskname, confg),) = entry.items()
                 log.info('In sequential, running task %s...' % taskname)
                 mgr = run_tasks.run_one_task(taskname, ctx=ctx, config=confg)
                 if hasattr(mgr, '__enter__'):
index d96391a5e0026dd983f1314b64eb8e7671e0ee48..6999c0aae38cc36cd3e4f95401ea4ad725ed521f 100644 (file)
@@ -52,7 +52,7 @@ def task(ctx, config):
                 # support the usual list syntax for tasks
                 if isinstance(entry, list):
                     entry = dict(sequential=entry)
-            ((taskname, confg),) = entry.iteritems()
+            ((taskname, confg),) = entry.items()
             p.spawn(_run_spawned, ctx, confg, taskname)
 
 
index f39a09c79676501f4c6cded4241f7380c98256e8..c1915201e88fda67c641ff5b6ab39ac8d7278bb8 100644 (file)
@@ -31,7 +31,7 @@ def parallel_test(ctx, config):
             """Call run for each remote host, but use 'wait=False' to have it return immediately."""
             proc = remote.run(args=['sleep', '5', run.Raw(';'), 'date', run.Raw(';'), 'hostname'], wait=False,)
             nodes[remote.name] = proc
-        for name, proc in nodes.iteritems():
+        for name, proc in nodes.items():
             """Wait for each process to finish before yielding and allowing other contextmanagers to run."""
             proc.wait()
     yield
index 742ac0010bc2228728775374f6f2925bc059e53f..573866c926829a358e54dc2533d19896c64fd1f5 100644 (file)
@@ -71,11 +71,11 @@ def _generate_remotes(ctx, config):
             (remote,) = ctx.cluster.only('client.{r}'.format(r=role)).remotes.iterkeys()
             yield (remote, ls)
         del config['clients']
-        for role, ls in config.iteritems():
+        for role, ls in config.items():
             (remote,) = ctx.cluster.only(role).remotes.iterkeys()
             yield (remote, ls)
     else:
-        for role, ls in config.iteritems():
+        for role, ls in config.items():
             (remote,) = ctx.cluster.only(role).remotes.iterkeys()
             yield (remote, ls)
 
index 767037c619f664ad75f7eb5cc8046a0f827d4178..7fb7992746647614fa491767c9babea58eeb997b 100644 (file)
@@ -49,7 +49,7 @@ class SELinux(Task):
         """
         super(SELinux, self).filter_hosts()
         new_cluster = Cluster()
-        for (remote, roles) in self.cluster.remotes.iteritems():
+        for (remote, roles) in self.cluster.remotes.items():
             if remote.is_vm:
                 msg = "Excluding {host}: VMs are not yet supported"
                 log.info(msg.format(host=remote.shortname))
index ad37108d01844e106af3bac29f7783bce0e12b46..2414336fe2904ffbddfe94771c7b74de51850904 100644 (file)
@@ -42,7 +42,7 @@ def task(ctx, config):
         for entry in config:
             if not isinstance(entry, dict):
                 entry = ctx.config.get(entry, {})
-            ((taskname, confg),) = entry.iteritems()
+            ((taskname, confg),) = entry.items()
             log.info('In sequential, running task %s...' % taskname)
             mgr = run_tasks.run_one_task(taskname, ctx=ctx, config=confg)
             if hasattr(mgr, '__enter__'):
index 3e761e6160ca85670a591f873a5c387095dff87e..1331be044b51b6e0aed7709abedfc2bbc128d019 100644 (file)
@@ -210,7 +210,7 @@ class TestGraphiteGrapher(TestPCPGrapher):
             'foo.bar baz': 'foo.bar_baz',
             'foo.*.bar baz': 'foo._all_.bar_baz',
         }
-        for in_, out in sanitized_metrics.iteritems():
+        for in_, out in sanitized_metrics.items():
             assert self.klass._sanitize_metric_name(in_) == out
 
     def test_get_target_globs(self):