]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
Use newer orchestra API
authorZack Cerza <zack.cerza@inktank.com>
Thu, 7 Aug 2014 14:24:54 +0000 (08:24 -0600)
committerZack Cerza <zack.cerza@inktank.com>
Thu, 7 Aug 2014 14:24:54 +0000 (08:24 -0600)
Signed-off-by: Zack Cerza <zack.cerza@inktank.com>
tasks/ceph.py
tasks/ceph_fuse.py
tasks/filestore_idempotent.py
tasks/locktest.py
tasks/osd_backfill.py
tasks/osd_failsafe_enospc.py
tasks/osd_recovery.py
tasks/radosgw_agent.py
tasks/restart.py

index cd24b681b7ab1d0c9e9a2650c0d8234ce8a7c29f..83d1e539fe70c79a36bccae7d8b3f7141a7876b2 100644 (file)
@@ -278,7 +278,7 @@ def valgrind_post(ctx, config):
 
         valgrind_exception = None
         for (proc, remote) in lookup_procs:
-            proc.exitstatus.get()
+            proc.wait()
             out = proc.stdout.getvalue()
             for line in out.split('\n'):
                 if line == '':
index 0dd50cbae612b2bd641836e0d051e0e196c42bf1..454473759adc6f441636e2b48de9a7b9f292ad7c 100644 (file)
@@ -201,7 +201,7 @@ def wait_until_fuse_mounted(remote, fuse, mountpoint):
         log.debug('ceph-fuse not yet mounted, got fs type {fstype!r}'.format(fstype=fstype))
 
         # it shouldn't have exited yet; exposes some trivial problems
-        assert not fuse.exitstatus.ready()
+        assert not fuse.poll()
 
         time.sleep(5)
     log.info('ceph-fuse is mounted on %s', mountpoint)
index 4e502b1f9a543c05c176a5eaf32be4aa456afe66..b38fc9a48cf097e0a0ffd0075ad6412ef1a623f3 100644 (file)
@@ -65,7 +65,7 @@ def task(ctx, config):
                 ],
             wait=False,
             check_status=False)
-        result = proc.exitstatus.get();
+        result = proc.wait();
     
         if result != 0:
             remote.run(
index 989d84ecd9c038331c53da26877c02b50f02c89b..59a7122223ebd28a86d9e63e795c960ca4528229 100755 (executable)
@@ -97,8 +97,8 @@ def task(ctx, config):
             wait=False
             )
         
-        hostresult = hostproc.exitstatus.get()
-        clientresult = clientproc.exitstatus.get()
+        hostresult = hostproc.wait()
+        clientresult = clientproc.wait()
         if (hostresult != 0) or (clientresult != 0):
             raise Exception("Did not pass locking test!")
         log.info('finished locktest executable with results {r} and {s}'. \
index d80ea22ef22484c95c754d5b28d87c5a586534f7..d034d791a5edc2707e97401c8a496227f9598869 100644 (file)
@@ -60,7 +60,7 @@ def task(ctx, config):
     # write some data
     p = rados_start(ctx, mon, ['-p', 'rbd', 'bench', '15', 'write', '-b', '4096',
                           '--no-cleanup'])
-    err = p.exitstatus.get();
+    err = p.wait();
     log.info('err is %d' % err)
 
     # mark osd.0 out to trigger a rebalance/backfill
@@ -88,7 +88,7 @@ def task(ctx, config):
     manager.revive_osd(1)
 
     # wait for our writes to complete + succeed
-    err = p.exitstatus.get()
+    err = p.wait()
     log.info('err is %d' % err)
 
     # cluster must recover
index 29e6232ab18a6cfdf0fd4a3b5ebe7b0bcb67ae59..bf089988022ad012c568915c3458f16a07f7ad0c 100644 (file)
@@ -76,7 +76,7 @@ def task(ctx, config):
 
     time.sleep(sleep_time)
     proc.stdin.close() # causes daemon-helper send SIGKILL to ceph -w
-    proc.exitstatus.get()
+    proc.wait()
 
     lines = proc.stdout.getvalue().split('\n')
 
@@ -103,7 +103,7 @@ def task(ctx, config):
 
     time.sleep(sleep_time)
     proc.stdin.close() # causes daemon-helper send SIGKILL to ceph -w
-    proc.exitstatus.get()
+    proc.wait()
 
     lines = proc.stdout.getvalue().split('\n')
 
@@ -142,7 +142,7 @@ def task(ctx, config):
 
     time.sleep(sleep_time)
     proc.stdin.close() # causes daemon-helper send SIGKILL to ceph -w
-    proc.exitstatus.get()
+    proc.wait()
 
     lines = proc.stdout.getvalue().split('\n')
 
@@ -172,7 +172,7 @@ def task(ctx, config):
 
     time.sleep(sleep_time)
     proc.stdin.close() # causes daemon-helper send SIGKILL to ceph -w
-    proc.exitstatus.get()
+    proc.wait()
 
     lines = proc.stdout.getvalue().split('\n')
 
@@ -200,7 +200,7 @@ def task(ctx, config):
 
     time.sleep(sleep_time)
     proc.stdin.close() # causes daemon-helper send SIGKILL to ceph -w
-    proc.exitstatus.get()
+    proc.wait()
 
     lines = proc.stdout.getvalue().split('\n')
 
index 1ff17335b15e79fb3006e55214973f3f20b8afc2..ff88fb47d74f2d8fcbe0f84b91ade72d0af53e47 100644 (file)
@@ -82,7 +82,7 @@ def task(ctx, config):
     manager.revive_osd(1)
 
     # wait for our writes to complete + succeed
-    err = p.exitstatus.get()
+    err = p.wait()
     log.info('err is %d' % err)
 
     # cluster must repeer
@@ -92,7 +92,7 @@ def task(ctx, config):
 
     # write some more (make sure osd.2 really is divergent)
     p = rados_start(testdir, mon, ['-p', 'rbd', 'bench', '15', 'write', '-b', '4096'])
-    p.exitstatus.get();
+    p.wait();
 
     # revive divergent osd
     manager.revive_osd(2)
@@ -159,13 +159,13 @@ def test_incomplete_pgs(ctx, config):
     p = rados_start(testdir, mon,
                     ['-p', 'rbd', 'bench', '60', 'write', '-b', '1',
                      '--no-cleanup'])
-    p.exitstatus.get()
+    p.wait()
 
     # few objects in metadata pool (with pg log, normal recovery)
     for f in range(1, 20):
         p = rados_start(testdir, mon, ['-p', 'metadata', 'put',
                               'foo.%d' % f, '/etc/passwd'])
-        p.exitstatus.get()
+        p.wait()
 
     # move it back
     manager.raw_cluster_cmd('osd', 'in', '0', '1')
index 38f8dc4a63dbb7ea007959b6733081c6385d66e6..47d5054c739dab457f86c1464420dcf63649baa3 100644 (file)
@@ -199,7 +199,7 @@ def task(ctx, config):
             for client, proc in procs:
                 log.info("shutting down sync agent on %s", client)
                 proc.stdin.close()
-                proc.exitstatus.get()
+                proc.wait()
         finally:
             for client, proc in procs:
                 ctx.cluster.only(client).run(
index 158a040ea148f31d811b20036b1c31128f24c983..bd5f9519cf8a866f9e8e1ed4d6f09bb48f8a7574 100644 (file)
@@ -150,7 +150,7 @@ def task(ctx, config):
                     proc.stdin.writelines(['restarted\n'])
                     proc.stdin.flush()
                 try:
-                    proc.exitstatus.get()
+                    proc.wait()
                 except tor.CommandFailedError:
                     raise Exception('restart task got non-zero exit status from script: {s}'.format(s=c))
     finally: