]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
qa: fix typos
authorKefu Chai <kchai@redhat.com>
Tue, 18 Sep 2018 03:21:13 +0000 (11:21 +0800)
committerKefu Chai <kchai@redhat.com>
Fri, 21 Sep 2018 04:41:42 +0000 (12:41 +0800)
Signed-off-by: Kefu Chai <kchai@redhat.com>
18 files changed:
qa/crontab/teuthology-cronjobs
qa/qa_scripts/openstack/files/glance-api.template.conf
qa/standalone/osd/osd-markdown.sh
qa/tasks/cbt.py
qa/tasks/ceph.py
qa/tasks/ceph_manager.py
qa/tasks/cephfs/test_misc.py
qa/tasks/dump_stuck.py
qa/tasks/filestore_idempotent.py
qa/tasks/qemu.py
qa/tasks/scrub.py
qa/tasks/systemd.py
qa/workunits/cephtool/test.sh
qa/workunits/fs/misc/filelock_interrupt.py
qa/workunits/fs/snaps/snaptest-parents.sh
qa/workunits/mon/osd.sh
qa/workunits/rados/test_rados_tool.sh
qa/workunits/rgw/s3_utilities.pm

index c1f68cf0ee510c536e9fbfcb4231a6f2a094ede0..d15f72ce2a1ce3fad6d4eb30f8815ceb21158e55 100644 (file)
@@ -73,7 +73,7 @@ CEPH_QA_EMAIL="ceph-qa@lists.ceph.com"
 #50 03 * * 1,6 CEPH_BRANCH=master; MACHINE_NAME=smithi;/home/teuthology/bin/cron_wrapper teuthology-suite -v -c $CEPH_BRANCH -n 7 -m $MACHINE_NAME -s samba -e $CEPH_QA_EMAIL
 59 03 * * 1,6 CEPH_BRANCH=master; MACHINE_NAME=mira;   /home/teuthology/bin/cron_wrapper teuthology-suite -v -c $CEPH_BRANCH -n 7 -m $MACHINE_NAME -s ceph-deploy -k distro -e $CEPH_QA_EMAIL
 05 04 * * 1,6 CEPH_BRANCH=master; MACHINE_NAME=ovh;    /home/teuthology/bin/cron_wrapper teuthology-suite -v -c $CEPH_BRANCH -n 7 -m $MACHINE_NAME -s ceph-ansible -k distro -e $CEPH_QA_EMAIL
-###  The suite below must run on bare-metal because it's perfromance suite and run 3 times to produce more data points
+###  The suite below must run on bare-metal because it's performance suite and run 3 times to produce more data points
 57 03 * * * CEPH_BRANCH=master; MACHINE_NAME=smithi; /home/teuthology/bin/cron_wrapper teuthology-suite -v -c $CEPH_BRANCH -n 7 -m $MACHINE_NAME -s perf-basic -k distro -e $CEPH_QA_EMAIL -N 3
 09 03 * * 6 CEPH_BRANCH=master; MACHINE_NAME=smithi; /home/teuthology/bin/cron_wrapper teuthology-suite -v -c $CEPH_BRANCH -n 7 -m $MACHINE_NAME -s powercycle -k distro -e $CEPH_QA_EMAIL
 
index 95611d4e18ca51bfefee3d5c9e41fa0ee2041fe7..956fb1bf240ed28245e1280a3d88edc7d8feb8cc 100644 (file)
@@ -893,8 +893,8 @@ rbd_store_ceph_conf=/etc/ceph/ceph.conf
 # be specified multiple times for specifying multiple datastores.
 # Either one of vmware_datastore_name or vmware_datastores is
 # required. The datastore name should be specified after its
-# datacenter path, seperated by ":". An optional weight may be given
-# after the datastore name, seperated again by ":". Thus, the required
+# datacenter path, separated by ":". An optional weight may be given
+# after the datastore name, separated again by ":". Thus, the required
 # format becomes <datacenter_path>:<datastore_name>:<optional_weight>.
 # When adding an image, the datastore with highest weight will be
 # selected, unless there is not enough free space available in cases
@@ -970,7 +970,7 @@ rbd_store_ceph_conf=/etc/ceph/ceph.conf
 #os_region_name=<None>
 os_region_name=RegionOne
 
-# Location of ca certicates file to use for cinder client requests.
+# Location of ca certificates file to use for cinder client requests.
 # (string value)
 #cinder_ca_certificates_file=<None>
 
index ca59ef47b26cf0dd2a3133ec7661cd617468a1bf..3446a27548efa35657050c770e21dadabd3f9ac0 100755 (executable)
@@ -70,7 +70,7 @@ function TEST_markdown_exceed_maxdown_count() {
     ceph tell osd.0 injectargs '--osd_max_markdown_period '$period'' || return 1
 
     markdown_N_impl $(($count+1)) $period $sleeptime
-    # down N+1 times ,the osd.0 shoud die
+    # down N+1 times ,the osd.0 should die
     ceph osd tree | grep down | grep osd.0 || return 1
 }
 
index ae2ae40f992b1d4ca26638ab6957e96fcc81cc69..31614cf349e797c6bf445f54607b863606778ed1 100644 (file)
@@ -102,7 +102,7 @@ class CBT(Task):
 
         if benchmark_type == 'cosbench':
             # install cosbench
-            self.log.info('install dependecies for cosbench')
+            self.log.info('install dependencies for cosbench')
             if system_type == 'rpm':
                 cosbench_depends = ['wget', 'unzip', 'java-1.7.0-openjdk', 'curl']
             else:
@@ -119,7 +119,7 @@ class CBT(Task):
                     args=['sudo', 'apt-get', '-y', 'purge', 'openjdk-11*'])
                 # use our own version of cosbench
                 cosbench_version = 'cosbench-0.4.2.c3.1'
-                # contains additonal parameter "-N" to nc
+                # contains additional parameter "-N" to nc
                 cosbench_location = 'http://drop.ceph.com/qa/cosbench-0.4.2.c3.1.zip'
                 cosbench_dir = os.path.join(testdir, cosbench_version)
                 self.ctx.cluster.run(args=['mkdir', '-p', '-m0755', '--', cosbench_dir])
index ce9a243269f78e96baee3d6b1b0339d67450682e..a55a69d85715999dad3afdc33a4bd7a874ebb807 100644 (file)
@@ -257,7 +257,7 @@ def assign_devs(roles, devs):
 @contextlib.contextmanager
 def valgrind_post(ctx, config):
     """
-    After the tests run, look throught all the valgrind logs.  Exceptions are raised
+    After the tests run, look through all the valgrind logs.  Exceptions are raised
     if textual errors occurred in the logs, or if valgrind exceptions were detected in
     the logs.
 
@@ -390,7 +390,7 @@ def cluster(ctx, config):
         Create directories needed for the cluster.
         Create remote journals for all osds.
         Create and set keyring.
-        Copy the monmap to tht test systems.
+        Copy the monmap to the test systems.
         Setup mon nodes.
         Setup mds nodes.
         Mkfs osd nodes.
@@ -936,7 +936,7 @@ def cluster(ctx, config):
 
         def first_in_ceph_log(pattern, excludes):
             """
-            Find the first occurence of the pattern specified in the Ceph log,
+            Find the first occurrence of the pattern specified in the Ceph log,
             Returns None if none found.
 
             :param pattern: Pattern scanned for.
@@ -1060,7 +1060,7 @@ def osd_scrub_pgs(ctx, config):
     First make sure all pgs are active and clean.
     Next scrub all osds.
     Then periodically check until all pgs have scrub time stamps that
-    indicate the last scrub completed.  Time out if no progess is made
+    indicate the last scrub completed.  Time out if no progress is made
     here after two minutes.
     """
     retries = 40
@@ -1116,7 +1116,7 @@ def osd_scrub_pgs(ctx, config):
             if gap_cnt % 6 == 0:
                 for (pgid, tmval) in timez:
                     # re-request scrub every so often in case the earlier
-                    # request was missed.  do not do it everytime because
+                    # request was missed.  do not do it every time because
                     # the scrub may be in progress or not reported yet and
                     # we will starve progress.
                     manager.raw_cluster_cmd('pg', 'deep-scrub', pgid)
index 7c8de372982bf5d663a16ccf9034e26e9635e72d..9638670a1574689ef55549d4cd4684fa1588f0fc 100644 (file)
@@ -1464,7 +1464,7 @@ class CephManager:
     def wait_run_admin_socket(self, service_type,
                               service_id, args=['version'], timeout=75, stdout=None):
         """
-        If osd_admin_socket call suceeds, return.  Otherwise wait
+        If osd_admin_socket call succeeds, return.  Otherwise wait
         five seconds and try again.
         """
         if stdout is None:
index b72c92578fa79a25c59cb3f387ee36ee109dbfaf..b14c86ec970a9a9a5e1f0740b20d51b2cec29bb5 100644 (file)
@@ -16,7 +16,7 @@ class TestMisc(CephFSTestCase):
     def test_getattr_caps(self):
         """
         Check if MDS recognizes the 'mask' parameter of open request.
-        The paramter allows client to request caps when opening file
+        The parameter allows client to request caps when opening file
         """
 
         if not isinstance(self.mount_a, FuseMount):
@@ -34,7 +34,7 @@ class TestMisc(CephFSTestCase):
         p = self.mount_a.open_background("testfile")
         self.mount_b.wait_for_visible("testfile")
 
-        # this tiggers a lookup request and an open request. The debug
+        # this triggers a lookup request and an open request. The debug
         # code will check if lookup/open reply contains xattrs
         self.mount_b.run_shell(["cat", "testfile"])
 
index 39429d2c348193d1505e453a214c99af7f721989..c5209d749a0b10bf542c4e61c6cddda630e006d0 100644 (file)
@@ -13,7 +13,7 @@ log = logging.getLogger(__name__)
 
 def check_stuck(manager, num_inactive, num_unclean, num_stale, timeout=10):
     """
-    Do checks.  Make sure get_stuck_pgs return the right amout of information, then
+    Do checks.  Make sure get_stuck_pgs return the right amount of information, then
     extract health information from the raw_cluster_cmd and compare the results with
     values passed in.  This passes if all asserts pass.
  
index e091148da43c8b4bd1afb81f5634dd1b44b0965f..75c38a04f46a8f67f68fbfe0e78b059991183b11 100644 (file)
@@ -13,7 +13,7 @@ def task(ctx, config):
     """
     Test filestore/filejournal handling of non-idempotent events.
 
-    Currently this is a kludge; we require the ceph task preceeds us just
+    Currently this is a kludge; we require the ceph task precedes us just
     so that we get the tarball installed to run the test binary.
 
     :param ctx: Context
index 7a1abe8f5e9a8189b115332c3fcccb6d52654f77..d6f256f7c7b94154c5a19702c361cf4578becf5e 100644 (file)
@@ -272,7 +272,7 @@ def _setup_nfs_mount(remote, client, mount_dir):
     """
     Sets up an nfs mount on the remote that the guest can use to
     store logs. This nfs mount is also used to touch a file
-    at the end of the test to indiciate if the test was successful
+    at the end of the test to indicate if the test was successful
     or not.
     """
     export_dir = "/export/{client}".format(client=client)
index 9800d1e98a55d1dd032ef33208b6bec4e5fab3cb..a6194c2c7ce534705cba42730e9783c99077a996 100644 (file)
@@ -63,7 +63,7 @@ def task(ctx, config):
 
 class Scrubber:
     """
-    Scrubbing is actually performed during initialzation
+    Scrubbing is actually performed during initialization
     """
     def __init__(self, manager, config):
         """
index 50471db31ea80e7c644c9b4a5c9ee78b74e2577c..d5e7b255dfd7cc25e003e321f008d42d6ca2336e 100644 (file)
@@ -45,7 +45,7 @@ def task(ctx, config):
         r = remote.run(args=['sudo', 'ps', '-eaf', run.Raw('|'),
                              'grep', 'ceph'], stdout=StringIO())
         if r.stdout.getvalue().find('Active: inactive'):
-            log.info("Sucessfully stopped all ceph services")
+            log.info("Successfully stopped all ceph services")
         else:
             log.info("Failed to stop ceph services")
 
@@ -55,7 +55,7 @@ def task(ctx, config):
                        stdout=StringIO())
         log.info(r.stdout.getvalue())
         if r.stdout.getvalue().find('Active: active'):
-            log.info("Sucessfully started all Ceph services")
+            log.info("Successfully started all Ceph services")
         else:
             log.info("info", "Failed to start Ceph services")
         r = remote.run(args=['sudo', 'ps', '-eaf', run.Raw('|'),
@@ -83,7 +83,7 @@ def task(ctx, config):
                            stdout=StringIO(), check_status=False)
             log.info(r.stdout.getvalue())
             if r.stdout.getvalue().find('Active: inactive'):
-                log.info("Sucessfully stopped single osd ceph service")
+                log.info("Successfully stopped single osd ceph service")
             else:
                 log.info("Failed to stop ceph osd services")
             remote.run(args=['sudo', 'systemctl', 'start',
@@ -96,7 +96,7 @@ def task(ctx, config):
             r = remote.run(args=['sudo', 'systemctl', 'status', mon_name],
                            stdout=StringIO(), check_status=False)
             if r.stdout.getvalue().find('Active: inactive'):
-                log.info("Sucessfully stopped single mon ceph service")
+                log.info("Successfully stopped single mon ceph service")
             else:
                 log.info("Failed to stop ceph mon service")
             remote.run(args=['sudo', 'systemctl', 'start', mon_name])
@@ -108,7 +108,7 @@ def task(ctx, config):
             r = remote.run(args=['sudo', 'systemctl', 'status', mgr_name],
                            stdout=StringIO(), check_status=False)
             if r.stdout.getvalue().find('Active: inactive'):
-                log.info("Sucessfully stopped single ceph mgr service")
+                log.info("Successfully stopped single ceph mgr service")
             else:
                 log.info("Failed to stop ceph mgr service")
             remote.run(args=['sudo', 'systemctl', 'start', mgr_name])
@@ -120,7 +120,7 @@ def task(ctx, config):
             r = remote.run(args=['sudo', 'systemctl', 'status', mds_name],
                            stdout=StringIO(), check_status=False)
             if r.stdout.getvalue().find('Active: inactive'):
-                log.info("Sucessfully stopped single ceph mds service")
+                log.info("Successfully stopped single ceph mds service")
             else:
                 log.info("Failed to stop ceph mds service")
             remote.run(args=['sudo', 'systemctl', 'start', mds_name])
index cdbe55b3e9d2060aaa90d6c843e7cc4c75507183..2367beaef3fb062b87f701451372528ee961f0bf 100755 (executable)
@@ -275,7 +275,7 @@ function test_mon_injectargs_IEC()
   # actually expect IEC units to be passed.
   # Keep in mind that all integer based options that are based on bytes
   # (i.e., INT, LONG, U32, U64) will accept IEC unit modifiers, as well as SI
-  # unit modifiers (for backwards compatibility and convinience) and be parsed
+  # unit modifiers (for backwards compatibility and convenience) and be parsed
   # to base 2.
   initial_value=$(get_config_value_or_die "mon.a" "mon_data_size_warn")
   $SUDO ceph daemon mon.a config set mon_data_size_warn 15000000000
index 2a413a66e83531dc86112f22b5679d03bc3740fb..7b5b3e7d8553f4cf14beb784ddd0a33b6a2df2df 100755 (executable)
@@ -24,7 +24,7 @@ def main():
     fcntl.flock(f1, fcntl.LOCK_SH | fcntl.LOCK_NB)
 
     """
-    is flock interruptable?
+    is flock interruptible?
     """
     signal.signal(signal.SIGALRM, handler)
     signal.alarm(5)
@@ -52,7 +52,7 @@ def main():
     fcntl.fcntl(f2, fcntl.F_OFD_SETLK, lockdata)
 
     """
-    is poxis lock interruptable?
+    is posix lock interruptible?
     """
     signal.signal(signal.SIGALRM, handler)
     signal.alarm(5)
index 3e9b85c51a11d30a6100fcb4b9c74ebd08560f7f..a66a977fd572442fb7af67f84da107b52fc594df 100755 (executable)
@@ -35,7 +35,7 @@ echo "comparing snapshots and new tree"
 dir1=`find 1/ | wc -w`
 dir2=`find 2/.snap/barsnap2/a/b/c | wc -w`
 #diff $dir1 $dir2 && echo "Success!"
-test $dir1==$dir2 && echo "Sucess!"
+test $dir1==$dir2 && echo "Success!"
 rmdir 1/.snap/*
 rmdir 2/.snap/*
 echo "OK"
index 75bf220f6bcdfff7101cca86fca81a6ea0df0cf3..535d6c137912709fe334a190024fddf4e608b6a1 100755 (executable)
@@ -5,7 +5,7 @@ set -e
 ua=`uuidgen`
 ub=`uuidgen`
 
-# shoudl get same id with same uuid
+# should get same id with same uuid
 na=`ceph osd create $ua`
 test $na -eq `ceph osd create $ua`
 
index 429a7d34211d118a316df2af55631d0d780523d0..2536f88d54f18a9ef0012f31d6cf3477007670d7 100755 (executable)
@@ -43,7 +43,7 @@ run_expect_succ() {
 run_expect_nosignal() {
     echo "RUN_EXPECT_NOSIGNAL: " "$@"
     do_run "$@"
-    [ $? -ge 128 ] && die "expected succes or fail, but got signal! cmd: $@"
+    [ $? -ge 128 ] && die "expected success or fail, but got signal! cmd: $@"
 }
 
 run() {
index 8492dd328dcf595d62386acb879325e253083436..12e6af0ad65cb8ce8309aa87e72b2760967db4a5 100644 (file)
@@ -199,7 +199,7 @@ sub delete_keys {
    (($bucket->delete_key($_[0])) and return 0) or return 1;
 }
 
-# Readd the file back to bucket 
+# Read the file back to bucket 
 sub readd_file {
     system("dd if=/dev/zero of=/tmp/10MBfile1 bs=10485760 count=1");
     $mytestfilename1 = '10MBfile1';