]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
rgw: fix spelling errors 51229/head
authorJosh Soref <2119212+jsoref@users.noreply.github.com>
Thu, 23 Jun 2022 01:24:12 +0000 (21:24 -0400)
committerJosh Soref <2119212+jsoref@users.noreply.github.com>
Mon, 27 Nov 2023 15:27:32 +0000 (10:27 -0500)
* access
* acquire
* across
* algorithm
* alternatively
* ambiguous
* attributes
* authenticated
* automatically
* based
* between
* beware
* bootstrap
* bucket
* cache
* character
* check
* cleanup
* combinations
* committed
* comparison
* compatibility
* concurrent
* conditions
* conjunction
* connections
* considered
* contains
* correct
* creates
* crypto
* dependencies
* dequeued
* dequeuing
* derivative
* described
* determine
* deterministic
* detritus
* discrepancy
* display
* either way
* elements
* entirely
* entries
* error
* everything
* expected
* explicitly
* extend
* false
* fclose
* feature
* following
* foreign
* format
* forward
* functionality
* functions
* generated
* getting
* gracefully
* happened
* hashicorp
* healthcheck
* hierarchy
* however
* http
* identify
* idleness
* ignored
* incremental
* information
* initialization
* length
* locally
* macros
* malformed
* means
* mechanism
* multipart
* multiple
* must
* namespace
* necessary
* nonexistent
* notifications
* occurred
* official
* outputs
* outputted
* overridden
* ownership
* parallelism
* partition
* passthrough
* pause
* penguin
* perform
* permission
* populated
* position
* preferably
* prefixes
* presumably
* previous
* print
* quadruple
* reference
* regardless
* registry
* renewed
* request
* requires
* reshard
* resource
* result to
* satisfy
* secret
* separate
* separator
* setting
* shouldn't
* skipping
* some
* somehow
* something
* specific
* struct
* succeeded
* success
* successful
* successfully
* syntax
* testing
* truncated
* unambiguously
* unittest
* unmodified
* unnecessary
* valid_action
* verifying
* versioning
* visible
* whatever
* whenever

Signed-off-by: Josh Soref <2119212+jsoref@users.noreply.github.com>
100 files changed:
examples/rgw/golang/object-upload/README.md
examples/rgw/java/ceph-s3-upload/README.md
qa/tasks/pykmip.py
qa/tasks/s3tests_java.py
qa/tasks/vault.py
qa/workunits/rgw/s3_bucket_quota.pl
qa/workunits/rgw/s3_user_quota.pl
qa/workunits/rgw/test_librgw_file.sh
qa/workunits/rgw/test_rgw_datacache.py
src/cls/2pc_queue/cls_2pc_queue.cc
src/cls/refcount/cls_refcount_client.h
src/cls/rgw/cls_rgw.cc
src/cls/rgw/cls_rgw_client.cc
src/cls/rgw/cls_rgw_client.h
src/cls/rgw/cls_rgw_const.h
src/cls/rgw/cls_rgw_ops.h
src/cls/rgw/cls_rgw_types.h
src/rgw/driver/dbstore/common/dbstore.h
src/rgw/driver/dbstore/sqlite/sqliteDB.cc
src/rgw/driver/motr/rgw_sal_motr.cc
src/rgw/driver/motr/rgw_sal_motr.h
src/rgw/driver/rados/rgw_bucket.h
src/rgw/driver/rados/rgw_cr_rados.cc
src/rgw/driver/rados/rgw_d3n_datacache.cc
src/rgw/driver/rados/rgw_data_sync.cc
src/rgw/driver/rados/rgw_datalog.cc
src/rgw/driver/rados/rgw_lc_tier.cc
src/rgw/driver/rados/rgw_notify.cc
src/rgw/driver/rados/rgw_notify.h
src/rgw/driver/rados/rgw_putobj_processor.cc
src/rgw/driver/rados/rgw_rados.cc
src/rgw/driver/rados/rgw_rest_log.h
src/rgw/driver/rados/rgw_sal_rados.cc
src/rgw/driver/rados/rgw_sync.cc
src/rgw/driver/rados/rgw_sync_module_aws.cc
src/rgw/driver/rados/rgw_sync_module_es.cc
src/rgw/driver/rados/rgw_zone.h
src/rgw/jwt-cpp/jwt.h
src/rgw/rgw-gap-list
src/rgw/rgw-orphan-list
src/rgw/rgw_acl_swift.cc
src/rgw/rgw_admin.cc
src/rgw/rgw_amqp.cc
src/rgw/rgw_asio_client.cc
src/rgw/rgw_asio_frontend.cc
src/rgw/rgw_auth.h
src/rgw/rgw_auth_keystone.cc
src/rgw/rgw_basic_types.h
src/rgw/rgw_common.cc
src/rgw/rgw_common.h
src/rgw/rgw_crypt.cc
src/rgw/rgw_env.cc
src/rgw/rgw_file.cc
src/rgw/rgw_iam_policy.cc
src/rgw/rgw_kafka.cc
src/rgw/rgw_keystone.cc
src/rgw/rgw_kmip_client_impl.cc
src/rgw/rgw_lc.cc
src/rgw/rgw_lib.cc
src/rgw/rgw_lib.h
src/rgw/rgw_lua_background.h
src/rgw/rgw_lua_utils.cc
src/rgw/rgw_lua_utils.h
src/rgw/rgw_op.cc
src/rgw/rgw_op.h
src/rgw/rgw_perf_counters.cc
src/rgw/rgw_period_history.cc
src/rgw/rgw_pubsub.cc
src/rgw/rgw_realm_reloader.cc
src/rgw/rgw_rest.cc
src/rgw/rgw_rest_pubsub.cc
src/rgw/rgw_rest_ratelimit.cc
src/rgw/rgw_rest_s3.cc
src/rgw/rgw_rest_sts.cc
src/rgw/rgw_rest_swift.cc
src/rgw/rgw_s3select.cc
src/rgw/rgw_s3select_private.h
src/rgw/rgw_sal.h
src/rgw/rgw_sal_dbstore.cc
src/rgw/rgw_sts.cc
src/rgw/rgw_swift_auth.cc
src/rgw/rgw_sync_policy.h
src/rgw/rgw_zone_types.h
src/rgw/services/svc_rados.cc
src/test/cls_2pc_queue/test_cls_2pc_queue.cc
src/test/cls_queue/test_cls_queue.cc
src/test/cls_rgw/test_cls_rgw.cc
src/test/cls_rgw/test_cls_rgw_stats.cc
src/test/rgw/CMakeLists.txt
src/test/rgw/bucket_notification/api.py
src/test/rgw/bucket_notification/test_bn.py
src/test/rgw/rgw_multi/tests_az.py
src/test/rgw/test-ceph-diff-sorted.sh
src/test/rgw/test_multi.md
src/test/rgw/test_rgw_amqp.cc
src/test/rgw/test_rgw_kms.cc
src/test/rgw/test_rgw_lua.cc
src/test/rgw/test_rgw_xml.cc
src/test/test_rgw_admin_log.cc
src/test/test_rgw_admin_meta.cc

index 31ea00006d61ab1562d804cf530038bba15058d2..a859667009e3bd079424908ad1326395f667e594 100644 (file)
@@ -2,7 +2,7 @@
 This directory contains Golang code examples on how to upload an object to an S3 bucket running on a Ceph RGW cluster.
 
 # Prerequisite
-Linux machine running an RGW Ceph cluster. Preferrably started with the ``OSD=1 MON=1 MDS=0 MGR=0 RGW=1 ../src/vstart.sh --debug --new `` command.
+Linux machine running an RGW Ceph cluster. Preferably started with the ``OSD=1 MON=1 MDS=0 MGR=0 RGW=1 ../src/vstart.sh --debug --new `` command.
 Go installed on the Linux machine.
 
 ## Workflow Procedure
index 235d43666d1c142079432f4dd7220c64001663b3..fbd7d749b02b3abc5899c05535b1ed972214c24b 100644 (file)
@@ -2,7 +2,7 @@
 This directory contains Java code examples on how to upload an object to an S3 bucket running on a Ceph RGW cluster.
 
 # Prerequisites
-Linux machine running an RGW Ceph cluster. Preferrably started with the ``OSD=1 MON=1 MDS=0 MGR=0 RGW=1 ../src/vstart.sh --debug --new `` command.  
+Linux machine running an RGW Ceph cluster. Preferably started with the ``OSD=1 MON=1 MDS=0 MGR=0 RGW=1 ../src/vstart.sh --debug --new `` command.  
 Java and Maven installed on the Linux machine.  
 
 ## Workflow Procedure
index 45a5af6891b5c22eaadb98d83b37ebef2f013fe3..3ab08a301aa0a9121c9334a4e1d8cfb2cb719634 100644 (file)
@@ -106,7 +106,7 @@ def install_packages(ctx, config):
     passed in to the main task.
     """
     assert isinstance(config, dict)
-    log.info('Installing system dependenies for PyKMIP...')
+    log.info('Installing system dependencies for PyKMIP...')
 
     packages = {}
     for (client, _) in config.items():
index dbe03921c60169830d03c2e96820ca701adb54a4..78a1edb6f613d1d03a6c1267a86b8c924057705e 100644 (file)
@@ -182,7 +182,7 @@ class S3tests_java(Task):
         Configuration is read from a skelethon config file
         s3tests.teuth.config.yaml in the java-s3tests repository
         and missing information is added from the task.
-        Existing values are NOT overriden unless they are empty!
+        Existing values are NOT overridden unless they are empty!
         """
         log.info("S3 Tests Java: Creating S3 users...")
         testdir = teuthology.get_testdir(self.ctx)
index 2ff008c4dbef7f7ffbb3aa77bfac1766733f0b15..ae874eb55e35e31a7e3918a774af153f1f1c2dcf 100644 (file)
@@ -38,7 +38,7 @@ def assign_ports(ctx, config, initial_port):
 @contextlib.contextmanager
 def download(ctx, config):
     """
-    Download Vault Release from Hashicopr website.
+    Download Vault Release from Hashicorp website.
     Remove downloaded file upon exit.
     """
     assert isinstance(config, dict)
index 7f5476ef676c761a859be5a55c62932dab16ea29..6f0552ab7018c932b0058709bf1e377e3746d632 100755 (executable)
@@ -16,7 +16,7 @@ Examples:
 
 =head1 DESCRIPTION
 
-This script intends to test the rgw bucket quota funcionality using s3 interface 
+This script intends to test the rgw bucket quota functionality using s3 interface 
 and reports the test results
 
 =head1 ARGUMENTS
index 6d5c02a9a0152add9b01ca5f98f54c2707604bae..04546eac8404557c5fa9359b53db1e243a715e1c 100755 (executable)
@@ -16,7 +16,7 @@ Examples:
 
 =head1 DESCRIPTION
 
-This script intends to test the rgw user quota funcionality using s3 interface
+This script intends to test the rgw user quota functionality using s3 interface
 and reports the test results
 
 =head1 ARGUMENTS
index 1371ff711075556f9f3b31195160bb56c4af6e98..4b9dfeb41210d524bbbfa2e114eab4a05011c4b6 100755 (executable)
@@ -19,7 +19,7 @@ fi
 
 # nfsns is the main suite
 
-# create herarchy, and then list it
+# create hierarchy, and then list it
 echo "phase 1.1"
 ceph_test_librgw_file_nfsns ${K} --hier1 --dirs1 --create --rename --verbose
 
index f070ec0f17998f5a13e22498884acedec9fb2558..2af2a0d3aa3d69b23c940a570f694e294c6cffc0 100755 (executable)
@@ -202,7 +202,7 @@ def main():
     # remove datacache dir
     #cmd = exec_cmd('rm -rf %s' % (cache_dir))
     #log.debug("RGW Datacache dir deleted")
-    #^ commenting for future refrence - the work unit will continue running tests and if the cache_dir is removed
+    #^ commenting for future reference - the work unit will continue running tests and if the cache_dir is removed
     #  all the writes to cache will fail with errno 2 ENOENT No such file or directory.
 
 main()
index 1e99503943a3512209f694e996acc5239618887a..759d360b014846ec0736020b9a004290322bea94 100644 (file)
@@ -135,7 +135,7 @@ static int cls_2pc_queue_reserve(cls_method_context_t hctx, bufferlist *in, buff
   }
 
   urgent_data.reserved_size += res_op.size + overhead;
-  // note that last id is incremented regadless of failures
+  // note that last id is incremented regardless of failures
   // to avoid "old reservation" issues below
   ++urgent_data.last_id;
   bool result;
index 73a23a7ee28db48cda086745fcd180e137fc1aa1..17af7a78ef3e0c9cba7ea84e6cc530b2a6101417 100644 (file)
@@ -19,7 +19,7 @@
  * So, the regular usage would be to create an object, to increase the refcount. Then, when
  * wanting to have another reference to it, increase the refcount using a different tag. When
  * removing a reference it is required to drop the refcount (using the same tag that was used
- * for that reference). When the refcount drops to zero, the object is removed automaticfally.
+ * for that reference). When the refcount drops to zero, the object is removed automatically.
  *
  * In order to maintain backwards compatibility with objects that were created without having
  * their refcount increased, the implicit_ref was added. Any object that was created without
index 75a37bad63428404b86b2e3b0450ee802a73f45e..034660a11ed12de69efd1b2f4e5abf7f33f66ed7 100644 (file)
@@ -518,7 +518,7 @@ int rgw_bucket_list(cls_method_context_t hctx, bufferlist *in, bufferlist *out)
   std::string start_after_omap_key;
   encode_list_index_key(hctx, op.start_obj, &start_after_omap_key);
 
-  // this is set whenenver start_after_omap_key is set to keep them in
+  // this is set whenever start_after_omap_key is set to keep them in
   // sync since this will be the returned marker when a marker is
   // returned
   cls_rgw_obj_key start_after_entry_key;
@@ -3181,7 +3181,7 @@ int rgw_bucket_check_index(cls_method_context_t hctx, bufferlist *in, bufferlist
  * Additionally, each of the three segment functions, if successful,
  * is expected to return the number of entries added to the output
  * list as a non-negative value. As per usual, negative return values
- * indicate error condtions.
+ * indicate error conditions.
  */
 static int rgw_bi_list_op(cls_method_context_t hctx,
                          bufferlist *in,
@@ -4457,7 +4457,7 @@ static int rgw_reshard_list(cls_method_context_t hctx, bufferlist *in, bufferlis
   try {
     decode(op, in_iter);
   } catch (ceph::buffer::error& err) {
-    CLS_LOG(1, "ERROR: rgw_cls_rehard_list(): failed to decode entry\n");
+    CLS_LOG(1, "ERROR: rgw_cls_reshard_list(): failed to decode entry\n");
     return -EINVAL;
   }
   cls_rgw_reshard_list_ret op_ret;
@@ -4476,7 +4476,7 @@ static int rgw_reshard_list(cls_method_context_t hctx, bufferlist *in, bufferlis
     try {
       decode(entry, iter);
     } catch (ceph::buffer::error& err) {
-      CLS_LOG(1, "ERROR: rgw_cls_rehard_list(): failed to decode entry\n");
+      CLS_LOG(1, "ERROR: rgw_cls_reshard_list(): failed to decode entry\n");
       return -EIO;
    }
     op_ret.entries.push_back(entry);
@@ -4521,7 +4521,7 @@ static int rgw_reshard_remove(cls_method_context_t hctx, bufferlist *in, bufferl
   try {
     decode(op, in_iter);
   } catch (ceph::buffer::error& err) {
-    CLS_LOG(1, "ERROR: rgw_cls_rehard_remove: failed to decode entry\n");
+    CLS_LOG(1, "ERROR: rgw_cls_reshard_remove: failed to decode entry\n");
     return -EINVAL;
   }
 
index 5e7fba88f24a1e386989af0b6a8af4616abb787c..ed2be322da54578c5cbf9307aa8c10965419026e 100644 (file)
@@ -79,7 +79,7 @@ int CLSRGWConcurrentIO::operator()() {
     cleanup();
   }
   return ret;
-} // CLSRGWConcurrintIO::operator()()
+} // CLSRGWConcurrentIO::operator()()
 
 
 /**
@@ -186,7 +186,7 @@ bool BucketIndexAioManager::wait_for_completions(int valid_ret_code,
   return true;
 }
 
-// note: currently only called by tesing code
+// note: currently only called by testing code
 void cls_rgw_bucket_init_index(ObjectWriteOperation& o)
 {
   bufferlist in;
index 1ae49c877bb4d6165580685101ca9395e0096f37..3db73065171298d8b17c62c8f64e2c521fc8ad41 100644 (file)
@@ -405,7 +405,7 @@ int cls_rgw_usage_log_trim(librados::IoCtx& io_ctx, const std::string& oid, cons
 /**
  * Std::list the bucket with the starting object and filter prefix.
  * NOTE: this method do listing requests for each bucket index shards identified by
- *       the keys of the *list_results* std::map, which means the std::map should be popludated
+ *       the keys of the *list_results* std::map, which means the std::map should be populated
  *       by the caller to fill with each bucket index object id.
  *
  * io_ctx        - IO context for rados.
index 8595db3c9e8b930ddb44ba51a85012b9eaa6fcae..a3398ebd0164a89ccf42a1e763795739b7dcb27c 100644 (file)
@@ -6,7 +6,7 @@
 #define RGW_CLASS "rgw"
 
 /* Special error code returned by cls bucket list operation if it was
- * unable to skip past enough not visibile entries to return any
+ * unable to skip past enough not visible entries to return any
  * entries in the call. */
 constexpr int RGWBIAdvanceAndRetryError = -EFBIG;
 
index 4d58909a76708d72bb3e9c980e4e8601767c9408..a4d76de108ba0357b94ada2d39798e8a2d93e7b6 100644 (file)
@@ -430,7 +430,7 @@ struct rgw_cls_list_ret {
   // if is_truncated is true, starting marker for next iteration; this
   // is necessary as it's possible after maximum number of tries we
   // still might have zero entries to return, in which case we have to
-  // at least move the ball foward
+  // at least move the ball forward
   cls_rgw_obj_key marker;
 
   // cls_filtered is not transmitted; it is assumed true for versions
@@ -758,7 +758,7 @@ WRITE_CLASS_ENCODER(rgw_cls_bi_put_op)
 
 struct rgw_cls_bi_list_op {
   uint32_t max;
-  std::string name_filter; // limit resultto one object and its instances
+  std::string name_filter; // limit result to one object and its instances
   std::string marker;
 
   rgw_cls_bi_list_op() : max(0) {}
index 5f94b9918fa46d5ae88834a81c4d1f67d1f54f07..7b6b46101ccc0cd1759d968da2510c41b211947f 100644 (file)
@@ -132,7 +132,7 @@ inline uint64_t cls_rgw_get_rounded_size(uint64_t size) {
  * path that ends with a delimiter and appends a new character to the
  * end such that when a we request bucket-index entries *after* this,
  * we'll get the next object after the "subdirectory". This works
- * because we append a '\xFF' charater, and no valid UTF-8 character
+ * because we append a '\xFF' character, and no valid UTF-8 character
  * can contain that byte, so no valid entries can be skipped.
  */
 inline std::string cls_rgw_after_delim(const std::string& path) {
@@ -181,7 +181,7 @@ enum class RGWObjCategory : uint8_t {
 
   Main      = 1,  // b-i entries for standard objs
 
-  Shadow    = 2,  // presumfably intended for multipart shadow
+  Shadow    = 2,  // presumably intended for multipart shadow
                   // uploads; not currently used in the codebase
 
   MultiMeta = 3,  // b-i entries for multipart upload metadata objs
index d3bdf88053817cc2aa2e152fcb41bbd88cd46075..fc436d55df800a94cfbe04d97c7026e084728bb2 100644 (file)
@@ -156,7 +156,7 @@ struct DBOpParams {
  * Difference with above structure is that all 
  * the fields are strings here to accommodate any
  * style identifiers used by backend db. By default
- * initialized with sqlitedb style, can be overriden
+ * initialized with sqlitedb style, can be overridden
  * using InitPrepareParams()
  *
  * These identifiers are used in prepare and bind statements
@@ -605,7 +605,7 @@ class DBOp {
       REFERENCES '{}' (BucketName) ON DELETE CASCADE ON UPDATE CASCADE \n);";
 
     static constexpr std::string_view CreateObjectViewQ =
-      /* This query creats temporary view with entries from ObjectData table which have
+      /* This query creates temporary view with entries from ObjectData table which have
        * corresponding head object (i.e, with same ObjName, ObjInstance, ObjNS, ObjID)
        * in the Object table.
        *
@@ -711,8 +711,8 @@ class InsertUserOp : virtual public DBOp {
   private:
     /* For existing entires, -
      * (1) INSERT or REPLACE - it will delete previous entry and then
-     * inserts new one. Since it deletes previos enties, it will
-     * trigger all foriegn key cascade deletes or other triggers.
+     * inserts new one. Since it deletes previous entries, it will
+     * trigger all foreign key cascade deletes or other triggers.
      * (2) INSERT or UPDATE - this will set NULL values to unassigned
      * fields.
      * more info: https://code-examples.net/en/q/377728
index dc244c07b3437ad7291fac28969941a6933ab3dc..81c716c27f184dba26a328786e84a349b9f0036a 100644 (file)
@@ -758,7 +758,7 @@ int SQLiteDB::createUserTable(const DoutPrefixProvider *dpp, DBOpParams *params)
   if (ret)
     ldpp_dout(dpp, 0)<<"CreateUserTable failed" << dendl;
 
-  ldpp_dout(dpp, 20)<<"CreateUserTable suceeded" << dendl;
+  ldpp_dout(dpp, 20)<<"CreateUserTable succeeded" << dendl;
 
   return ret;
 }
@@ -774,7 +774,7 @@ int SQLiteDB::createBucketTable(const DoutPrefixProvider *dpp, DBOpParams *param
   if (ret)
     ldpp_dout(dpp, 0)<<"CreateBucketTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"CreateBucketTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"CreateBucketTable succeeded " << dendl;
 
   return ret;
 }
@@ -790,7 +790,7 @@ int SQLiteDB::createObjectTable(const DoutPrefixProvider *dpp, DBOpParams *param
   if (ret)
     ldpp_dout(dpp, 0)<<"CreateObjectTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"CreateObjectTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"CreateObjectTable succeeded " << dendl;
 
   return ret;
 }
@@ -806,7 +806,7 @@ int SQLiteDB::createObjectTableTrigger(const DoutPrefixProvider *dpp, DBOpParams
   if (ret)
     ldpp_dout(dpp, 0)<<"CreateObjectTableTrigger failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"CreateObjectTableTrigger suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"CreateObjectTableTrigger succeeded " << dendl;
 
   return ret;
 }
@@ -822,7 +822,7 @@ int SQLiteDB::createObjectView(const DoutPrefixProvider *dpp, DBOpParams *params
   if (ret)
     ldpp_dout(dpp, 0)<<"CreateObjectView failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"CreateObjectView suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"CreateObjectView succeeded " << dendl;
 
   return ret;
 }
@@ -838,7 +838,7 @@ int SQLiteDB::createQuotaTable(const DoutPrefixProvider *dpp, DBOpParams *params
   if (ret)
     ldpp_dout(dpp, 0)<<"CreateQuotaTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"CreateQuotaTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"CreateQuotaTable succeeded " << dendl;
 
   return ret;
 }
@@ -854,7 +854,7 @@ int SQLiteDB::createObjectDataTable(const DoutPrefixProvider *dpp, DBOpParams *p
   if (ret)
     ldpp_dout(dpp, 0)<<"CreateObjectDataTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"CreateObjectDataTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"CreateObjectDataTable succeeded " << dendl;
 
   return ret;
 }
@@ -875,7 +875,7 @@ int SQLiteDB::createLCTables(const DoutPrefixProvider *dpp)
     ldpp_dout(dpp, 0)<<"CreateLCEntryTable failed" << dendl;
     return ret;
   }
-  ldpp_dout(dpp, 20)<<"CreateLCEntryTable suceeded" << dendl;
+  ldpp_dout(dpp, 20)<<"CreateLCEntryTable succeeded" << dendl;
 
   schema = CreateTableSchema("LCHead", &params);
   ret = exec(dpp, schema.c_str(), NULL);
@@ -883,7 +883,7 @@ int SQLiteDB::createLCTables(const DoutPrefixProvider *dpp)
     ldpp_dout(dpp, 0)<<"CreateLCHeadTable failed" << dendl;
     (void)DeleteLCEntryTable(dpp, &params);
   }
-  ldpp_dout(dpp, 20)<<"CreateLCHeadTable suceeded" << dendl;
+  ldpp_dout(dpp, 20)<<"CreateLCHeadTable succeeded" << dendl;
 
   return ret;
 }
@@ -899,7 +899,7 @@ int SQLiteDB::DeleteUserTable(const DoutPrefixProvider *dpp, DBOpParams *params)
   if (ret)
     ldpp_dout(dpp, 0)<<"DeleteUserTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"DeleteUserTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"DeleteUserTable succeeded " << dendl;
 
   return ret;
 }
@@ -915,7 +915,7 @@ int SQLiteDB::DeleteBucketTable(const DoutPrefixProvider *dpp, DBOpParams *param
   if (ret)
     ldpp_dout(dpp, 0)<<"DeletebucketTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"DeletebucketTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"DeletebucketTable succeeded " << dendl;
 
   return ret;
 }
@@ -931,7 +931,7 @@ int SQLiteDB::DeleteObjectTable(const DoutPrefixProvider *dpp, DBOpParams *param
   if (ret)
     ldpp_dout(dpp, 0)<<"DeleteObjectTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"DeleteObjectTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"DeleteObjectTable succeeded " << dendl;
 
   return ret;
 }
@@ -947,7 +947,7 @@ int SQLiteDB::DeleteObjectDataTable(const DoutPrefixProvider *dpp, DBOpParams *p
   if (ret)
     ldpp_dout(dpp, 0)<<"DeleteObjectDataTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"DeleteObjectDataTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"DeleteObjectDataTable succeeded " << dendl;
 
   return ret;
 }
@@ -963,7 +963,7 @@ int SQLiteDB::DeleteQuotaTable(const DoutPrefixProvider *dpp, DBOpParams *params
   if (ret)
     ldpp_dout(dpp, 0)<<"DeleteQuotaTable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"DeleteQuotaTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"DeleteQuotaTable succeeded " << dendl;
 
   return ret;
 }
@@ -977,7 +977,7 @@ int SQLiteDB::DeleteLCEntryTable(const DoutPrefixProvider *dpp, DBOpParams *para
   ret = exec(dpp, schema.c_str(), NULL);
   if (ret)
     ldpp_dout(dpp, 0)<<"DeleteLCEntryTable failed " << dendl;
-  ldpp_dout(dpp, 20)<<"DeleteLCEntryTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"DeleteLCEntryTable succeeded " << dendl;
 
   return ret;
 }
@@ -991,7 +991,7 @@ int SQLiteDB::DeleteLCHeadTable(const DoutPrefixProvider *dpp, DBOpParams *param
   ret = exec(dpp, schema.c_str(), NULL);
   if (ret)
     ldpp_dout(dpp, 0)<<"DeleteLCHeadTable failed " << dendl;
-  ldpp_dout(dpp, 20)<<"DeleteLCHeadTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"DeleteLCHeadTable succeeded " << dendl;
 
   return ret;
 }
@@ -1006,7 +1006,7 @@ int SQLiteDB::ListAllUsers(const DoutPrefixProvider *dpp, DBOpParams *params)
   if (ret)
     ldpp_dout(dpp, 0)<<"GetUsertable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"GetUserTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"GetUserTable succeeded " << dendl;
 
   return ret;
 }
@@ -1022,7 +1022,7 @@ int SQLiteDB::ListAllBuckets(const DoutPrefixProvider *dpp, DBOpParams *params)
   if (ret)
     ldpp_dout(dpp, 0)<<"Listbuckettable failed " << dendl;
 
-  ldpp_dout(dpp, 20)<<"ListbucketTable suceeded " << dendl;
+  ldpp_dout(dpp, 20)<<"ListbucketTable succeeded " << dendl;
 
   return ret;
 }
@@ -1049,7 +1049,7 @@ int SQLiteDB::ListAllObjects(const DoutPrefixProvider *dpp, DBOpParams *params)
     if (ret)
       ldpp_dout(dpp, 0)<<"ListObjecttable failed " << dendl;
 
-    ldpp_dout(dpp, 20)<<"ListObjectTable suceeded " << dendl;
+    ldpp_dout(dpp, 20)<<"ListObjectTable succeeded " << dendl;
   }
 
   return ret;
index 8cc8df987d2bb14c0987cddade76842fc4397759..3f5a46e4bc9e07601324eaa67aa555d9624b3900 100644 (file)
@@ -386,7 +386,7 @@ int MotrUser::store_user(const DoutPrefixProvider* dpp,
   orig_info.user_id = info.user_id;
   // XXX: we open and close motr idx 2 times in this method:
   // 1) on load_user_from_idx() here and 2) on do_idx_op_by_name(PUT) below.
-  // Maybe this can be optimised later somewhow.
+  // Maybe this can be optimised later somehow.
   int rc = load_user_from_idx(dpp, store, orig_info, nullptr, &objv_tr);
   ldpp_dout(dpp, 10) << "Get user: rc = " << rc << dendl;
 
@@ -874,7 +874,7 @@ int MotrBucket::trim_usage(const DoutPrefixProvider *dpp, uint64_t start_epoch,
 
 int MotrBucket::remove_objs_from_index(const DoutPrefixProvider *dpp, std::list<rgw_obj_index_key>& objs_to_unlink)
 {
-  /* XXX: CHECK: Unlike RadosStore, there is no seperate bucket index table.
+  /* XXX: CHECK: Unlike RadosStore, there is no separate bucket index table.
    * Delete all the object in the list from the object table of this
    * bucket
    */
@@ -1014,7 +1014,7 @@ int MotrBucket::list_multiparts(const DoutPrefixProvider *dpp,
     if (prefix.size() &&
         (0 != ent.key.name.compare(0, prefix.size(), prefix))) {
       ldpp_dout(dpp, 20) << __PRETTY_FUNCTION__ <<
-        ": skippping \"" << ent.key <<
+        ": skipping \"" << ent.key <<
         "\" because doesn't match prefix" << dendl;
       continue;
     }
@@ -2338,7 +2338,7 @@ int MotrAtomicWriter::complete(size_t accounted_size, const std::string& etag,
   bufferlist bl;
   rgw_bucket_dir_entry ent;
 
-  // Set rgw_bucet_dir_entry. Some of the member of this structure may not
+  // Set rgw_bucket_dir_entry. Some of the member of this structure may not
   // apply to motr. For example the storage_class.
   //
   // Checkout AtomicObjectProcessor::complete() in rgw_putobj_processor.cc
@@ -2838,7 +2838,7 @@ int MotrMultipartUpload::complete(const DoutPrefixProvider *dpp,
   // Update the dir entry and insert it to the bucket index so
   // the object will be seen when listing the bucket.
   bufferlist update_bl;
-  target_obj->get_key().get_index_key(&ent.key);  // Change to offical name :)
+  target_obj->get_key().get_index_key(&ent.key);  // Change to official name :)
   ent.meta.size = off;
   ent.meta.accounted_size = accounted_size;
   ldpp_dout(dpp, 20) << "MotrMultipartUpload::complete(): obj size=" << ent.meta.size
@@ -3667,7 +3667,7 @@ int MotrStore::open_motr_idx(struct m0_uint128 *id, struct m0_idx *idx)
   return 0;
 }
 
-// The following marcos are from dix/fid_convert.h which are not exposed.
+// The following macros are from dix/fid_convert.h which are not exposed.
 enum {
       M0_DIX_FID_DEVICE_ID_OFFSET   = 32,
       M0_DIX_FID_DIX_CONTAINER_MASK = (1ULL << M0_DIX_FID_DEVICE_ID_OFFSET)
index 3a110e36f173adfe997537cf07fa43aa8c3f9a7b..ecfabfc151814d636c473624df569a08a96d6268 100644 (file)
@@ -70,11 +70,11 @@ protected:
   // of RGW instances under heavy use. If you would like to turn off cache expiry,
   // set this value to zero.
   //
-  // Currently POC hasn't implemented the watch-notify menchanism yet. So the
+  // Currently POC hasn't implemented the watch-notify mechanism yet. So the
   // current implementation is similar to cortx-s3server which is based on expiry
   // time. TODO: see comments on distribute_cache).
   //
-  // Beaware: Motr object data is not cached in current POC as RGW!
+  // Beware: Motr object data is not cached in current POC as RGW!
   // RGW caches the first chunk (4MB by default).
   ObjectCache cache;
 
@@ -877,7 +877,7 @@ public:
 // object part index and for each part an entry is created in extended index.
 // The entry for the object is created in bucket (object list) index. The part
 // index is deleted and an entry removed from bucket_nnn_multipart_index. Like
-// bucket multipart index, bucket part extened metadata index is created during
+// bucket multipart index, bucket part extend metadata index is created during
 // bucket creation.
 //
 // The extended metadata index is used mainly due to fault tolerant
index 857d530aab50f1ea5d41e8dbdf1630fdbb3636cc..706683e6bd102af8aaafab019c62515cbf9b0ef5 100644 (file)
@@ -110,7 +110,7 @@ public:
 };
 
 /**
- * store a list of the user's buckets, with associated functinos.
+ * store a list of the user's buckets, with associated functions.
  */
 class RGWUserBuckets {
   std::map<std::string, RGWBucketEnt> buckets;
index 1baff16ff42e2b812bdafa29b70655d48a978add..e7174908dd773a014e587e90aade2ff553e6fad9 100644 (file)
@@ -795,7 +795,7 @@ int RGWAsyncFetchRemoteObj::_send_request(const DoutPrefixProvider *dpp)
   } else {
       // r >= 0
       if (bytes_transferred) {
-        // send notification that object was succesfully synced
+        // send notification that object was successfully synced
         std::string user_id = "rgw sync";
         std::string req_id = "0";
                        
index e07b5f4bd6bf567e3b725d964f13ae99f2f17da8..18d213cf6c342845f6a5017092c3fb3d36097ca3 100644 (file)
@@ -143,11 +143,11 @@ int D3nDataCache::d3n_io_write(bufferlist& bl, unsigned int len, std::string oid
 
   // Check whether fclose returned an error
   if (r != 0) {
-    ldout(cct, 0) << "ERROR: D3nDataCache::fclsoe file has return error, errno=" << errno << dendl;
+    ldout(cct, 0) << "ERROR: D3nDataCache::fclose file has return error, errno=" << errno << dendl;
     return -errno;
   }
 
-  { // update cahce_map entries for new chunk in cache
+  { // update cache_map entries for new chunk in cache
     const std::lock_guard l(d3n_cache_lock);
     chunk_info = new D3nChunkDataInfo;
     chunk_info->oid = oid;
@@ -294,7 +294,7 @@ bool D3nDataCache::get(const string& oid, const off_t len)
     struct D3nChunkDataInfo* chdo = iter->second;
     struct stat st;
     int r = stat(location.c_str(), &st);
-    if ( r != -1 && st.st_size == len) { // file exists and containes required data range length
+    if ( r != -1 && st.st_size == len) { // file exists and contains required data range length
       exist = true;
       /*LRU*/
       /*get D3nChunkDataInfo*/
index bbd3aaf448dad2bf95a16df40d67f30f5a7545b5..02965f9073d654f3aca7dccd9cb549f4501d0eb8 100644 (file)
@@ -3515,7 +3515,7 @@ class CheckBucketShardStatusIsIncremental : public RGWReadBucketPipeSyncStatusCo
 
 class CheckAllBucketShardStatusIsIncremental : public RGWShardCollectCR {
   // start with 1 shard, and only spawn more if we detect an existing shard.
-  // this makes the backward compatilibility check far less expensive in the
+  // this makes the backward compatibility check far less expensive in the
   // general case where no shards exist
   static constexpr int initial_concurrent_shards = 1;
   static constexpr int max_concurrent_shards = 16;
@@ -4320,7 +4320,7 @@ public:
    * create index from key -> <op, marker>, and from marker -> key
    * this is useful so that we can insure that we only have one
    * entry for any key that is used. This is needed when doing
-   * incremenatl sync of data, and we don't want to run multiple
+   * incremental sync of data, and we don't want to run multiple
    * concurrent sync operations for the same bucket shard 
    * Also, we should make sure that we don't run concurrent operations on the same key with
    * different ops.
@@ -5911,7 +5911,7 @@ int RGWSyncBucketCR::operate(const DoutPrefixProvider *dpp)
             return set_cr_error(retcode);
           }
           if (bucket_status.state != BucketSyncState::Stopped) {
-            // make sure that state is changed to stopped localy
+            // make sure that state is changed to stopped locally
             bucket_status.state = BucketSyncState::Stopped;
             yield call(new WriteCR(dpp, env->driver, status_obj, bucket_status,
                                   &objv, false));
index 167cbcdba4a89daa06c9bf1b7fea1fbab5110fbe..9274dc2ae9be129a366b0e07a1ab385624077f57 100644 (file)
@@ -618,7 +618,7 @@ void RGWDataChangesLog::update_renewed(const rgw_bucket_shard& bs,
   auto status = _get_change(bs, gen);
   l.unlock();
 
-  ldout(cct, 20) << "RGWDataChangesLog::update_renewd() bucket_name="
+  ldout(cct, 20) << "RGWDataChangesLog::update_renewed() bucket_name="
                 << bs.bucket.name << " shard_id=" << bs.shard_id
                 << " expiration=" << expiration << dendl;
 
index c52acef654f3711a2db15086897b9676e77a5fdf..2dd8a6625fcc1baab6d2aa7ee2caea19666d83a4 100644 (file)
@@ -454,7 +454,7 @@ int RGWLCStreamRead::init_rest_obj() {
     rest_obj.content_len = m_part_size;
   }
 
-  /* For mulitpart attrs are sent as part of InitMultipartCR itself */
+  /* For multipart attrs are sent as part of InitMultipartCR itself */
   if (multipart) {
     return 0;
   }
index 3935957bc5c3e56061fd7c2b98222c58362208c4..ecbccc8b220b0e6d319e4dcd986d5e58589dd24d 100644 (file)
@@ -199,7 +199,7 @@ private:
   std::vector<std::string> entryProcessingResultString = {"Failure", "Successful", "Sleeping", "Expired", "Migrating"};
 
   // processing of a specific entry
-  // return whether processing was successfull (true) or not (false)
+  // return whether processing was successful (true) or not (false)
   EntryProcessingResult process_entry(const ConfigProxy& conf, persistency_tracker& entry_persistency_tracker,
                                       const cls_queue_entry& entry, yield_context yield) {
     event_entry_t event_entry;
@@ -577,7 +577,7 @@ private:
 
       for (const auto& queue_name : queues) {
         // try to lock the queue to check if it is owned by this rgw
-        // or if ownershif needs to be taken
+        // or if ownership needs to be taken
         librados::ObjectWriteOperation op;
         op.assert_exists();
         rados::cls::lock::lock(&op, queue_name+"_lock", 
@@ -612,7 +612,7 @@ private:
           // start processing this queue
           spawn::spawn(io_context, [this, &queue_gc, &queue_gc_lock, queue_name](yield_context yield) {
             process_queue(queue_name, yield);
-            // if queue processing ended, it measn that the queue was removed or not owned anymore
+            // if queue processing ended, it means that the queue was removed or not owned anymore
             // mark it for deletion
             std::lock_guard lock_guard(queue_gc_lock);
             queue_gc.push_back(queue_name);
@@ -790,7 +790,7 @@ int remove_persistent_topic(const std::string& topic_name, optional_yield y) {
   return remove_persistent_topic(s_manager, s_manager->rados_store.getRados()->get_notif_pool_ctx(), topic_name, y);
 }
 
-rgw::sal::Object* get_object_with_atttributes(
+rgw::sal::Object* get_object_with_attributes(
   const reservation_t& res, rgw::sal::Object* obj) {
   // in case of copy obj, the tags and metadata are taken from source
   const auto src_obj = res.src_object ? res.src_object : obj;
@@ -820,7 +820,7 @@ static inline void filter_amz_meta(meta_map_t& dest, const meta_map_t& src) {
 static inline void metadata_from_attributes(
   reservation_t& res, rgw::sal::Object* obj) {
   auto& metadata = res.x_meta_map;
-  const auto src_obj = get_object_with_atttributes(res, obj);
+  const auto src_obj = get_object_with_attributes(res, obj);
   if (!src_obj) {
     return;
   }
@@ -838,7 +838,7 @@ static inline void metadata_from_attributes(
 
 static inline void tags_from_attributes(
   const reservation_t& res, rgw::sal::Object* obj, KeyMultiValueMap& tags) {
-  const auto src_obj = get_object_with_atttributes(res, obj);
+  const auto src_obj = get_object_with_attributes(res, obj);
   if (!src_obj) {
     return;
   }
index 460a7bacb5dac5b777e0dc7ef66abe26f4659838..20f0c17e5bb5b1e5e065dce0dcb54b2de11a2966 100644 (file)
@@ -23,7 +23,7 @@ struct rgw_obj_key;
 namespace rgw::notify {
 
 // initialize the notification manager
-// notification manager is dequeing the 2-phase-commit queues
+// notification manager is dequeuing the 2-phase-commit queues
 // and send the notifications to the endpoints
 bool init(CephContext* cct, rgw::sal::RadosStore* store, const DoutPrefixProvider *dpp);
 
index b6d08e5c7f383b5b155cf7a7c9e370ea7a1bbfb7..091adb9830c0cb19f592f8f3ff1d17596b96d9e7 100644 (file)
@@ -189,7 +189,7 @@ RadosWriter::~RadosWriter()
    * Such race condition is caused by the fact that the multipart object is the gatekeeper of a multipart
    * upload, when it is deleted, a second upload would start with the same suffix("2/"), therefore, objects
    * written by the second upload may be deleted by the first upload.
-   * details is describled on #11749
+   * details is described on #11749
    *
    * The above comment still stands, but instead of searching for a specific object in the multipart
    * namespace, we just make sure that we remove the object that is marked as the head object after
index 3ee43dd91a89ceb7fcba3cee0a394684b5aedb97..2b5f7c4e7a66f32403c10a7809ade97f9afd08c6 100644 (file)
@@ -1911,7 +1911,7 @@ int RGWRados::Bucket::List::list_objects_ordered(
       if (cur_end_marker_valid && cur_end_marker <= index_key) {
         truncated = false;
        ldpp_dout(dpp, 10) << __func__ <<
-         ": finished due to gitting end marker of \"" << cur_end_marker <<
+         ": finished due to getting end marker of \"" << cur_end_marker <<
          "\" with \"" << entry.key << "\"" << dendl;
         goto done;
       }
@@ -2194,14 +2194,14 @@ int RGWRados::Bucket::List::list_objects_unordered(const DoutPrefixProvider *dpp
 
       if (!params.list_versions && !entry.is_visible()) {
         ldpp_dout(dpp, 20) << __func__ <<
-         ": skippping \"" << index_key <<
-         "\" because not listing versions and entry not visibile" << dendl;
+         ": skipping \"" << index_key <<
+         "\" because not listing versions and entry not visible" << dendl;
         continue;
       }
 
       if (params.enforce_ns && obj.ns != params.ns) {
         ldpp_dout(dpp, 20) << __func__ <<
-         ": skippping \"" << index_key <<
+         ": skipping \"" << index_key <<
          "\" because namespace does not match" << dendl;
         continue;
       }
@@ -2210,7 +2210,7 @@ int RGWRados::Bucket::List::list_objects_unordered(const DoutPrefixProvider *dpp
        // we're not guaranteed items will come in order, so we have
        // to loop through all
         ldpp_dout(dpp, 20) << __func__ <<
-         ": skippping \"" << index_key <<
+         ": skipping \"" << index_key <<
          "\" because after end_marker" << dendl;
        continue;
       }
@@ -2218,7 +2218,7 @@ int RGWRados::Bucket::List::list_objects_unordered(const DoutPrefixProvider *dpp
       if (params.access_list_filter &&
          !params.access_list_filter->filter(obj.name, index_key.name)) {
         ldpp_dout(dpp, 20) << __func__ <<
-         ": skippping \"" << index_key <<
+         ": skipping \"" << index_key <<
          "\" because doesn't match filter" << dendl;
         continue;
       }
@@ -2226,7 +2226,7 @@ int RGWRados::Bucket::List::list_objects_unordered(const DoutPrefixProvider *dpp
       if (params.prefix.size() &&
          (0 != obj.name.compare(0, params.prefix.size(), params.prefix))) {
         ldpp_dout(dpp, 20) << __func__ <<
-         ": skippping \"" << index_key <<
+         ": skipping \"" << index_key <<
          "\" because doesn't match prefix" << dendl;
        continue;
       }
@@ -3297,7 +3297,7 @@ done_cancel:
 
   /* we lost in a race. There are a few options:
    * - existing object was rewritten (ECANCELED)
-   * - non existing object was created (EEXIST)
+   * - nonexistent object was created (EEXIST)
    * - object was removed (ENOENT)
    * should treat it as a success
    */
@@ -4627,7 +4627,7 @@ int RGWRados::copy_obj(RGWObjectCtx& obj_ctx,
   if (src_attrs.count(RGW_ATTR_CRYPT_MODE)) {
     // Current implementation does not follow S3 spec and even
     // may result in data corruption silently when copying
-    // multipart objects acorss pools. So reject COPY operations
+    // multipart objects across pools. So reject COPY operations
     //on encrypted objects before it is fully functional.
     ldpp_dout(dpp, 0) << "ERROR: copy op for encrypted object " << src_obj
                   << " has not been implemented." << dendl;
@@ -9451,7 +9451,7 @@ int RGWRados::cls_bucket_list_ordered(const DoutPrefixProvider *dpp,
   for (auto& r : shard_list_results) {
     results_trackers.emplace_back(r.first, r.second, shard_oids[r.first]);
 
-    // if any *one* shard's result is trucated, the entire result is
+    // if any *one* shard's result is truncated, the entire result is
     // truncated
     *is_truncated = *is_truncated || r.second.is_truncated;
 
index 02b1d133fc5b2e30c6109a7ad8681d7e0d799f24..b3a8e49d1b2954f37b7239d87243e0c7d97d4e3e 100644 (file)
@@ -331,7 +331,7 @@ public:
   RGWHandler_REST* get_handler(rgw::sal::Driver* driver,
                               req_state* const,
                                const rgw::auth::StrategyRegistry& auth_registry,
-                               const std::string& frontend_prefixs) override {
+                               const std::string& frontend_prefixes) override {
     return new RGWHandler_Log(auth_registry);
   }
 };
index b60ddd7a4d18b0a175f14a561f7c65c272920592..478d7a5b7067d0afc527f48f4d848c95158cf53d 100644 (file)
@@ -330,7 +330,7 @@ int RadosBucket::remove(const DoutPrefixProvider* dpp,
   RGWObjVersionTracker ot;
 
   // if we deleted children above we will force delete, as any that
-  // remain is detrius from a prior bug
+  // remain is detritus from a prior bug
   ret = store->getRados()->delete_bucket(info, ot, y, dpp, !delete_children);
   if (ret < 0) {
     ldpp_dout(dpp, -1) << "ERROR: could not remove bucket " <<
@@ -3141,7 +3141,7 @@ int RadosLuaManager::remove_package(const DoutPrefixProvider *dpp, optional_yiel
   librados::ObjectWriteOperation op;
   size_t pos = package_name.find(" ");
   if (pos != package_name.npos) {
-    // remove specfic version of the the package
+    // remove specific version of the the package
     op.omap_rm_keys(std::set<std::string>({package_name}));
     auto ret = rgw_rados_operate(dpp, ioctx,
         PACKAGE_LIST_OBJECT_NAME, &op, y);
index c973a039efc84762291b453e0fb622237beb3895..251e9b395e0c7462fec6daf3cf2b03b942e930e2 100644 (file)
@@ -1767,7 +1767,7 @@ public:
                                                          sync_marker, tn));
 
       /*
-       * mdlog_marker: the remote sync marker positiion
+       * mdlog_marker: the remote sync marker position
        * sync_marker: the local sync marker position
        * max_marker: the max mdlog position that we fetched
        * marker: the current position we try to sync
index cdcd831e98923144aee2e7ba133c20e9ca0d731a..46b99968a5069c6bc3d017c124dd538c7268e559 100644 (file)
@@ -60,7 +60,7 @@ static string obj_to_aws_path(const rgw_obj& obj)
            
 
       # anything below here is for non trivial configuration 
-      # can be used in conjuction with the above
+      # can be used in conjunction with the above
 
       "default": {
         "connection": {
@@ -107,7 +107,7 @@ static string obj_to_aws_path(const rgw_obj& obj)
 target path optional variables:
 
 (evaluated at init)
-sid: sync instance id, randomly generated by sync process on first sync initalization
+sid: sync instance id, randomly generated by sync process on first sync initialization
 zonegroup: zonegroup name
 zonegroup_id: zonegroup name
 zone: zone name
index 4e8eb6201db4ac895cfad9da15a6c67bafc55bc4..13c2057bf77933fad0e3984b2af78032a543c878 100644 (file)
@@ -608,7 +608,7 @@ struct es_obj_metadata {
       f->open_array_section("custom-date");
       for (auto i : custom_date) {
         /*
-         * try to exlicitly parse date field, otherwise elasticsearch could reject the whole doc,
+         * try to explicitly parse date field, otherwise elasticsearch could reject the whole doc,
          * which will end up with failed sync
          */
         real_time t;
index 1f837e312c0985f2ba19eda90d58e1dfba759971..446f1efda91a65f3a8566aeaed9cb26a7b907de2 100644 (file)
@@ -318,7 +318,7 @@ struct RGWZoneGroup : public RGWSystemMetaObj {
   // TODO: Maybe convert hostnames to a map<std::string,std::list<std::string>> for
   // endpoint_type->hostnames
 /*
-20:05 < _robbat21irssi> maybe I do someting like: if (hostname_map.empty()) { populate all map keys from hostnames; };
+20:05 < _robbat21irssi> maybe I do something like: if (hostname_map.empty()) { populate all map keys from hostnames; };
 20:05 < _robbat21irssi> but that's a later compatability migration planning bit
 20:06 < yehudasa> more like if (!hostnames.empty()) {
 20:06 < yehudasa> for (std::list<std::string>::iterator iter = hostnames.begin(); iter != hostnames.end(); ++iter) {
index b86fb57b032f677592b539810dd88333cb38435b..352b80010b866040742c080f4940780cf7c55941 100644 (file)
@@ -74,7 +74,7 @@ namespace jwt {
        namespace helper {
                inline
                std::string extract_pubkey_from_cert(const std::string& certstr, const std::string& pw = "") {
-                       // TODO: Cannot find the exact version this change happended
+                       // TODO: Cannot find the exact version this change happened
 #if OPENSSL_VERSION_NUMBER <= 0x1000114fL
                        std::unique_ptr<BIO, decltype(&BIO_free_all)> certbio(BIO_new_mem_buf(const_cast<char*>(certstr.data()), certstr.size()), BIO_free_all);
 #else
@@ -203,7 +203,7 @@ namespace jwt {
                                return alg_name;
                        }
                private:
-                       /// HMAC secrect
+                       /// HMAC secret
                        const std::string secret;
                        /// HMAC hash generator
                        const EVP_MD*(*md)();
@@ -821,7 +821,7 @@ namespace jwt {
                /**
                 * Get type of contained object
                 * \return Type
-                * \throws std::logic_error An internal error occured
+                * \throws std::logic_error An internal error occurred
                 */
                type get_type() const {
                        if (val.is<picojson::null>()) return type::null;
@@ -1045,7 +1045,7 @@ namespace jwt {
                std::unordered_map<std::string, claim> header_claims;
        public:
                /**
-                * Check if algortihm is present ("alg")
+                * Check if algorithm is present ("alg")
                 * \return true if present, false otherwise
                 */
                bool has_algorithm() const noexcept { return has_header_claim("alg"); }
@@ -1119,7 +1119,7 @@ namespace jwt {
         */
        class decoded_jwt : public header, public payload {
        protected:
-               /// Unmodifed token, as passed to constructor
+               /// Unmodified token, as passed to constructor
                const std::string token;
                /// Header part decoded from base64
                std::string header;
index 5018cedd7cb652cf21b57c0df160d049191efdda..983e8930577905794fcca20f3085d6d1475dc21e 100755 (executable)
@@ -2,7 +2,7 @@
 
 # Last revision 2023-01-13
 
-# NOTE: This script based based on rgw-orphan-list but doing the
+# NOTE: This script based on rgw-orphan-list but doing the
 # reverse calculation.
 
 # NOTE: The awk included in this script replaces the 'ceph-diff-sorted'
@@ -276,7 +276,7 @@ for myfile in $rados_out $rgwadmin_out; do
   fi 
 done
 
-# Create an awk script in a file for parsing the two command outoputs.
+# Create an awk script in a file for parsing the two command outputs.
 log "Creating awk script for comparing outputs: ${incremental_grep_awk}"
 
 cat <<"EOF" >$incremental_grep_awk
@@ -292,7 +292,7 @@ cat <<"EOF" >$incremental_grep_awk
 #    indicates a possible deleted tail object and the accompanying
 #    bucket / user object name is output, assuming it had not been
 #    previously identified.
-#    - A map of outputed bucket / user object is maintained in memory
+#    - A map of outputted bucket / user object is maintained in memory
 #  * If a value appears in $rados_out, but not in $rgwadmin_out, the
 #    $rados_out file is iterated until the $rados_out line is equal
 #    or > (alphabetically) the value from the $rgwadmin_out file.
index c8856e8eeec5818c1edd980f091f796f64782b93..70557947e5df9e48921813727622087127e5d8d5 100755 (executable)
@@ -159,7 +159,7 @@ rados_ls() {
         namespace_found=1
     fi
 
-    # check for locators (w/o namespace); we idenitfy them by skipping
+    # check for locators (w/o namespace); we identify them by skipping
     # past the empty namespace (i.e., one TAB), skipping past the oid,
     # then looking for a TAB; note we use egrep to get the '+' character
     # and the $ in front of the ' allows the \t to be interpreted as a TAB
index f1ca68d637d7570760f25b9ea4b134c9d7b6d6a6..c6f06bbd37cc01b60f447fdb48f99d5ec5d1ecbb 100644 (file)
@@ -384,7 +384,7 @@ boost::optional<std::string> RGWAccessControlPolicy_SWIFTAcct::to_str() const
   std::vector<std::string> readwrite;
   std::vector<std::string> readonly;
 
-  /* Parition the grant map into three not-overlapping groups. */
+  /* Partition the grant map into three not-overlapping groups. */
   for (const auto& item : get_acl().get_grant_map()) {
     const ACLGrant& grant = item.second;
     const uint32_t perm = grant.get_permission().get_permissions();
index 04d085daee594420a21636617a879aa61f6644b4..c19d44c9e5366acf72d2198af9cc6753824fd3e7 100644 (file)
@@ -2870,11 +2870,11 @@ static int bucket_sync_status(rgw::sal::Driver* driver, const RGWBucketInfo& inf
 
   for (auto& zone_id : zone_ids) {
     auto z = static_cast<rgw::sal::RadosStore*>(driver)->svc()->zone->get_zonegroup().zones.find(zone_id.id);
-    if (z == static_cast<rgw::sal::RadosStore*>(driver)->svc()->zone->get_zonegroup().zones.end()) { /* should't happen */
+    if (z == static_cast<rgw::sal::RadosStore*>(driver)->svc()->zone->get_zonegroup().zones.end()) { /* shouldn't happen */
       continue;
     }
     auto c = zone_conn_map.find(zone_id.id);
-    if (c == zone_conn_map.end()) { /* should't happen */
+    if (c == zone_conn_map.end()) { /* shouldn't happen */
       continue;
     }
 
@@ -7641,7 +7641,7 @@ next:
 
       do {
         entries.clear();
-       // if object is specified, we use that as a filter to only retrieve some some entries
+       // if object is specified, we use that as a filter to only retrieve some entries
         ret = static_cast<rgw::sal::RadosStore*>(driver)->getRados()->bi_list(bs, object, marker, max_entries, &entries, &is_truncated, null_yield);
         if (ret < 0) {
           ldpp_dout(dpp(), 0) << "ERROR: bi_list(): " << cpp_strerror(-ret) << dendl;
index 3014edd1db09dbfeb34621f9da0f1661896ce4e6..67cbbe5c67715171f5efd99b5231ccd8357c4753 100644 (file)
@@ -301,7 +301,7 @@ std::string to_string(amqp_status_enum s) {
   }
 }
 
-// TODO: add status_to_string on the connection object to prinf full status
+// TODO: add status_to_string on the connection object to print full status
 
 // convert int status to string - including RGW specific values
 std::string status_to_string(int s) {
@@ -688,7 +688,7 @@ private:
               // TODO: add exponential backoff for retries
               conn->next_reconnect = now + reconnect_time;
             } else {
-              ldout(cct, 10) << "AMQP run: connection '" << to_string(conn_id) << "' retry successfull" << dendl;
+              ldout(cct, 10) << "AMQP run: connection '" << to_string(conn_id) << "' retry successful" << dendl;
             }
           }
           INCREMENT_AND_CONTINUE(conn_it);
index 51d43140ba56d648ce82ac104fb9b203bc594f72..145e16139d7e9d15f855b6f51f235ce88804d536 100644 (file)
@@ -119,9 +119,9 @@ size_t ClientIO::send_status(int status, const char* status_name)
 
 size_t ClientIO::send_100_continue()
 {
-  const char HTTTP_100_CONTINUE[] = "HTTP/1.1 100 CONTINUE\r\n\r\n";
-  const size_t sent = txbuf.sputn(HTTTP_100_CONTINUE,
-                                  sizeof(HTTTP_100_CONTINUE) - 1);
+  const char HTTP_100_CONTINUE[] = "HTTP/1.1 100 CONTINUE\r\n\r\n";
+  const size_t sent = txbuf.sputn(HTTP_100_CONTINUE,
+                                  sizeof(HTTP_100_CONTINUE) - 1);
   flush();
   sent100continue = true;
   return sent;
index e7d39d7cece619e938612de3b76daae9ee183c81..23ccfcafeb0868c1bc6e713e68a4f9f631dcbf13 100644 (file)
@@ -513,7 +513,7 @@ tcp::endpoint parse_endpoint(boost::asio::string_view input,
       return endpoint;
     }
     if (addr_end + 1 < input.size()) {
-      // :port must must follow [ipv6]
+      // :port must follow [ipv6]
       if (input[addr_end + 1] != ':') {
         ec = boost::asio::error::invalid_argument;
         return endpoint;
index 82e0d0c9755a4a5e7277b625bcf57c8fd7517651..2668af3a3c1d8d738671b2e2307cff6e4befe2b2 100644 (file)
@@ -220,7 +220,7 @@ public:
         reason(reason) {
     }
 
-    /* Allow only the reasonable combintations - returning just Completer
+    /* Allow only the reasonable combinations - returning just Completer
      * without accompanying IdentityApplier is strictly prohibited! */
     explicit AuthResult(IdentityApplier::aplptr_t&& applier)
       : result_pair(std::move(applier), nullptr) {
@@ -236,7 +236,7 @@ public:
       /* Engine doesn't grant the access but also doesn't reject it. */
       DENIED,
 
-      /* Engine successfully authenicated requester. */
+      /* Engine successfully authenticated requester. */
       GRANTED,
 
       /* Engine strictly indicates that a request should be rejected
@@ -311,7 +311,7 @@ public:
 
 /* Abstract class for stacking sub-engines to expose them as a single
  * Engine. It is responsible for ordering its sub-engines and managing
- * fall-backs between them. Derivatee is supposed to encapsulate engine
+ * fall-backs between them. Derivative is supposed to encapsulate engine
  * instances and add them using the add_engine() method in the order it
  * wants to be tried during the call to authenticate().
  *
index a1d76c3aaf323a36e58ecf3bce621d28bc455c3a..552159823bb4b1013de336dfef4e7e16671c9a28 100644 (file)
@@ -662,7 +662,7 @@ rgw::auth::Engine::result_t EC2Engine::authenticate(
   const string_to_sign_t& string_to_sign,
   const signature_factory_t& signature_factory,
   const completer_factory_t& completer_factory,
-  /* Passthorugh only! */
+  /* Passthrough only! */
   const req_state* s,
   optional_yield y) const
 {
index 4cffb333288ea883ac475c4d51fde02c81ba0610..a8190aa35adab4648517d14b4dd1c527f6ce33ba 100644 (file)
@@ -66,12 +66,12 @@ struct rgw_zone_id {
   rgw_zone_id(std::string&& _id) : id(std::move(_id)) {}
 
   void encode(ceph::buffer::list& bl) const {
-    /* backward compatiblity, not using ENCODE_{START,END} macros */
+    /* backward compatibility, not using ENCODE_{START,END} macros */
     ceph::encode(id, bl);
   }
 
   void decode(ceph::buffer::list::const_iterator& bl) {
-    /* backward compatiblity, not using DECODE_{START,END} macros */
+    /* backward compatibility, not using DECODE_{START,END} macros */
     ceph::decode(id, bl);
   }
 
index 26557afd8d695097621c4b1517d5c669582cf8d1..6c07e32324358d89e7e516617d86cf3738cf21a8 100644 (file)
@@ -201,10 +201,10 @@ is_err() const
 // S3 authorization and some other processes depending on the requestURI
 // The absoluteURI can start with "http://", "https://", "ws://" or "wss://"
 static string get_abs_path(const string& request_uri) {
-  const static string ABS_PREFIXS[] = {"http://", "https://", "ws://", "wss://"};
+  const static string ABS_PREFIXES[] = {"http://", "https://", "ws://", "wss://"};
   bool isAbs = false;
   for (int i = 0; i < 4; ++i) {
-    if (boost::algorithm::starts_with(request_uri, ABS_PREFIXS[i])) {
+    if (boost::algorithm::starts_with(request_uri, ABS_PREFIXES[i])) {
       isAbs = true;
       break;
     } 
@@ -351,7 +351,7 @@ void set_req_state_err(req_state* s, int err_no, const string& err_msg)
       /* TODO(rzarzynski): there never ever should be a check like this one.
        * It's here only for the sake of the patch's backportability. Further
        * commits will move the logic to a per-RGWHandler replacement of
-       * the end_header() function. Alternativaly, we might consider making
+       * the end_header() function. Alternatively, we might consider making
        * that just for the dump(). Please take a look on @cbodley's comments
        * in PR #10690 (https://github.com/ceph/ceph/pull/10690). */
       s->err.err_code = err_msg;
@@ -2456,7 +2456,7 @@ void RGWBucketEnt::dump(Formatter *f) const
   encode_json("size", size, f);
   encode_json("size_rounded", size_rounded, f);
   utime_t ut(creation_time);
-  encode_json("mtime", ut, f); /* mtime / creation time discrepency needed for backward compatibility */
+  encode_json("mtime", ut, f); /* mtime / creation time discrepancy needed for backward compatibility */
   encode_json("count", count, f);
   encode_json("placement_rule", placement_rule.to_str(), f);
 }
index ee17e2c8d43e824d1e09ad18a4c6b4c1802e9a4b..85d5ab2c155beb1b89999e6f78abf544ed67fc3d 100644 (file)
@@ -1531,14 +1531,14 @@ struct perm_state_base {
                   const RGWBucketInfo& _bucket_info,
                   int _perm_mask,
                   bool _defer_to_bucket_acls,
-                  boost::optional<PublicAccessBlockConfiguration> _bucket_acess_conf = boost::none) :
+                  boost::optional<PublicAccessBlockConfiguration> _bucket_access_conf = boost::none) :
                                                 cct(_cct),
                                                 env(_env),
                                                 identity(_identity),
                                                 bucket_info(_bucket_info),
                                                 perm_mask(_perm_mask),
                                                 defer_to_bucket_acls(_defer_to_bucket_acls),
-                                                bucket_access_conf(_bucket_acess_conf)
+                                                bucket_access_conf(_bucket_access_conf)
   {}
 
   virtual ~perm_state_base() {}
@@ -1684,7 +1684,7 @@ extern std::string url_decode(const std::string_view& src_str,
 extern void url_encode(const std::string& src, std::string& dst,
                        bool encode_slash = true);
 extern std::string url_encode(const std::string& src, bool encode_slash = true);
-extern std::string url_remove_prefix(const std::string& url); // Removes hhtp, https and www from url
+extern std::string url_remove_prefix(const std::string& url); // Removes http, https and www from url
 /* destination should be CEPH_CRYPTO_HMACSHA1_DIGESTSIZE bytes long */
 extern void calc_hmac_sha1(const char *key, int key_len,
                           const char *msg, int msg_len, char *dest);
index 6bc4bb9c16750f5a69484fd0f70938db8d8a6d59..085fda0a44bed4e3d3ea8a52bb05394beff7f0cc 100644 (file)
@@ -1535,7 +1535,7 @@ int rgw_remove_sse_s3_bucket_key(req_state *s, optional_yield y)
 *      I've left some commented out lines above.  They are there for
 *      a reason, which I will explain.  The "canonical" json constructed
 *      by the code above as a crypto context must take a json object and
-*      turn it into a unique determinstic fixed form.  For most json
+*      turn it into a unique deterministic fixed form.  For most json
 *      types this is easy.  The hardest problem that is handled above is
 *      detailing with unicode strings; they must be turned into
 *      NFC form and sorted in a fixed order.  Numbers, however,
index d528f0e6d479a85b8e8f63897904d2ccf94c5a4d..2415a93c34fb27b5aa7fd85d54780fbef4eb2ad4 100644 (file)
@@ -113,7 +113,7 @@ size_t RGWEnv::get_size(const char *name, size_t def_val) const
     sz = stoull(iter->second);
   } catch(...){
     /* it is very unlikely that we'll ever encounter out_of_range, but let's
-       return the default eitherway */
+       return the default either way */
     sz = def_val;
   }
 
index 6130019df032cd6ca4f1b92e1c1aed4b3fa7733a..e1217173feda92d970469e116a9add6a63b596fd 100644 (file)
@@ -182,7 +182,7 @@ namespace rgw {
     LookupFHResult fhr{nullptr, 0};
 
     /* XXX the need for two round-trip operations to identify file or
-     * directory leaf objects is unecessary--the current proposed
+     * directory leaf objects is unnecessary--the current proposed
      * mechanism to avoid this is to store leaf object names with an
      * object locator w/o trailing slash */
 
@@ -415,7 +415,7 @@ namespace rgw {
        * leaf object
        */
       if (! rgw_fh) {
-       /* XXX for now, peform a hard lookup to deduce the type of
+       /* XXX for now, perform a hard lookup to deduce the type of
         * object to be deleted ("foo" vs. "foo/")--also, ensures
         * atomicity at this endpoint */
        struct rgw_file_handle *fh;
@@ -1510,7 +1510,7 @@ namespace rgw {
     if (factory == nullptr) {
       return false;
     }
-    /* make sure the reclaiming object is the same partiton with newobject factory,
+    /* make sure the reclaiming object is the same partition with newobject factory,
      * then we can recycle the object, and replace with newobject */
     if (!fs->fh_cache.is_same_partition(factory->fhk.fh_hk.object, fh.fh_hk.object)) {
       return false;
index eb8662d5821748d72285b8bee697c1fb95abe986..3a118ed78d243ba33fa47363ceb7021fffc75569 100644 (file)
@@ -541,7 +541,7 @@ bool ParseState::do_string(CephContext* cct, const char* s, size_t l) {
   auto k = pp->tokens.lookup(s, l);
   Policy& p = pp->policy;
   bool is_action = false;
-  bool is_validaction = false;
+  bool is_valid_action = false;
   Statement* t = p.statements.empty() ? nullptr : &(p.statements.back());
 
   // Top level!
@@ -579,13 +579,13 @@ bool ParseState::do_string(CephContext* cct, const char* s, size_t l) {
             (w->id == TokenID::NotAction)) {
     is_action = true;
     if (*s == '*') {
-      is_validaction = true;
+      is_valid_action = true;
       (w->id == TokenID::Action ?
         t->action = allValue : t->notaction = allValue);
     } else {
       for (auto& p : actpairs) {
         if (match_policy({s, l}, p.name, MATCH_POLICY_ACTION)) {
-          is_validaction = true;
+          is_valid_action = true;
           (w->id == TokenID::Action ? t->action[p.bit] = 1 : t->notaction[p.bit] = 1);
         }
         if ((t->action & s3AllValue) == s3AllValue) {
@@ -687,7 +687,7 @@ bool ParseState::do_string(CephContext* cct, const char* s, size_t l) {
     pp->s.pop_back();
   }
 
-  if (is_action && !is_validaction) {
+  if (is_action && !is_valid_action) {
     annotate(fmt::format("`{}` is not a valid action.",
                         std::string_view{s, l}));
     return false;
index 832c4667b94e1a336e9f1bbdebbb350ddf9bb275..eb6b85071a780a2be8d2387ffca24355847a4172 100644 (file)
@@ -23,7 +23,7 @@
 // (2) check performance of emptying queue to local list, and go over the list and publish
 // (3) use std::shared_mutex (c++17) or equivalent for the connections lock
 
-// cmparisson operator between topic pointer and name
+// comparison operator between topic pointer and name
 bool operator==(const rd_kafka_topic_t* rkt, const std::string& name) {
     return name == std::string_view(rd_kafka_topic_name(rkt)); 
 }
@@ -69,7 +69,7 @@ struct connection_t {
   CallbackList callbacks;
   const std::string broker;
   const bool use_ssl;
-  const bool verify_ssl; // TODO currently iognored, not supported in librdkafka v0.11.6
+  const bool verify_ssl; // TODO currently ignored, not supported in librdkafka v0.11.6
   const boost::optional<std::string> ca_location;
   const std::string user;
   const std::string password;
@@ -209,7 +209,7 @@ bool new_producer(connection_t* conn) {
     return false;
   }
 
-  // get list of brokers based on the bootsrap broker
+  // get list of brokers based on the bootstrap broker
   if (rd_kafka_conf_set(conn->temp_conf, "bootstrap.servers", conn->broker.c_str(), errstr, sizeof(errstr)) != RD_KAFKA_CONF_OK) goto conf_error;
 
   if (conn->use_ssl) {
@@ -459,7 +459,7 @@ private:
         
         auto& conn = conn_it->second;
 
-        // Checking the connection idlesness
+        // Checking the connection idleness
         if(conn->timestamp.sec() + max_idle_time < ceph_clock_now()) {
           ldout(conn->cct, 20) << "kafka run: deleting a connection due to idle behaviour: " << ceph_clock_now() << dendl;
           std::lock_guard lock(connections_lock);
@@ -478,7 +478,7 @@ private:
             // TODO: add error counter for failed retries
             // TODO: add exponential backoff for retries
           } else {
-            ldout(conn->cct, 10) << "Kafka run: connection (" << broker << ") retry successfull" << dendl;
+            ldout(conn->cct, 10) << "Kafka run: connection (" << broker << ") retry successful" << dendl;
           }
           ++conn_it;
           continue;
@@ -570,7 +570,7 @@ public:
 
     std::lock_guard lock(connections_lock);
     const auto it = connections.find(broker);
-    // note that ssl vs. non-ssl connection to the same host are two separate conenctions
+    // note that ssl vs. non-ssl connection to the same host are two separate connections
     if (it != connections.end()) {
       // connection found - return even if non-ok
       ldout(cct, 20) << "Kafka connect: connection found" << dendl;
index d0aba2f7832cbcace233fd6c972237a018c62db7..7d5264f980eee89a7750274cd1ae1e0b5eecff0d 100644 (file)
@@ -142,7 +142,7 @@ int Service::get_admin_token(const DoutPrefixProvider *dpp,
                              optional_yield y,
                              std::string& token)
 {
-  /* Let's check whether someone uses the deprecated "admin token" feauture
+  /* Let's check whether someone uses the deprecated "admin token" feature
    * based on a shared secret from keystone.conf file. */
   const auto& admin_token = config.get_admin_token();
   if (! admin_token.empty()) {
@@ -345,7 +345,7 @@ int TokenEnvelope::parse(const DoutPrefixProvider *dpp,
          * speaks in v2 disregarding the promise to go with v3. */
         decode_v3(*token_iter);
 
-        /* Identity v3 conveys the token inforamtion not as a part of JSON but
+        /* Identity v3 conveys the token information not as a part of JSON but
          * in the X-Subject-Token HTTP header we're getting from caller. */
         token.id = token_str;
       } else {
@@ -354,7 +354,7 @@ int TokenEnvelope::parse(const DoutPrefixProvider *dpp,
     } else if (version == rgw::keystone::ApiVersion::VER_3) {
       if (! token_iter.end()) {
         decode_v3(*token_iter);
-        /* v3 suceeded. We have to fill token.id from external input as it
+        /* v3 succeeded. We have to fill token.id from external input as it
          * isn't a part of the JSON response anymore. It has been moved
          * to X-Subject-Token HTTP header instead. */
         token.id = token_str;
index 7f0160748a903520a0028368af7bb74edfce9b65..e25ce95a828138c862eada13101372a418dd623e 100644 (file)
@@ -650,7 +650,7 @@ RGWKmipHandles::do_one_entry(RGWKMIPTransceiver &element)
       KeyBlock *kp = static_cast<SymmetricKey *>(pld->object)->key_block;
       ByteString *bp;
       if (kp->key_format_type != KMIP_KEYFORMAT_RAW) {
-       lderr(cct) << "get: expected raw key fromat got  " << kp->key_format_type << dendl;
+       lderr(cct) << "get: expected raw key format got  " << kp->key_format_type << dendl;
        element.ret = -EINVAL;
        goto Done;
       }
index 4ae3a950ade63069ed45a3f0383a9041e246fcef..79b81270457d4160941829c3b2fbc773e2a703ba 100644 (file)
@@ -2146,7 +2146,7 @@ int RGWLC::process(int index, int max_lock_secs, LCWorker* worker,
 
   SimpleBackoff shard_lock(5 /* max retries */, 50ms);
   if (! shard_lock.wait_backoff(lock_lambda)) {
-    ldpp_dout(this, 0) << "RGWLC::process(): failed to aquire lock on "
+    ldpp_dout(this, 0) << "RGWLC::process(): failed to acquire lock on "
                       << lc_shard << " after " << shard_lock.get_retries()
                       << dendl;
     return 0;
@@ -2314,7 +2314,7 @@ int RGWLC::process(int index, int max_lock_secs, LCWorker* worker,
     /* postamble */
     //bucket_lc_post(index, max_lock_secs, entry, ret, worker);
     if (! shard_lock.wait_backoff(lock_lambda)) {
-      ldpp_dout(this, 0) << "RGWLC::process(): failed to aquire lock on "
+      ldpp_dout(this, 0) << "RGWLC::process(): failed to acquire lock on "
                         << lc_shard << " after " << shard_lock.get_retries()
                         << dendl;
       return 0;
index f449cce21c026f9a60895068e9f74850891c9c74..5b0a3c728490bdf608eef5d9cf43c9088c933cca 100644 (file)
@@ -114,7 +114,7 @@ namespace rgw {
   void RGWLibProcess::handle_request(const DoutPrefixProvider *dpp, RGWRequest* r)
   {
     /*
-     * invariant: valid requests are derived from RGWLibRequst
+     * invariant: valid requests are derived from RGWLibRequest
      */
     RGWLibRequest* req = static_cast<RGWLibRequest*>(r);
 
index 1ad54b49b4857ca9c05c4c220a785d205157a539..30234eebcdd332f6383d50b0170d70dc21c3533c 100644 (file)
@@ -125,7 +125,7 @@ namespace rgw {
   public:
     CephContext* cct;
 
-    /* unambiguiously return req_state */
+    /* unambiguously return req_state */
     inline req_state* get_state() { return this->RGWRequest::s; }
 
     RGWLibRequest(CephContext* _cct, std::unique_ptr<rgw::sal::User> _user)
index e2f290213b5cfdb1d52d92bf12584f22f87f9fd9..7b8d12599f4e8f3613aabad68da439d12dd024b4 100644 (file)
@@ -180,5 +180,5 @@ public:
   void resume(rgw::sal::Driver* _driver) override;
 };
 
-} //namepsace rgw::lua
+} //namespace rgw::lua
 
index 4118bed42e087a835c69ad46420fded14b359147..35f9529746139841aab16bc51629162f1d0e46ea 100644 (file)
@@ -9,7 +9,7 @@
 
 namespace rgw::lua {
 
-// TODO - add the folowing generic functions
+// TODO - add the following generic functions
 // lua_push(lua_State* L, const std::string& str)
 // template<typename T> lua_push(lua_State* L, const std::optional<T>& val)
 // lua_push(lua_State* L, const ceph::real_time& tp)
index 0e8dfb2bf6ba923e2654cc69d93b860f79c0ffd9..79ebb09fac07a25d28a1142e97c5a68276d0e18a 100644 (file)
@@ -222,7 +222,7 @@ void create_metatable(lua_State* L, const std::string_view parent_name, const st
 // following struct may be used as a base class for other MetaTable classes
 // note, however, this is not mandatory to use it as a base
 struct EmptyMetaTable {
-  // by default everythinmg is "readonly"
+  // by default everything is "readonly"
   // to change, overload this function in the derived
   static int NewIndexClosure(lua_State* L) {
     return luaL_error(L, "trying to write to readonly field");
index 6a7a7313e11710681120264fde4732eef918f740..7363db728a4964ae5348f1769277603ebb652c81 100644 (file)
@@ -3321,7 +3321,7 @@ static int filter_out_quota_info(std::map<std::string, bufferlist>& add_attrs,
     }
   }
 
-  /* Swift requries checking on raw usage instead of the 4 KiB rounded one. */
+  /* Swift requires checking on raw usage instead of the 4 KiB rounded one. */
   quota.check_on_raw = true;
   quota.enabled = quota.max_size > 0 || quota.max_objects > 0;
 
@@ -7601,7 +7601,7 @@ RGWBulkUploadOp::parse_path(const std::string_view& path)
   const size_t start_pos = path.find_first_not_of('/');
 
   if (std::string_view::npos != start_pos) {
-    /* Seperator is the first slash after the leading ones. */
+    /* Separator is the first slash after the leading ones. */
     const size_t sep_pos = path.substr(start_pos).find('/');
 
     if (std::string_view::npos != sep_pos) {
@@ -8074,10 +8074,10 @@ void RGWBulkUploadOp::execute(optional_yield y)
 
 RGWBulkUploadOp::AlignedStreamGetter::~AlignedStreamGetter()
 {
-  const size_t aligned_legnth = length + (-length % alignment);
+  const size_t aligned_length = length + (-length % alignment);
   ceph::bufferlist junk;
 
-  DecoratedStreamGetter::get_exactly(aligned_legnth - position, junk);
+  DecoratedStreamGetter::get_exactly(aligned_length - position, junk);
 }
 
 ssize_t RGWBulkUploadOp::AlignedStreamGetter::get_at_most(const size_t want,
index dc5bc8be55ecde46e7646fed1e010c74802cc24e..be7232ae392da48cbcf2fdfb50f641e9e286e5d3 100644 (file)
@@ -2198,7 +2198,7 @@ inline int rgw_get_request_metadata(const DoutPrefixProvider *dpp,
         return -ENAMETOOLONG;
       }
 
-      /* Similar remarks apply to the check for value size. We're veryfing
+      /* Similar remarks apply to the check for value size. We're verifying
        * it early at the RGW's side as it's being claimed in /info. */
       const auto max_attr_size = cct->_conf->rgw_max_attr_size;
       if (max_attr_size && xattr.length() > max_attr_size) {
index 8cbda840c5ad859eddb018adffb2067b97e3684e..125bace14450632146823fc3aba8d66b4f4ee0e6 100644 (file)
@@ -56,7 +56,7 @@ void add_rgw_frontend_counters(PerfCountersBuilder *pcb) {
   pcb->add_u64(l_rgw_pubsub_push_pending, "pubsub_push_pending", "Pubsub events pending reply from endpoint");
   pcb->add_u64_counter(l_rgw_pubsub_missing_conf, "pubsub_missing_conf", "Pubsub events could not be handled because of missing configuration");
   
-  pcb->add_u64_counter(l_rgw_lua_script_ok, "lua_script_ok", "Successfull executions of Lua scripts");
+  pcb->add_u64_counter(l_rgw_lua_script_ok, "lua_script_ok", "Successful executions of Lua scripts");
   pcb->add_u64_counter(l_rgw_lua_script_fail, "lua_script_fail", "Failed executions of Lua scripts");
   pcb->add_u64(l_rgw_lua_current_vms, "lua_current_vms", "Number of Lua VMs currently being executed");
 }
index 40a0daf3b44656ebae3c313cb5a11c05cd94931b..66ad7151d0a3b421844111a15bd382298f78fc28 100644 (file)
@@ -106,7 +106,7 @@ class RGWPeriodHistory::Impl final {
   /// and return an iterator to the merged history
   Set::iterator merge(Set::iterator dst, Set::iterator src);
 
-  /// construct a Cursor object using Cursor's private constuctor
+  /// construct a Cursor object using Cursor's private constructor
   Cursor make_cursor(Set::const_iterator history, epoch_t epoch);
 
   CephContext *const cct;
index 14d85abe3b62d9499c6094207f367bd4f1d4f2ab..7031c2363f0b8eea6a71b3804c3b15bd070fd000 100644 (file)
@@ -675,7 +675,7 @@ int RGWPubSub::Bucket::remove_notifications(const DoutPrefixProvider *dpp, optio
     return ret ;
   }
 
-  // remove all auto-genrated topics
+  // remove all auto-generated topics
   for (const auto& topic : bucket_topics.topics) {
     const auto& topic_name = topic.first;
     ret = ps.remove_topic(dpp, topic_name, y);
index 745dac7fefe477e060bcca185e7110a29de3104a..b3a511becb685b92d61ec486fb2a83b72a2e3c42 100644 (file)
@@ -22,7 +22,7 @@
 #define dout_prefix (*_dout << "rgw realm reloader: ")
 
 
-// safe callbacks from SafeTimer are unneccessary. reload() can take a long
+// safe callbacks from SafeTimer are unnecessary. reload() can take a long
 // time, so we don't want to hold the mutex and block handle_notify() for the
 // duration
 static constexpr bool USE_SAFE_TIMER_CALLBACKS = false;
index 47272515d348882ccad87046946035444e73ccb1..6b827f983fb625a2d463dd75ddd9d799310e6e32 100644 (file)
@@ -222,13 +222,13 @@ void rgw_rest_init(CephContext *cct, const rgw::sal::ZoneGroup& zone_group)
   hostnames_set.erase(""); // filter out empty hostnames
   ldout(cct, 20) << "RGW hostnames: " << hostnames_set << dendl;
   /* TODO: We should have a sanity check that no hostname matches the end of
-   * any other hostname, otherwise we will get ambigious results from
+   * any other hostname, otherwise we will get ambiguous results from
    * rgw_find_host_in_domains.
    * Eg: 
    * Hostnames: [A, B.A]
    * Inputs: [Z.A, X.B.A]
    * Z.A clearly splits to subdomain=Z, domain=Z
-   * X.B.A ambigously splits to both {X, B.A} and {X.B, A}
+   * X.B.A ambiguously splits to both {X, B.A} and {X.B, A}
    */
 
   zone_group.get_s3website_hostnames(names);
@@ -646,7 +646,7 @@ static void build_redirect_url(req_state *s, const string& redirect_base, string
   
   dest_uri = redirect_base;
   /*
-   * reqest_uri is always start with slash, so we need to remove
+   * request_uri is always start with slash, so we need to remove
    * the unnecessary slash at the end of dest_uri.
    */
   if (dest_uri[dest_uri.size() - 1] == '/') {
@@ -766,11 +766,11 @@ int dump_body(req_state* const s,
               const char* const buf,
               const size_t len)
 {
-  bool healthchk = false;
+  bool healthcheck = false;
   // we dont want to limit health checks
   if(s->op_type == RGW_OP_GET_HEALTH_CHECK)
-    healthchk = true;
-  if(len > 0 && !healthchk) {
+    healthcheck = true;
+  if(len > 0 && !healthcheck) {
     const char *method = s->info.method;
     s->ratelimit_data->decrease_bytes(method, s->ratelimit_user_name, len, &s->user_ratelimit);
     if(!rgw::sal::Bucket::empty(s->bucket.get()))
@@ -803,11 +803,11 @@ int recv_body(req_state* const s,
   } catch (rgw::io::Exception& e) {
     return -e.code().value();
   }
-  bool healthchk = false;
+  bool healthcheck = false;
   // we dont want to limit health checks
   if(s->op_type ==  RGW_OP_GET_HEALTH_CHECK)
-    healthchk = true;
-  if(len > 0 && !healthchk) {
+    healthcheck = true;
+  if(len > 0 && !healthcheck) {
     const char *method = s->info.method;
     s->ratelimit_data->decrease_bytes(method, s->ratelimit_user_name, len, &s->user_ratelimit);
     if(!rgw::sal::Bucket::empty(s->bucket.get()))
index 04f21d9b87d90d373d3619a4737efe3dc4fce415..843b7eb7d084849f3fbc00f0903570c72b5026c9 100644 (file)
@@ -1035,7 +1035,7 @@ void RGWPSCreateNotifOp::execute(optional_yield y) {
     
     // create unique topic name. this has 2 reasons:
     // (1) topics cannot be shared between different S3 notifications because they hold the filter information
-    // (2) make topic clneaup easier, when notification is removed
+    // (2) make topic cleanup easier, when notification is removed
     const auto unique_topic_name = topic_to_unique(topic_name, notif_name);
     // generate the internal topic. destination is stored here for the "push-only" case
     // when no subscription exists
index 3de8ca2618dc8779a99032ccda32fb168230b191..128e44d9a5ae0032c34719a9d7c6add31d7e7ae7 100644 (file)
@@ -221,7 +221,7 @@ void RGWOp_Ratelimit_Set::execute(optional_yield y)
   sval = s->info.args.get("global", &exists);
   if (exists) {
     if (!boost::iequals(sval,"true") && !boost::iequals(sval,"false")) {
-      ldpp_dout(this, 20) << "global is not equal to true or faslse" << dendl;
+      ldpp_dout(this, 20) << "global is not equal to true or false" << dendl;
       op_ret = -EINVAL;
       return;
     }
index 5425406b1eb95f8f71d3c5482e265c2b6e3ed680..f12d5e733007a004296f7f75f34a8a856ff0ee94 100644 (file)
@@ -215,7 +215,7 @@ ldpp_dout(s, 20) << "get_encryption_defaults: found kms_attr " << kms_attr << "
     }
     kms_attr_seen = true;
   } else if (!rest_only && kms_master_key_id != "") {
-ldpp_dout(s, 20) << "get_encryption_defaults: no kms_attr, but kms_master_key_id = " << kms_master_key_id << ", settig kms_attr_seen" << dendl;
+ldpp_dout(s, 20) << "get_encryption_defaults: no kms_attr, but kms_master_key_id = " << kms_master_key_id << ", setting kms_attr_seen" << dendl;
     kms_attr_seen = true;
     rgw_set_amz_meta_header(s->info.crypt_attribute_map, kms_attr, kms_master_key_id, OVERWRITE);
   }
@@ -469,7 +469,7 @@ int RGWGetObj_ObjStore_S3::send_response_data(bufferlist& bl, off_t bl_ofs,
 
   if (! op_ret) {
     if (! lo_etag.empty()) {
-      /* Handle etag of Swift API's large objects (DLO/SLO). It's entirerly
+      /* Handle etag of Swift API's large objects (DLO/SLO). It's entirely
        * legit to perform GET on them through S3 API. In such situation,
        * a client should receive the composited content with corresponding
        * etag value. */
@@ -3303,7 +3303,7 @@ void RGWPostObj_ObjStore_S3::send_response()
        * What we really would like is to quaily the bucket name, so
        * that the client could simply copy it and paste into next request.
        * Unfortunately, in S3 we cannot know if the client will decide
-       * to come through DNS, with "bucket.tenant" sytanx, or through
+       * to come through DNS, with "bucket.tenant" syntax, or through
        * URL with "tenant\bucket" syntax. Therefore, we provide the
        * tenant separately.
        */
index c5bd8b1b7077eb603f822d3e36c365028bf5810e..d94181f4e6342f35836940c99a054618872f9ead 100644 (file)
@@ -577,7 +577,7 @@ int RGWSTSGetSessionToken::verify_permission(optional_yield y)
                               s,
                               rgw::ARN(partition, service, "", s->user->get_tenant(), ""),
                               rgw::IAM::stsGetSessionToken)) {
-    ldpp_dout(this, 0) << "User does not have permssion to perform GetSessionToken" << dendl;
+    ldpp_dout(this, 0) << "User does not have permission to perform GetSessionToken" << dendl;
     return -EACCES;
   }
 
index 5f0b1f7722263ea070a5ee8029436ba50b781700..25ba61841613f4124be96db231ebbda2f9ca6906 100644 (file)
@@ -1620,7 +1620,7 @@ int RGWBulkDelete_ObjStore_SWIFT::get_data(
     const size_t start_pos = path_str.find_first_not_of('/');
 
     if (string::npos != start_pos) {
-      /* Seperator is the first slash after the leading ones. */
+      /* Separator is the first slash after the leading ones. */
       const size_t sep_pos = path_str.find('/', start_pos);
 
       if (string::npos != sep_pos) {
index c7eaa69842f3d9207a9ad76948137f8efb55bd6e..cfcba2a63e100858e8b932a7fda21b58453264e9 100644 (file)
@@ -370,7 +370,7 @@ int RGWSelectObj_ObjStore_S3::run_s3select_on_csv(const char* query, const char*
   uint32_t length_before_processing, length_post_processing;
   csv_object::csv_defintions csv;
   const char* s3select_syntax_error = "s3select-Syntax-Error";
-  const char* s3select_resource_id = "resourcse-id";
+  const char* s3select_resource_id = "resource-id";
   const char* s3select_processTime_error = "s3select-ProcessingTime-Error";
 
   s3select_syntax.parse_query(query);
index fa595b0da599fa2dc8a78f17e98e652638b389b3..f4fd59a29ac8e9732b4c5c5c0aceacbcf910ac22 100644 (file)
@@ -201,7 +201,7 @@ private:
 #ifdef _ARROW_EXIST
   s3selectEngine::rgw_s3select_api m_rgw_api;
 #endif
-  //a request for range may statisfy by several calls to send_response_date;
+  //a request for range may satisfy by several calls to send_response_date;
   size_t m_request_range;
   std::string requested_buffer;
   std::string range_req_str;
index f0314517bebdab7cdef70b10a66772c0fdf3e597..cc45d5f3a2ceb67cbc7d1335804a6db02199b6d5 100644 (file)
@@ -699,7 +699,7 @@ class Bucket {
     virtual const rgw_user& get_owner() const = 0;
     /** Check in the backing store if this bucket is empty */
     virtual int check_empty(const DoutPrefixProvider* dpp, optional_yield y) = 0;
-    /** Chec k if the given size fits within the quota */
+    /** Check if the given size fits within the quota */
     virtual int check_quota(const DoutPrefixProvider *dpp, RGWQuota& quota, uint64_t obj_size, optional_yield y, bool check_size_only = false) = 0;
     /** Set the attributes in attrs, leaving any other existing attrs set, and
      * write them to the backing store; a merge operation */
index 6c8778b872383a395b77ebc2756ade46f52ed75b..1a28a7724f4c460a7311f53f812f8148e437018c 100644 (file)
@@ -310,7 +310,7 @@ namespace rgw::sal {
 
   int DBBucket::remove_objs_from_index(const DoutPrefixProvider *dpp, std::list<rgw_obj_index_key>& objs_to_unlink)
   {
-    /* XXX: CHECK: Unlike RadosStore, there is no seperate bucket index table.
+    /* XXX: CHECK: Unlike RadosStore, there is no separate bucket index table.
      * Delete all the object in the list from the object table of this
      * bucket
      */
@@ -1206,7 +1206,7 @@ namespace rgw::sal {
         return 0; /* nothing more to write */
       }
 
-      /* flush watever tail data is present */
+      /* flush whatever tail data is present */
       int ret = parent_op.write_data(dpp, tail_part_data, tail_part_offset);
       if (ret < 0) {
         return ret;
@@ -1360,7 +1360,7 @@ namespace rgw::sal {
         return 0; /* nothing more to write */
       }
 
-      /* flush watever tail data is present */
+      /* flush whatever tail data is present */
       int ret = parent_op.write_data(dpp, tail_part_data, tail_part_offset);
       if (ret < 0) {
         return ret;
index 2b31d5c5a2972e370f2bb966dd8a5b728e4e6370..557bcf24f2b3139877c5795fc831e0a306273770 100644 (file)
@@ -72,7 +72,7 @@ int Credentials::generateCredentials(const DoutPrefixProvider *dpp,
   //Session Token - Encrypt using AES
   auto* cryptohandler = cct->get_crypto_handler(CEPH_CRYPTO_AES);
   if (! cryptohandler) {
-    ldpp_dout(dpp, 0) << "ERROR: No AES cryto handler found !" << dendl;
+    ldpp_dout(dpp, 0) << "ERROR: No AES crypto handler found !" << dendl;
     return -EINVAL;
   }
   string secret_s = cct->_conf->rgw_sts_key;
index b58f0b45d8e7be7863390195c3ad7ad0c41fb7ca..765721df190d39eadb8eb9e0996f6fd6a729f520 100644 (file)
@@ -88,7 +88,7 @@ void TempURLEngine::get_owner_info(const DoutPrefixProvider* dpp, const req_stat
 
   /* TempURL case is completely different than the Keystone auth - you may
    * get account name only through extraction from URL. In turn, knowledge
-   * about account is neccessary to obtain its bucket tenant. Without that,
+   * about account is necessary to obtain its bucket tenant. Without that,
    * the access would be limited to accounts with empty tenant. */
   string bucket_tenant;
   if (!s->account_name.empty()) {
index 98d0a4798a5d99146facc51babd3f243923fadbc..ec9d1f2c623417dc01029ab31f050c6afe76c4d3 100644 (file)
@@ -591,7 +591,7 @@ WRITE_CLASS_ENCODER(rgw_sync_data_flow_group)
 struct rgw_sync_policy_group {
   std::string id;
 
-  rgw_sync_data_flow_group data_flow; /* override data flow, howver, will not be able to
+  rgw_sync_data_flow_group data_flow; /* override data flow, however, will not be able to
                                                         add new flows that don't exist at higher level */
   std::vector<rgw_sync_bucket_pipes> pipes; /* if not defined then applies to all
                                                               buckets (DR sync) */
index c8711a96d6d54b090017aa0e956ab49501ceab74..13fce000c41249ac2a11c98d6a8415433e31149e 100644 (file)
@@ -332,7 +332,7 @@ struct RGWZone {
  */
   uint32_t bucket_index_max_shards;
 
-  // pre-shard buckets on creation to enable some write-parallism by default,
+  // pre-shard buckets on creation to enable some write-parallelism by default,
   // delay the need to reshard as the bucket grows, and (in multisite) get some
   // bucket index sharding where dynamic resharding is not supported
   static constexpr uint32_t default_bucket_index_max_shards = 11;
index 99f400f42b0211c60fa2fbeeccc6493094372b5f..d682b87eb2c278ad2c43355d0945e01e0f402047 100644 (file)
@@ -424,7 +424,7 @@ bool RGWSI_RADOS::check_secure_mon_conn(const DoutPrefixProvider *dpp) const
   std::vector<uint32_t> modes;
 
   reg.get_supported_methods(CEPH_ENTITY_TYPE_MON, &methods, &modes);
-  ldpp_dout(dpp, 20) << __func__ << "(): auth registy supported: methods=" << methods << " modes=" << modes << dendl;
+  ldpp_dout(dpp, 20) << __func__ << "(): auth registry supported: methods=" << methods << " modes=" << modes << dendl;
 
   for (auto method : methods) {
     if (!reg.is_secure_method(method)) {
index 8f392721f5b745f8d7788234c7706595e8e2c992..8384979249093a4e2ed9c32536205d579b501fa3 100644 (file)
@@ -409,7 +409,7 @@ TEST_F(TestCls2PCQueue, CommitError)
   }
   cls_2pc_reservations reservations;
   ASSERT_EQ(0, cls_2pc_queue_list_reservations(ioctx, queue_name, reservations));
-  // 2 reservations were not comitted
+  // 2 reservations were not committed
   ASSERT_EQ(reservations.size(), 2);
 }
 
@@ -675,7 +675,7 @@ TEST_F(TestCls2PCQueue, ManualCleanup)
   cls_2pc_queue_init(op, queue_name, max_size);
   ASSERT_EQ(0, ioctx.operate(queue_name, &op));
 
-  // anything older than 100ms is cosidered stale
+  // anything older than 100ms is considered stale
   ceph::coarse_real_time stale_time = ceph::coarse_real_clock::now() + std::chrono::milliseconds(100);
 
   std::vector<std::thread> reservers(max_workers);
@@ -749,7 +749,7 @@ TEST_F(TestCls2PCQueue, Cleanup)
   cls_2pc_queue_init(op, queue_name, max_size);
   ASSERT_EQ(0, ioctx.operate(queue_name, &op));
 
-  // anything older than 100ms is cosidered stale
+  // anything older than 100ms is considered stale
   ceph::coarse_real_time stale_time = ceph::coarse_real_clock::now() + std::chrono::milliseconds(100);
 
   std::vector<std::thread> reservers(max_workers);
@@ -989,7 +989,7 @@ TEST_F(TestCls2PCQueue, MultiProducerConsumer)
   std::for_each(producers.begin(), producers.end(), [](auto& p) { p.join(); });
   std::for_each(consumers.begin(), consumers.end(), [](auto& c) { c.join(); });
   if (!retry_happened) {
-      std::cerr << "Queue was never full - all reservations were sucessfull." <<
+      std::cerr << "Queue was never full - all reservations were successful." <<
           "Please decrease the amount of consumer threads" << std::endl;
   }
   // make sure that queue is empty and no reservations remain
index a1f68638c1f41a62c94126cca9d7ab2fd1c233d8..8b2f9dc1041f2008256fcbda224d2e9687a31f37 100644 (file)
@@ -85,7 +85,7 @@ TEST_F(TestClsQueue, Enqueue)
   ASSERT_EQ(0, ioctx.operate(queue_name, &op));
 
   // test multiple enqueues
-  // 10 iterations, 100 elelemts each
+  // 10 iterations, 100 elements each
   // expect 0 (OK)
   test_enqueue(queue_name, 10, 100, 0);
 }
@@ -99,10 +99,10 @@ TEST_F(TestClsQueue, QueueFull)
   cls_queue_init(op, queue_name, queue_size);
   ASSERT_EQ(0, ioctx.operate(queue_name, &op));
 
-  // 8 iterations, 5 elelemts each
+  // 8 iterations, 5 elements each
   // expect 0 (OK)
   test_enqueue(queue_name, 8, 5, 0);
-  // 2 iterations, 5 elelemts each
+  // 2 iterations, 5 elements each
   // expect -28 (Q FULL)
   test_enqueue(queue_name, 2, 5, -28);
 }
index bf60dfdd04248b4c4e8eb28546e37ec606830d6e..a2f2fa66a7672435ede5b72c650da33cc59e19f0 100644 (file)
@@ -456,7 +456,7 @@ TEST_F(cls_rgw, index_list)
     { static_cast<char>(0xCF), static_cast<char>(0x8F) },
     /* treble byte utf8 character */
     { static_cast<char>(0xDF), static_cast<char>(0x8F), static_cast<char>(0x8F) },
-    /* quadruble byte utf8 character */
+    /* quadruple byte utf8 character */
     { static_cast<char>(0xF7), static_cast<char>(0x8F), static_cast<char>(0x8F), static_cast<char>(0x8F) },
   };
 
@@ -738,7 +738,7 @@ TEST_F(cls_rgw, bi_list)
       "bi list test with filters should return correct truncation indicator";
   }
 
-  // test whether combined segment count is correcgt
+  // test whether combined segment count is correct
   is_truncated = false;
   entries.clear();
   marker.clear();
index 004ccc6d1ce07dca2be4f2509765fd33b2d7c680..80fa88fabf53156fada661cc62c605be91da0826 100644 (file)
@@ -259,7 +259,7 @@ object_map::iterator simulator::find_or_create(const cls_rgw_obj_key& key)
 
 int simulator::try_start(const cls_rgw_obj_key& key, const std::string& tag)
 {
-  // choose randomly betwen create and delete
+  // choose randomly between create and delete
   const auto type = static_cast<RGWModifyOp>(
       ceph::util::generate_random_number<size_t, size_t>(CLS_RGW_OP_ADD,
                                                          CLS_RGW_OP_DEL));
index d6bb3db1c6903fc1c107fb358754b82f6184f336..dec7ea1c149c4648fed6705e29b110cdfd5b1220 100644 (file)
@@ -68,24 +68,24 @@ add_executable(unittest_rgw_bucket_sync_cache test_rgw_bucket_sync_cache.cc)
 add_ceph_unittest(unittest_rgw_bucket_sync_cache)
 target_link_libraries(unittest_rgw_bucket_sync_cache ${rgw_libs})
 
-#unitttest_rgw_period_history
+#unittest_rgw_period_history
 add_executable(unittest_rgw_period_history test_rgw_period_history.cc)
 add_ceph_unittest(unittest_rgw_period_history)
 target_link_libraries(unittest_rgw_period_history ${rgw_libs})
 
-# unitttest_rgw_compression
+# unittest_rgw_compression
 add_executable(unittest_rgw_compression
   test_rgw_compression.cc
   $<TARGET_OBJECTS:unit-main>)
 add_ceph_unittest(unittest_rgw_compression)
 target_link_libraries(unittest_rgw_compression ${rgw_libs})
 
-# unitttest_http_manager
+# unittest_http_manager
 add_executable(unittest_http_manager test_http_manager.cc)
 add_ceph_unittest(unittest_http_manager)
 target_link_libraries(unittest_http_manager ${rgw_libs})
 
-# unitttest_rgw_reshard_wait
+# unittest_rgw_reshard_wait
 add_executable(unittest_rgw_reshard_wait test_rgw_reshard_wait.cc)
 add_ceph_unittest(unittest_rgw_reshard_wait)
 target_link_libraries(unittest_rgw_reshard_wait ${rgw_libs})
@@ -213,7 +213,7 @@ add_ceph_unittest(unittest_rgw_string)
 target_include_directories(unittest_rgw_string
   SYSTEM PRIVATE "${CMAKE_SOURCE_DIR}/src/rgw")
 
-# unitttest_rgw_dmclock_queue
+# unittest_rgw_dmclock_queue
 add_executable(unittest_rgw_dmclock_scheduler test_rgw_dmclock_scheduler.cc $<TARGET_OBJECTS:unit-main>)
 add_ceph_unittest(unittest_rgw_dmclock_scheduler)
 target_include_directories(unittest_rgw_dmclock_scheduler
index 30fce41a1bb017616b4b47c3c1555ef12a3fb36c..0b53d32c7365cf2f28eab4dea16b479d13b50ccf 100644 (file)
@@ -26,7 +26,7 @@ def put_object_tagging(conn, bucket_name, key, tags):
 
 def make_request(conn, method, resource, parameters=None, sign_parameters=False, extra_parameters=None):
     """generic request sending to pubsub radogw
-    should cover: topics, notificatios and subscriptions
+    should cover: topics, notifications and subscriptions
     """
     url_params = ''
     if parameters is not None:
index 8860df1555ef9fb90cb2545d3f6bbbd1009a9feb..075d47466a2368da41fdcafe418cb207f9d81e30 100644 (file)
@@ -277,7 +277,7 @@ def stop_amqp_receiver(receiver, task):
         receiver.channel.stop_consuming()
         log.info('stopping AMQP receiver')
     except Exception as error:
-        log.info('failed to gracefuly stop AMQP receiver: %s', str(error))
+        log.info('failed to gracefully stop AMQP receiver: %s', str(error))
     task.join(5)
 
 
@@ -487,7 +487,7 @@ def stop_kafka_receiver(receiver, task):
         receiver.consumer.unsubscribe()
         receiver.consumer.close()
     except Exception as error:
-        log.info('failed to gracefuly stop Kafka receiver: %s', str(error))
+        log.info('failed to gracefully stop Kafka receiver: %s', str(error))
 
 
 def get_ip():
index 13ec832a2041ca2d8486d8bae7736bf735d164ab..7ad708350dc5102ab8b40eb32e010a84a80e524b 100644 (file)
@@ -192,7 +192,7 @@ def test_az_create_empty_bucket():
 
 
 def test_az_check_empty_bucket_versioning():
-     """ test bucket vesioning with empty bucket """
+     """ test bucket versioning with empty bucket """
      zones, az_zones = init_env()
      bucket_name = gen_bucket_name()
      # create bucket on the non archive zone
index dddf4ae1b18f25d7918d7916b8b6e0f6215d3330..c164e5547f4b461d99989b238bbd9c474bdfcd8b 100755 (executable)
@@ -37,7 +37,7 @@ cuttlefish
 fox
 llama
 octopus
-penguine
+penguin
 seal
 squid
 whale
index f2c1285300ec15cb433882b401f09c45b06c8926..46bf8e0bfd7c9f46b0f39895859a753e531888f1 100644 (file)
@@ -14,7 +14,7 @@ Since we use the same entry point file for all tests, running specific tests is
 ```
 $ nosetests test_multi.py:<specific_test_name>
 ```
-To run miltiple tests based on wildcard string, use the following format:
+To run multiple tests based on wildcard string, use the following format:
 ```
 $ nosetests test_multi.py -m "<wildcard string>"
 ```
index c2297dc2235ef42baaae9572ae9eb93fa67ffd5b..a6c76dd2a2cd5be233080f3be00d72d87f37294a 100644 (file)
@@ -46,7 +46,7 @@ protected:
     amqp::shutdown();
   }
 
-  // wait for at least one new (since last drain) message to be dequeueud
+  // wait for at least one new (since last drain) message to be dequeued
   // and then wait for all pending answers to be received
   void wait_until_drained() {  
     while (amqp::get_dequeued() == current_dequeued) {
index aaa4e4174f785d5f0e27cd241eefd8d9a128fc67..9fc6145d2fe77984ea127a27a2d211912c074164 100644 (file)
@@ -242,7 +242,7 @@ TEST_F(TestSSEKMS, concat_url)
   // Each test has 3 strings:
   // * the base URL
   // * the path we want to concatenate
-  // * the exepected final URL
+  // * the expected final URL
   std::string tests[9][3] ={
     {"", "", ""},
     {"", "bar", "/bar"},
index be9fa6aed1622dc6bb7915e585006eca97f95a68..07f8521c2313e45bc933a6f01d619b387f731bc9 100644 (file)
@@ -706,7 +706,7 @@ TEST(TestRGWLua, UseFunction)
 {
        const std::string script = R"(
                function print_owner(owner)
-               print("Owner Dispaly Name: " .. owner.DisplayName)
+               print("Owner Display Name: " .. owner.DisplayName)
                print("Owner Id: " .. owner.User.Id)
                print("Owner Tenanet: " .. owner.User.Tenant)
                end
@@ -921,7 +921,7 @@ TEST(TestRGWLuaBackground, RequestScript)
 
   pe.lua.background = &lua_background;
 
-  // to make sure test is consistent we have to puase the background
+  // to make sure test is consistent we have to pause the background
   lua_background.pause();
   const auto rc = lua::request::execute(nullptr, nullptr, nullptr, &s, nullptr, request_script);
   ASSERT_EQ(rc, 0);
index fa9f2115778757c80846117ec847a7b969145034..a31be59a3c8850abe9c458e637a530e2a22d55e2 100644 (file)
@@ -376,7 +376,7 @@ TEST(TestDecoder, BasicParsing)
   ASSERT_STREQ(to_string(result).c_str(), expected_output);
 }
 
-TEST(TestDecoder, MalfomedInput)
+TEST(TestDecoder, MalformedInput)
 {
   RGWXMLDecoder::XMLParser parser;
   ASSERT_TRUE(parser.init());
index fe072ead18a1b68a7d98e3f2a766cc7a34020391..7dd7604db1a1f677e1f7845d47c449e4d8314998 100644 (file)
@@ -489,7 +489,7 @@ static int put_bucket_obj(const char *obj_name, char *data, unsigned len) {
   g_test->send_request(string("PUT"), req,
                        read_bucket_object, (void *)data, (size_t)len);
   if (g_test->get_resp_code() != 200U) {
-    cout << "Errror sending object to the bucket, http_code " << g_test->get_resp_code();
+    cout << "Error sending object to the bucket, http_code " << g_test->get_resp_code();
     return -1;
   }
   return 0;
@@ -500,7 +500,7 @@ static int read_bucket_obj(const char *obj_name) {
   req.append(obj_name);
   g_test->send_request(string("GET"), req);
   if (g_test->get_resp_code() != 200U) {
-    cout << "Errror sending object to the bucket, http_code " << g_test->get_resp_code();
+    cout << "Error sending object to the bucket, http_code " << g_test->get_resp_code();
     return -1;
   }
   return 0;
@@ -511,7 +511,7 @@ static int delete_obj(const char *obj_name) {
   req.append(obj_name);
   g_test->send_request(string("DELETE"), req);
   if (g_test->get_resp_code() != 204U) {
-    cout << "Errror deleting object from bucket, http_code " << g_test->get_resp_code();
+    cout << "Error deleting object from bucket, http_code " << g_test->get_resp_code();
     return -1;
   }
   return 0;
index 4699a876dfebd62ab9942e10b73e750d6050eae3..b1d5fad06009d6b0a59b71c4bd847157bf2f3b3f 100644 (file)
@@ -697,7 +697,7 @@ TEST(TestRGWAdmin, meta_get){
   p2 = RGW_CAP_WRITE;
   EXPECT_TRUE (obt_info.caps.check_cap(meta_caps, p2) != 0);
 
-  /*Version and tag infromation*/
+  /*Version and tag information*/
   EXPECT_TRUE(objv1->ver > objv->ver);
   EXPECT_EQ(objv1->tag, objv->tag);