]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: fix typos
authorKefu Chai <kchai@redhat.com>
Tue, 18 Sep 2018 03:19:18 +0000 (11:19 +0800)
committerKefu Chai <kchai@redhat.com>
Fri, 21 Sep 2018 04:41:42 +0000 (12:41 +0800)
Signed-off-by: Kefu Chai <kchai@redhat.com>
33 files changed:
README.FreeBSD
doc/architecture.rst
doc/cephfs/cache-size-limits.rst
doc/cephfs/client-auth.rst
doc/cephfs/mds-config-ref.rst
doc/cephfs/multimds.rst
doc/cephfs/upgrading.rst
doc/dev/blkin.rst
doc/dev/cephfs-snapshots.rst
doc/dev/config.rst
doc/dev/mds_internals/data-structures.rst
doc/dev/osd_internals/erasure_coding/proposals.rst
doc/dev/osd_internals/last_epoch_started.rst
doc/dev/osd_internals/log_based_pg.rst
doc/dev/osd_internals/osd_throttles.rst
doc/dev/rados-client-protocol.rst
doc/dev/radosgw/s3_compliance.rst
doc/glossary.rst
doc/mgr/dashboard.rst
doc/mgr/influx.rst
doc/mgr/orchestrator_modules.rst
doc/rados/configuration/mon-config-ref.rst
doc/rados/configuration/pool-pg-config-ref.rst
doc/rados/operations/erasure-code-jerasure.rst
doc/rados/operations/erasure-code-lrc.rst
doc/rados/operations/monitoring-osd-pg.rst
doc/radosgw/elastic-sync-module.rst
doc/releases/cuttlefish.rst
doc/start/quick-ceph-deploy.rst
src/doc/caching.txt
src/doc/killpoints.txt
src/doc/mds_locks.txt
src/pybind/mgr/dashboard/HACKING.rst

index f1a56118dfee2cbdadf63aa2c7343b93c9b67ed2..a3193f7d23e39285dca5161b36343e899e9df7e0 100644 (file)
@@ -2,7 +2,7 @@
 Last updated: 2017-04-08
 
 The FreeBSD build will build most of the tools in Ceph.
-Note that the (kernel) RBD dependant items will not work
+Note that the (kernel) RBD dependent items will not work
 
 I started looking into Ceph, because the HAST solution with CARP and 
 ggate did not really do what I was looking for. But I'm aiming for 
@@ -70,7 +70,7 @@ Build Prerequisites
        11-RELEASE will also work. And Clang is at 3.8.0.
        It uses the CLANG toolset that is available, 3.7 is no longer tested, 
        but was working when that was with 11-CURRENT. 
-       Clang 3.4 (on 10.2-STABLE) does not have all required capabilites to 
+       Clang 3.4 (on 10.2-STABLE) does not have all required capabilities to 
        compile everything
 
 The following setup will get things running for FreeBSD:
@@ -158,5 +158,5 @@ Task to do:
        with all the packages FreeBSD already has in place. Lots of minute 
        details to figure out
 
- -     Design a vitual disk implementation that can be used with behyve and 
+ -     Design a virtual disk implementation that can be used with behyve and 
        attached to an RBD image. 
index fb6e9c31bf1468c6e0a67f17e4b197e5ecf65cfc..0aa1686d9224a37c0ce32d49ac80d100d629c04f 100644 (file)
@@ -1436,7 +1436,7 @@ Ceph Clients include a number of service interfaces. These include:
   
 - **Filesystem**: The :term:`Ceph Filesystem` (CephFS) service provides 
   a POSIX compliant filesystem usable with ``mount`` or as 
-  a filesytem in user space (FUSE).      
+  a filesystem in user space (FUSE).
 
 Ceph can run additional instances of OSDs, MDSs, and monitors for scalability
 and high availability. The following diagram depicts the high-level
index 90cf8ade76091604a1156db98b1dba63e57d5a79..511a2e498fbf7d922afed8b48cd12e3109efbf64 100644 (file)
@@ -19,4 +19,4 @@ Be aware that the cache limit is not a hard limit. Potential bugs in the CephFS
     The memory tracking used is currently imprecise by a constant factor. This
     will be addressed in http://tracker.ceph.com/issues/22599. MDS deployments
     with large `mds_cache_memory_limit` (64GB+) should underallocate RAM to
-    accomodate.
+    accommodate.
index bd0ad1326a8c18e7afcbb8c22cc50abd133ecd72..39513748e4311312aee7b7eb9868ba687c25f706 100644 (file)
@@ -56,7 +56,7 @@ the shell.
 
 See `User Management - Add a User to a Keyring`_. for additional details on user management
 
-To restrict a client to the specfied sub-directory only, we mention the specified
+To restrict a client to the specified sub-directory only, we mention the specified
 directory while mounting using the following syntax. ::
 
  ./ceph-fuse -n client.*client_name* *mount_path* -r *directory_to_be_mounted*
index 2f7eb3758a8c0d76e5abe8a414c01582febfcfd0..000f1ecc8229a8c1510d627e77d6888480f52eef 100644 (file)
 
 ``mds bal fragment interval``
 
-:Description: The delay (in seconds) between a fragment being elegible for split
+:Description: The delay (in seconds) between a fragment being eligible for split
               or merge and executing the fragmentation change.
 :Type:  32-bit Integer
 :Default: ``5``
index a60ef39e5a7e2193a68d8b69afde7255ca6228ce..ac4b434321d39ff415b42f00d13633d8889cad72 100644 (file)
@@ -123,7 +123,7 @@ to. A default value of ``-1`` indicates the directory is not pinned.
 
 A directory's export pin is inherited from its closest parent with a set export
 pin.  In this way, setting the export pin on a directory affects all of its
-children. However, the parents pin can be overriden by setting the child
+children. However, the parents pin can be overridden by setting the child
 directory's export pin. For example:
 
 ::
index bfc29090814dc72d74bb0276e6ace9867f33e70a..a7cb35d328e2180438f4800130a61f33d56c3f41 100644 (file)
@@ -7,7 +7,7 @@ assertions or other faults due to incompatible messages or other functional
 differences. For this reason, it's necessary during any cluster upgrade to
 reduce the number of active MDS for a file system to one first so that two
 active MDS do not communicate with different versions.  Further, it's also
-necessary to take standbys offline as any new CompatSet flags will propogate
+necessary to take standbys offline as any new CompatSet flags will propagate
 via the MDSMap to all MDS and cause older MDS to suicide.
 
 The proper sequence for upgrading the MDS cluster is:
index 0f61ed473bee6198a05fe3534e850e6cdbba29fe..f8daebd32b35cca76944143abdfbc8d21a3aae41 100644 (file)
@@ -109,7 +109,7 @@ You may want to check that ceph is up.::
 
   ./ceph status
 
-Now put something in usin rados, check that it made it, get it back, and remove it.::
+Now put something in using rados, check that it made it, get it back, and remove it.::
 
   ./ceph osd pool create test-blkin 8
   ./rados put test-object-1 ./vstart.sh --pool=test-blkin
index f1d0083535329c2f6575894be35305d20bd3083a..509b5ff3f7065d6f383e0661542d5e6104f665d3 100644 (file)
@@ -78,7 +78,7 @@ Generating a SnapContext
 ------------------------
 A RADOS `SnapContext` consists of a snapshot sequence ID (`snapid`) and all
 the snapshot IDs that an object is already part of. To generate that list, we
-combine `snapids` associated with the SnapRealm and all vaild `snapids` in
+combine `snapids` associated with the SnapRealm and all valid `snapids` in
 `past_parent_snaps`. Stale `snapids` are filtered out by SnapClient's cached
 effective snapshots.
 
index 50be81322f274fc3dacbba4c73a79b4b7b038e9e..5b620b2fe8c762c417bc84986d5721627ea4eb11 100644 (file)
@@ -122,7 +122,7 @@ Default values
 
 There is a default value for every config option. In some cases, there may
 also be a *daemon default* that only applies to code that declares itself
-as a daemon (in thise case, the regular default only applies to non-daemons).
+as a daemon (in this case, the regular default only applies to non-daemons).
 
 Safety
 ------
index f06727166fc6a53c447a39232090447a1ea8708c..c77175a16fca5e9bbce8f1e345d067ee5eb98b3a 100644 (file)
@@ -36,7 +36,7 @@ quite large. Please be careful if you want to add new fields to them.
 
 *OpenFileTable*
   Open file table tracks open files and their ancestor directories. Recovering
-  MDS can easily get open files' pathes, significantly reducing the time of
+  MDS can easily get open files' paths, significantly reducing the time of
   loading inodes for open files. Each entry in the table corresponds to an inode,
   it records linkage information (parent inode and dentry name) of the inode. MDS
   can constructs the inode's path by recursively lookup parent inode's linkage.
index 52f98e87d862bdd73089ca254ee50159139a1f68..caba487d216f3083022b7931cd65943b4ae3ddf0 100644 (file)
@@ -77,7 +77,7 @@ object keys. Perhaps some modeling here can help resolve this
 issue. The data of the temporary object wants to be located as close
 to the data of the base object as possible. This may be best performed
 by adding a new ObjectStore creation primitive that takes the base
-object as an addtional parameter that is a hint to the allocator.
+object as an additional parameter that is a hint to the allocator.
 
 Sam: I think that the short lived thing may be a red herring.  We'll
 be updating the donor and primary objects atomically, so it seems like
@@ -224,7 +224,7 @@ code necessarily has designated parity shards which see every write
 might be desirable to rotate the shards based on object hash).  Even
 if you chose to designate a shard as witnessing all writes, the pg
 might be degraded with that particular shard missing.  This is a bit
-tricky, currently reads and writes implicitely return the most recent
+tricky, currently reads and writes implicitly return the most recent
 version of the object written.  On reads, we'd have to read K shards
 to answer that question.  We can get around that by adding a "don't
 tell me the current version" flag.  Writes are more problematic: we
@@ -254,7 +254,7 @@ user version assert on ec for now (I think?  Only user is rgw bucket
 indices iirc, and those will always be on replicated because they use
 omap).
 
-We can avoid (1) by maintaining the missing set explicitely.  It's
+We can avoid (1) by maintaining the missing set explicitly.  It's
 already possible for there to be a missing object without a
 corresponding log entry (Consider the case where the most recent write
 is to an object which has not been updated in weeks.  If that write
@@ -355,7 +355,7 @@ though.  It's a bit silly since all "shards" see all writes, but it
 would still let us implement and partially test the augmented backfill
 code as well as the extra pg log entry fields -- this depends on the
 explicit pg log entry branch having already merged.  It's not entirely
-clear to me that this one is worth doing seperately.  It's enough code
+clear to me that this one is worth doing separately.  It's enough code
 that I'd really prefer to get it done independently, but it's also a
 fair amount of scaffolding that will be later discarded.
 
index 586f9f7b125538cec54ced1be78364cb4e38c827..8ed5c980a7384feedb284a0682aead5dac020110 100644 (file)
@@ -26,7 +26,7 @@ Thus, the minimum last_update across all infos with
 info.last_epoch_started >= MAX(history.last_epoch_started) must be an
 upper bound on writes reported as committed to the client.
 
-We update info.last_epoch_started with the intial activation message,
+We update info.last_epoch_started with the initial activation message,
 but we only update history.last_epoch_started after the new
 info.last_epoch_started is persisted (possibly along with the first
 write).  This ensures that we do not require an osd with the most
index 4f4524f8d88e8a77db41647195c602d00a72d01a..51eb8278b3e5474c23583438743c1a85247cd098 100644 (file)
@@ -27,7 +27,7 @@ writes on overlapping regions), we might as well serialize writes on
 the whole PG since it lets us represent the current state of the PG
 using two numbers: the epoch of the map on the primary in which the
 most recent write started (this is a bit stranger than it might seem
-since map distribution itself is asyncronous -- see Peering and the
+since map distribution itself is asynchronous -- see Peering and the
 concept of interval changes) and an increasing per-pg version number
 -- this is referred to in the code with type eversion_t and stored as
 pg_info_t::last_update.  Furthermore, we maintain a log of "recent"
index 6739bd9ea5ae303c88585ed761498368556fa567..ee98d24850cb82142cd09b8852a9c7e003221b86 100644 (file)
@@ -12,7 +12,7 @@ included in FileStore as FileStore::wbthrottle.  The intention is to
 bound the amount of outstanding IO we need to do to flush the journal.
 At the same time, we don't want to necessarily do it inline in case we
 might be able to combine several IOs on the same object close together
-in time.  Thus, in FileStore::_write, we queue the fd for asyncronous
+in time.  Thus, in FileStore::_write, we queue the fd for asynchronous
 flushing and block in FileStore::_do_op if we have exceeded any hard
 limits until the background flusher catches up.
 
index da3d73dae6fc91df96c3caf31db386ac408fb474..920c65f39835f003b11bb3b003891a6d9dca1141 100644 (file)
@@ -77,9 +77,9 @@ A backoff request has four properties:
 #. hobject_t end
 
 There are two types of backoff: a *PG* backoff will plug all requests
-targetting an entire PG at the client, as described by a range of the
+targeting an entire PG at the client, as described by a range of the
 hash/hobject_t space [begin,end), while an *object* backoff will plug
-all requests targetting a single object (begin == end).
+all requests targeting a single object (begin == end).
 
 When the client receives a *block* backoff message, it is now
 responsible for *not* sending any requests for hobject_ts described by
index b6b0d85430737cddf437a8a5472e3ed1f812bf19..50aeda36a313f05414ffdbf57a9a00f01090c9a2 100644 (file)
@@ -166,7 +166,7 @@ S3 Documentation reference : http://docs.aws.amazon.com/AmazonS3/latest/API/REST
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
 | GET    | Bucket requestPayment  | No         |                                                                                                            |             |
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
-| GET    | Bucket versionning     | No         |                                                                                                            |             |
+| GET    | Bucket versioning      | No         |                                                                                                            |             |
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
 | GET    | Bucket website         | No         |                                                                                                            |             |
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
@@ -209,7 +209,7 @@ S3 Documentation reference : http://docs.aws.amazon.com/AmazonS3/latest/API/REST
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
 | PUT    | Bucket requestPayment  | No         |                                                                                                            |             |
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
-| PUT    | Bucket versionning     | No         |                                                                                                            |             |
+| PUT    | Bucket versioning      | No         |                                                                                                            |             |
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
 | PUT    | Bucket website         | No         |                                                                                                            |             |
 +--------+------------------------+------------+------------------------------------------------------------------------------------------------------------+-------------+
index 18f7156ec6a93cac83175402ddbd2e33198a430a..ce86daf1cbab6bd1c348d44c8d5148a66a27c586 100644 (file)
@@ -103,7 +103,7 @@ reflect either technical terms or legacy ways of referring to Ceph systems.
                ``fsid`` term is used interchangeably with ``uuid``
 
        OSD uuid
-               Just like the OSD fsid, this is the OSD unique identifer and is used
+               Just like the OSD fsid, this is the OSD unique identifier and is used
                interchangeably with ``fsid``
 
        bluestore
index 8b9ae7628c8d3cc8d241efb3eb6d5c93dd871029..a1e7d35e4e60112e8e317888d5fcd5fb0fb2de3f 100644 (file)
@@ -385,7 +385,7 @@ User accounts are also associated with a set of roles that define which
 dashboard functionality can be accessed by the user.
 
 The Dashboard functionality/modules are grouped within a *security scope*.
-Security scopes are predefined and static. The current avaliable security
+Security scopes are predefined and static. The current available security
 scopes are:
 
 - **hosts**: includes all features related to the ``Hosts`` menu
index 7fefcff5e9d184ec5e864d6858a1a01a85724ddb..7434b4d8bcc0c8e5eb86725088c0652385f889a9 100644 (file)
@@ -62,7 +62,7 @@ Additional optional configuration settings are:
 Debugging 
 ---------
 
-By default, a few debugging statments as well as error statements have been set to print in the log files. Users can add more if necessary.
+By default, a few debugging statements as well as error statements have been set to print in the log files. Users can add more if necessary.
 To make use of the debugging option in the module:
 
 - Add this to the ceph.conf file.::
index 93d4844a5c898747b25db30815497c9e32a58efb..265e312dde6a71576bb1936f9aeb66c1974ba1ea 100644 (file)
@@ -17,7 +17,7 @@ provides the ability to discover devices and create Ceph services.  This
 includes external projects such as ceph-ansible, DeepSea, and Rook.
 
 An *orchestrator module* is a ceph-mgr module (:ref:`mgr-module-dev`)
-which implements common managment operations using a particular
+which implements common management operations using a particular
 orchestrator.
 
 Orchestrator modules subclass the ``Orchestrator`` class: this class is
index ce91ecfba4e0746d19bde29944e5d533f693b324..b144d440f83f2d101cd7c7fa6a952cc8aa28e3b4 100644 (file)
@@ -1197,7 +1197,7 @@ Miscellaneous
 
 :Description: Largest number of PGs per "involved" OSD to let split create.
               When we increase the ``pg_num`` of a pool, the placement groups
-              will be splitted on all OSDs serving that pool. We want to avoid
+              will be split on all OSDs serving that pool. We want to avoid
               extreme multipliers on PG splits.
 :Type: Integer
 :Default: 300
index 2b438313598a0fa23d423189afc7bd67a3e7ce9f..31e2a0fd828289c9adc07208dc980004d8960120 100644 (file)
@@ -6,7 +6,7 @@
 
 When you create pools and set the number of placement groups for the pool, Ceph
 uses default values when you don't specifically override the defaults. **We
-recommend** overridding some of the defaults. Specifically, we recommend setting
+recommend** overriding some of the defaults. Specifically, we recommend setting
 a pool's replica size and overriding the default number of placement groups. You
 can specifically set these values when running `pool`_ commands. You can also
 override the defaults by adding new ones in the ``[global]`` section of  your
index be626eca1452a90f5097e2280a16f829d556b4db..878bcac5cb633b4c441e81365694a1774bfd1319 100644 (file)
@@ -63,7 +63,7 @@ Where:
 ``packetsize={bytes}``
 
 :Description: The encoding will be done on packets of *bytes* size at
-              a time. Chosing the right packet size is difficult. The
+              a time. Choosing the right packet size is difficult. The
               *jerasure* documentation contains extensive information
               on this topic.
 
index 6b8a94edc5f5d20c46ca3d7bda92d13170744516..eeb07a385758f8d294b019e497cc65dca229aa27 100644 (file)
@@ -159,7 +159,7 @@ Low level plugin configuration
 
 The sum of **k** and **m** must be a multiple of the **l** parameter.
 The low level configuration parameters do not impose such a
-restriction and it may be more convienient to use it for specific
+restriction and it may be more convenient to use it for specific
 purposes. It is for instance possible to define two groups, one with 4
 chunks and another with 3 chunks. It is also possible to recursively
 define locality sets, for instance datacenters and racks into
@@ -280,7 +280,7 @@ The steps found in the layers description::
    step 3      ____cDDD
 
 are applied in order. For instance, if a 4K object is encoded, it will
-first go thru *step 1* and be divided in four 1K chunks (the four
+first go through *step 1* and be divided in four 1K chunks (the four
 uppercase D). They are stored in the chunks 2, 3, 6 and 7, in
 order. From these, two coding chunks are calculated (the two lowercase
 c). The coding chunks are stored in the chunks 1 and 5, respectively.
index 5f5d763bf40bee9bd51f6fd85ca8b99851300fe6..11f5846e845382d6622c411a53e7b366c8bdcd19 100644 (file)
@@ -413,7 +413,7 @@ Stale
 While Ceph uses heartbeats to ensure that hosts and daemons are running, the
 ``ceph-osd`` daemons may also get into a ``stuck`` state where they are not
 reporting statistics in a timely manner (e.g., a temporary network fault). By
-default, OSD daemons report their placement group, up thru, boot and failure
+default, OSD daemons report their placement group, up through, boot and failure
 statistics every half second (i.e., ``0.5``),  which is more frequent than the
 heartbeat thresholds. If the **Primary OSD** of a placement group's acting set
 fails to report to the monitor or if other OSDs have reported the primary OSD
index 3878fe081e43c3c2f470fd9d7eb4199f099f32f3..e06cbb66d8ab5fab22cb56301580ff12c880c86b 100644 (file)
@@ -146,7 +146,7 @@ than string.
    POST /{bucket}?mdsearch
    x-amz-meta-search: <key [; type]> [, ...]
 
-Multiple metadata fields must be comma seperated, a type can be forced for a
+Multiple metadata fields must be comma separated, a type can be forced for a
 field with a `;`. The currently allowed types are string(default), integer and
 date
 
index a9e28c98335687a54831f75f415ca9de7307909a..28ab8c7e0c25d6bbfcf3b9e20753b3f191a04d04 100644 (file)
@@ -354,7 +354,7 @@ Please see `Upgrading from Bobtail to Cuttlefish`_ for details.
 
 * The sysvinit script now uses the ceph.conf file on the remote host
   when starting remote daemons via the '-a' option.  Note that if '-a'
-  is used in conjuction with '-c path', the path must also be present
+  is used in conjunction with '-c path', the path must also be present
   on the remote host (it is not copied to a temporary file, as it was
   previously).
 
@@ -472,7 +472,7 @@ Notable changes from v0.56 "Bobtail"
 * mds: many fixes (Yan Zheng)
 * mds: misc bug fixes with clustered MDSs and failure recovery
 * mds: misc bug fixes with readdir
-* mds: new encoding for all data types (to allow forward/backward compatbility) (Greg Farnum)
+* mds: new encoding for all data types (to allow forward/backward compatibility) (Greg Farnum)
 * mds: store and update backpointers/traces on directory, file objects (Sam Lang)
 * mon: 'osd crush add|link|unlink|add-bucket ...' commands
 * mon: ability to tune leveldb
@@ -665,7 +665,7 @@ Notable Changes
  * radosgw: fix object copy onto self (Yehuda Sadeh)
  * radosgw: ACL grants in headers (Caleb Miles)
  * radosgw: ability to listen to fastcgi via a port (Guilhem Lettron)
- * mds: new encoding for all data types (to allow forward/backward compatbility) (Greg Farnum)
+ * mds: new encoding for all data types (to allow forward/backward compatibility) (Greg Farnum)
  * mds: fast failover between MDSs (enforce unique mds names)
  * crush: ability to create, remove rules via CLI
  * many many cleanups (Danny Al-Gaaf)
index bb2bcc19f4ba6fbfb04c2052abd84c078ce01457..91a7d11fe2e0c7f82d3178e5684371933d9d0542 100644 (file)
@@ -201,7 +201,7 @@ A Ceph Storage Cluster requires at least one Ceph Monitor and Ceph
 Manager to run. For high availability, Ceph Storage Clusters typically
 run multiple Ceph Monitors so that the failure of a single Ceph
 Monitor will not bring down the Ceph Storage Cluster. Ceph uses the
-Paxos algorithm, which requires a majority of monitors (i.e., greather
+Paxos algorithm, which requires a majority of monitors (i.e., greater
 than *N/2* where *N* is the number of monitors) to form a quorum.
 Odd numbers of monitors tend to be better, although this is not required.
 
index 31570cc874b390533883aa1c7c6b0fc1ba06fb4b..58d453175c94cd7aa82dd795ed439fefdd8391ba 100644 (file)
@@ -161,7 +161,7 @@ pins) to be migrated to a different MDS node.  Pins can be placed on
 both inodes and directories.
 
 Auth pins can only exist for authoritative metadata, because they are
-only created if the object is authoritative, and their presense
+only created if the object is authoritative, and their presence
 prevents the migration of authority.
 
 
@@ -197,7 +197,7 @@ CACHE EXPIRATION FOR EXPORTING SUBTREES
 
 Cache expiration messages that are received for a subtree that is
 being exported are either deferred or handled immediately, based on
-the sender and reciever states. The importing MDS will always defer until
+the sender and receiver states. The importing MDS will always defer until
 after the export finishes, because the import could fail. The exporting MDS
 processes the expire UNLESS the expiring MDS does not know about the export or
 the exporting MDS is no longer auth.
index 1cd2bb6ba6f2d5177100e3c3328bb46e0346701d..0813386bd8ec5ed94f45b0919e866bb1feeca579 100644 (file)
@@ -16,7 +16,7 @@ mds_kill_mdstable_at:
 mds_kill_export_at:
 1: After moving to STATE_EXPORTING
 2: After sending MExportDirDiscover
-3: After recieving MExportDirDiscoverAck and auth_unpin'ing.
+3: After receiving MExportDirDiscoverAck and auth_unpin'ing.
 4: After sending MExportDirPrep
 5: After receiving MExportDirPrepAck
 6: After sending out MExportDirNotify to all replicas
index f41a89a9b31e57910ca4441565369a5f29d60483..d89cc22af4c6a4d6f7016f8b34ecf24bd1495c9a 100644 (file)
@@ -30,7 +30,7 @@ recover dist request state on rejoin:
   - locked: prevents dn read
   - on auth
 
--> grab _all_ path pins at onces; hold none while waiting.
+-> grab _all_ path pins at once; hold none while waiting.
 -> grab xlocks in order.
 
 --- auth_pin = pin to authority, on *dir, *in
@@ -41,7 +41,7 @@ recover dist request state on rejoin:
 -> blocking on auth_pins is dangerous.  _never_ block if we are holding other auth_pins on the same node (subtree?).
 -> grab _all_ auth pins at once; hold none while waiting.
 
---- hard/file_wrlock = exlusive lock on inode content
+--- hard/file_wrlock = exclusive lock on inode content
   - prevents inode read
   - on auth
 
@@ -54,7 +54,7 @@ ORDERING
 - order inodes on (ino);
 - need to order both read and write locks, esp with dentries.  so, if we need to lock /usr/bin/foo with read on usr and bin and xwrite on foo, we need to acquire all of those locks using the same ordering.
   - on same host, we can be 'nice' and check lockability of all items, then lock all, and drop everything while waiting.  (actually, is there any use to this?)
-  - on mutiple hosts, we need to use full ordering (at least as things separate across host boundaries).  and if needed lock set changes (such that the order of already acquired locks changes), we need to drop those locks and start over.
+  - on multiple hosts, we need to use full ordering (at least as things separate across host boundaries).  and if needed lock set changes (such that the order of already acquired locks changes), we need to drop those locks and start over.
 
 - how do auth pins fit into all this?
   - auth pin on xlocks only.  no need on read locks.
index df41408f90689064eff5c9c7623d89a8427043b9..3c9f588f916119efe2d6da9355af4de148af772d 100644 (file)
@@ -63,8 +63,8 @@ Run ``npm run build`` to build the project. The build artifacts will be
 stored in the ``dist/`` directory. Use the ``-prod`` flag for a
 production build. Navigate to ``https://localhost:8443``.
 
-Formating TS and SCSS files
-~~~~~~~~~~~~~~~~~~~~~~~~~~~
+Formatting TS and SCSS files
+~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 We use `Prettier <https://prettier.io/>`_ to automatically format TS and SCSS
 files.
@@ -357,7 +357,7 @@ path parameters, query parameters, or body parameters.
 
 For ``GET`` and ``DELETE`` methods, the method's non-optional parameters are
 considered path parameters by default. Optional parameters are considered
-query parameters. By specifing the ``query_parameters`` in the endpoint
+query parameters. By specifying the ``query_parameters`` in the endpoint
 decorator it is possible to make a non-optional parameter to be a query
 parameter.
 
@@ -411,7 +411,7 @@ the ``post`` method case.
 Defining path parameters in endpoints's URLs using python methods's parameters
 is very easy but it is still a bit strict with respect to the position of these
 parameters in the URL structure.
-Sometimes we may want to explictly define a URL scheme that
+Sometimes we may want to explicitly define a URL scheme that
 contains path parameters mixed with static parts of the URL.
 Our controller infrastructure also supports the declaration of URL paths with
 explicit path parameters at both the controller level and method level.
@@ -728,7 +728,7 @@ The value of the class attribute is a pair composed by the default value for tha
 setting, and the python type of the value.
 
 By declaring the ``ADMIN_EMAIL_ADDRESS`` class attribute, when you restart the
-dashboard plugin, you will atomatically gain two additional CLI commands to
+dashboard plugin, you will automatically gain two additional CLI commands to
 get and set that setting::
 
   $ ceph dashboard get-admin-email-address
@@ -886,7 +886,7 @@ additional parameter called ``executor``. The full method signature of
 
 
 The ``TaskExecutor`` class is responsible for code that executes a given task
-function, and defines three methods that can be overriden by
+function, and defines three methods that can be overridden by
 subclasses::
 
   def init(self, task)