]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
prometheus: spell check the alert descriptions 45254/head
authorTravis Nielsen <tnielsen@redhat.com>
Fri, 4 Mar 2022 17:42:02 +0000 (10:42 -0700)
committerTravis Nielsen <tnielsen@redhat.com>
Wed, 30 Mar 2022 23:38:43 +0000 (17:38 -0600)
Signed-off-by: Travis Nielsen <tnielsen@redhat.com>
monitoring/ceph-mixin/prometheus_alerts.yml
monitoring/ceph-mixin/tests_alerts/test_alerts.yml

index fc38678f99dd56dbc0e4b4822a8f2d1debc4a470..3a7598694ed04507f83ddf83c2c6ed7beb1035e9 100644 (file)
@@ -397,7 +397,7 @@ groups:
           documentation: https://docs.ceph.com/en/latest/cephfs/health-messages/#fs-degraded
           summary: Ceph filesystem is degraded
           description: >
-            One or more metdata daemons (MDS ranks) are failed or in a
+            One or more metadata daemons (MDS ranks) are failed or in a
             damaged state. At best the filesystem is partially available,
             worst case is the filesystem is completely unusable.
       - alert: CephFilesystemMDSRanksLow
@@ -533,7 +533,7 @@ groups:
             During data consistency checks (scrub), at least one PG has been flagged as being
             damaged or inconsistent.
 
-            Check to see which PG is affected, and attempt a manual repair if neccessary. To list
+            Check to see which PG is affected, and attempt a manual repair if necessary. To list
             problematic placement groups, use 'rados list-inconsistent-pg <pool>'. To repair PGs use
             the 'ceph pg repair <pg_num>' command.
       - alert: CephPGRecoveryAtRisk
@@ -561,7 +561,7 @@ groups:
           documentation: https://docs.ceph.com/en/latest/rados/operations/health-checks#pg-availability
           summary: Placement group is unavailable, blocking some I/O
           description: >
-            Data availability is reduced impacting the clusters abilty to service I/O to some data. One or
+            Data availability is reduced impacting the clusters ability to service I/O to some data. One or
             more placement groups (PGs) are in a state that blocks IO.
       - alert: CephPGBackfillAtRisk
         expr: ceph_health_detail{name="PG_BACKFILL_FULL"} == 1
index d7fe0132d2daa9dce7080c2d8757e7c8a1990737..25f4366916a220ab6b08d33840c3d57d8dafafe1 100644 (file)
@@ -876,7 +876,7 @@ tests:
           documentation: https://docs.ceph.com/en/latest/cephfs/health-messages/#fs-degraded
           summary: Ceph filesystem is degraded
           description: >
-            One or more metdata daemons (MDS ranks) are failed or in a
+            One or more metadata daemons (MDS ranks) are failed or in a
             damaged state. At best the filesystem is partially available,
             worst case is the filesystem is completely unusable.
  - interval: 1m
@@ -1738,7 +1738,7 @@ tests:
             During data consistency checks (scrub), at least one PG has been flagged as being
             damaged or inconsistent.
 
-            Check to see which PG is affected, and attempt a manual repair if neccessary. To list
+            Check to see which PG is affected, and attempt a manual repair if necessary. To list
             problematic placement groups, use 'rados list-inconsistent-pg <pool>'. To repair PGs use
             the 'ceph pg repair <pg_num>' command.
  - interval: 1m
@@ -1858,7 +1858,7 @@ tests:
           documentation: https://docs.ceph.com/en/latest/rados/operations/health-checks#pg-availability
           summary: Placement group is unavailable, blocking some I/O
           description: >
-            Data availability is reduced impacting the clusters abilty to service I/O to some data. One or
+            Data availability is reduced impacting the clusters ability to service I/O to some data. One or
             more placement groups (PGs) are in a state that blocks IO.
  - interval: 1m
    input_series: