]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
prometheus: spell check the alert descriptions
authorTravis Nielsen <tnielsen@redhat.com>
Fri, 4 Mar 2022 17:42:02 +0000 (10:42 -0700)
committerAashish Sharma <aasharma@redhat.com>
Tue, 26 Apr 2022 04:36:36 +0000 (10:06 +0530)
Signed-off-by: Travis Nielsen <tnielsen@redhat.com>
(cherry picked from commit 9cca95b16abd4af3eb3a5630acb3fb7e0cc73a4e)

monitoring/ceph-mixin/prometheus_alerts.yml
monitoring/ceph-mixin/tests_alerts/test_alerts.yml

index 578596f4af0bc1b6e01c1f6e1bec8df818b4fa15..f56b5877885d5166fa33275f393cd4c6bc45550e 100644 (file)
@@ -397,7 +397,7 @@ groups:
           documentation: https://docs.ceph.com/en/latest/cephfs/health-messages/#fs-degraded
           summary: Ceph filesystem is degraded
           description: >
-            One or more metdata daemons (MDS ranks) are failed or in a
+            One or more metadata daemons (MDS ranks) are failed or in a
             damaged state. At best the filesystem is partially available,
             worst case is the filesystem is completely unusable.
       - alert: CephFilesystemMDSRanksLow
@@ -533,7 +533,7 @@ groups:
             During data consistency checks (scrub), at least one PG has been flagged as being
             damaged or inconsistent.
 
-            Check to see which PG is affected, and attempt a manual repair if neccessary. To list
+            Check to see which PG is affected, and attempt a manual repair if necessary. To list
             problematic placement groups, use 'rados list-inconsistent-pg <pool>'. To repair PGs use
             the 'ceph pg repair <pg_num>' command.
       - alert: CephPGRecoveryAtRisk
@@ -561,7 +561,7 @@ groups:
           documentation: https://docs.ceph.com/en/latest/rados/operations/health-checks#pg-availability
           summary: Placement group is unavailable, blocking some I/O
           description: >
-            Data availability is reduced impacting the clusters abilty to service I/O to some data. One or
+            Data availability is reduced impacting the clusters ability to service I/O to some data. One or
             more placement groups (PGs) are in a state that blocks IO.
       - alert: CephPGBackfillAtRisk
         expr: ceph_health_detail{name="PG_BACKFILL_FULL"} == 1
index 6ff221e70006f5216f173bae1dd7199411d12a9f..680082d8981607003fa3b4ab4efaba18edc49f3e 100644 (file)
@@ -911,7 +911,7 @@ tests:
           documentation: https://docs.ceph.com/en/latest/cephfs/health-messages/#fs-degraded
           summary: Ceph filesystem is degraded
           description: >
-            One or more metdata daemons (MDS ranks) are failed or in a
+            One or more metadata daemons (MDS ranks) are failed or in a
             damaged state. At best the filesystem is partially available,
             worst case is the filesystem is completely unusable.
  - interval: 1m
@@ -1773,7 +1773,7 @@ tests:
             During data consistency checks (scrub), at least one PG has been flagged as being
             damaged or inconsistent.
 
-            Check to see which PG is affected, and attempt a manual repair if neccessary. To list
+            Check to see which PG is affected, and attempt a manual repair if necessary. To list
             problematic placement groups, use 'rados list-inconsistent-pg <pool>'. To repair PGs use
             the 'ceph pg repair <pg_num>' command.
  - interval: 1m
@@ -1893,7 +1893,7 @@ tests:
           documentation: https://docs.ceph.com/en/latest/rados/operations/health-checks#pg-availability
           summary: Placement group is unavailable, blocking some I/O
           description: >
-            Data availability is reduced impacting the clusters abilty to service I/O to some data. One or
+            Data availability is reduced impacting the clusters ability to service I/O to some data. One or
             more placement groups (PGs) are in a state that blocks IO.
  - interval: 1m
    input_series: