← Zurück zum Blog

Monitoring scheitert selten an fehlenden Metriken. Es scheitert häufiger an Alarmen ohne Kontext, an Dubletten und an Regeln, die nie mit dem Betrieb gemeinsam überprüft wurden. Alert Fatigue ist kein Komfortproblem, sondern ein Verfügbarkeitsproblem.

Weniger Signale, klarere Eskalation

Ein Alarm sollte eine konkrete Frage beantworten: Muss jemand jetzt handeln, oder reicht Beobachtung? Alles andere gehört in Dashboards, Trends oder Berichte, nicht in eine sofortige Störungskette.

  • Nur Alarme mit klarer Aktion an Menschen schicken.
  • Warnungen, Trends und Informationsmeldungen trennen.
  • Dubletten entlang derselben Ursache unterdrücken.
  • Routen nach Verantwortlichkeit statt nach Tool-Grenzen bauen.

Was gute Alarme enthalten

Ein brauchbarer Alarm nennt nicht nur einen Wert, sondern den Kontext: welches System betroffen ist, welche Abhängigkeiten kritisch sind, ob es schon ähnliche Alarme gibt und wo das passende Runbook liegt.

SLI/SLO statt blinder Schwellwerte

Viele Teams alarmieren auf CPU, RAM oder Disk, obwohl das Geschäft eigentlich Verfügbarkeit, Latenz oder Fehlerrate spürt. Wer Alarmierung an SLI/SLO ausrichtet, reduziert Rauschen und erhöht die Relevanz der Signale.

5-Minuten-Checkliste

  • Top-10-Alarme prüfen: Gibt es je Alarm eine klare Handlung?
  • Mehrfache Meldungen derselben Ursache deduplizieren.
  • Runbook-Links direkt in Alarmen verankern.
  • Mindestens einen Geschäfts-SLI pro wichtigem Dienst definieren.
  • Alarme quartalsweise mit Betrieb und Fachseite gemeinsam reviewen.