
Was ist passiert?
Kurz nach 7:00 Uhr. Mein erster Koffeinsaft ist noch nicht durchgelaufen als schon die Hotline in einer Frequenz schrillt, die Zahnschmelz zum Splittern bringen könnte. Ungewöhnlich für die Uhrzeit, aber ich weiß, es hat sich rumgesprochen, dass da jetzt schon einer um diese Zeit in der IT sitzt und darauf wartet, die ersten Horrormeldungen zu empfangen. Es ist mein ganz privater Moment für ca. 90 Minuten in einem dystopischen Chaos, das seinen ganz eigenen Regeln folgt, bis die anderen Kollegen im Büro einlaufen.
“Guten Morgen Herr Seyboth, ich wollte gerade ein Ticket schreiben, kann mich aber nicht mehr einloggen. Haben Sie meine Zugangsdaten geändert?”
Für einen kurzen Moment schaue ich mich um und suche instinktiv versteckte Kameras und Fritz Egner, der adhoc aus einem unserer IT-Schränke schlüpft. Aber es ist keine inszenierte Show und ich spüre wie mein Puls linear mit jedem weiteren gesagten Wort aus der Leitung steigt. Ich füttere zusätzlich dieses hungrige Cortisol-Monster mit dem schwarzen Saft der IT-Götter. Ich komme in Fahrt und rotiere durch alle mir verfügbaren Kanäle mit der Präzision eines MRT-Scanners. Die Diagnose: Ich komme ins Ticketsystem.
Instinktiv hacke ich Buchstaben in den bundesweiten IT-Kanal des Konzern-Chat und stelle eine Frage, die um diese Uhrzeit mit ziemlicher Sicherheit Herzinfarkte und vor-Ort-Behandlungen in den Krankenhäusern ausgelöst haben muss. Gleichzeitig schreibe ich eine Mail in den Hausverteiler und bitte höflichst darum, nicht die Telefonhotline zu fluten, um sie für patientenrelevante Notfälle freizuhalten. Ich versichere eine schnelle Behebung des Problems und bin wieder mal der Pförtner zur hauseigenen Hölle.
Die Anatomie des banalen Grauens
Was bitteschön hat den digitalen Herzstillstand ausgelöst? Ein russischer Cyberangriff? Eine physische Kernschmelze im Hauptrechenzentrum? Eine epische Migration, die im Blutbad endete?
Nein. Ein abgelaufenes Zertifikat. Ein verdammter Krypto-Schnipsel. Mehr nicht.
Aber hier vor Ort weiß das erstmal keine Sau. Wir sitzen im Dreck und raten. Die erlösende Diagnose erreicht uns Stunden später, hingerotzt in einem beiläufigen Halbsatz der fernen Administratoren-Götter: „Cert war abgelaufen.“ Bis zu diesem Moment der Erleuchtung gibt es nur das nackte Symptom. Keine Diagnose. Keine Eingriffsmöglichkeit. Keine Zeitprognose – Kein Fallbackmechanismus. Die Plattform bleibt für die meisten Nutzer unerreichbar. Ein digitaler Kadaver im sterilen Flur.
Was ich gesehen habe
Im klassischen IT-Support gibt es diesen heiligen Rausch der Tat. Es gibt immer einen Hebel. Spooler abschießen, Services durchpeitschen, ein dreckiges Skript schreiben, dem Anwender einen schnellen Workaround ins Ohr flüstern. Aktion und Reaktion.
In diesem Fall? Nichts davon. Wir sitzen in einer sterilen Wartezimmer-Situation. Am anderen Ende der Leitung jault die Belegschaft – und für die sind wir die IT. Für die sind wir die Gesichter des Versagens. Sie sehen nicht die anonyme Krake im fernen Rechenzentrum. Sie sehen uns.
Das ist die neue, bittere Realität im modernen Klinik-Sektor. Zentralisierte Plattformen sind ein perfides Tauschgeschäft: Sie verlagern die Verfügbarkeit und die Macht nach oben, aber die pure, nackte Hilflosigkeit nach unten.
Die Konzern-IT feiert sich für Skalierung, Standardisierung und Compliance-Audits. Kann sie ja auch. Aber im Gegenzug verliert die lokale IT vor Ort jegliche Tatkraft. Uns wurden die Bash-Skripte weggenommen, die Domain-Admin-Rechte entzogen und der physische Zugriff auf Server und Switches verboten. Wir sind keine IT-Spezialisten mehr. Wir sind Kunden mit einer verdammten Werkzeugschürze. Alibi-Handwerker ohne Werkzeug.
Die heilige Dreifaltigkeit des Versagens
Das kaputte Zertifikat war nicht das Problem. Das Zertifikat war nur der Spiegel, der uns die Fratze des strukturellen Verfalls gezeigt hat. Drei Dinge sind hier fundamental im Eimer:
- Der Cert-Lifecycle ist ein schlechter Witz: Ein Zertifikat stirbt nicht an plötzlichem Kindstod. Es kündigt seinen Tod an. Wir besitzen die Technologie für automatisiertes Alerting seit zwei Jahrzehnten! Wenn ein Cert im Jahr 2026 durchrutscht, ist das kein Pech.
- Lokale Handlungsunfähigkeit als Systemfehler: Wir spüren den Ausfall physisch. Wir fressen den Frust der Ärzte und Pfleger, während das Telefon unsere Gehörgänge röstet. Aber wir haben keinen Hebel. Keine Konsole, keine Rechte, kein Mandat. Man hat das System zentralisiert, aber vergessen zu definieren, was die lokale IT eigentlich tun soll, wenn das Mutterschiff brennt.
- Kein Kommunikationsprozess im Ernstfall: Wer tippt die hauseweite Warnung? Nicht der, der gerade zufällig die Panik kriegt. Das muss eine feste Rolle sein, mit einem festen Takt und klaren Ausweichwegen. Meine gutgläubige Mail hat die strukturelle Frage nur überschrieben: „Hat das eigentlich jemals jemand definiert?“ Nein. Hat niemand.
Was getan werden müsste
Die brutalste Pointe dieser ganzen Misere: Die Heilung kostet nichts. Keine Beratertage, keine Lizenzen, keine Module mit elfsilbigen Namen. Sie kostet eine einzige Entscheidung – dass es einen Prozess gibt.
- Ein Inventar für jeden Krypto-Schnipsel. Es ist nicht ein Cert, das ablaufen kann. Es sind Dutzende, quer durch jeden Service. Server-TLS auf Anwendungs- und Proxy-Servern. Intermediate-Certs in jeder Zertifikatskette. Backend-Certs auf LDAP-/AD-Anbindungen. Client-Certs auf medizinischen Konnektoren. Code-Signing für interne Tools. Jedes davon eine kleine tickende Bombe mit Verfallsdatum und einige davon legen hauseweite Funktionen lahm, ohne dass beim Anwender auch nur ein Schlosssymbol verdächtig wird. Inventar-Tools gibt es seit Jahren – Open-Source, kommerziell, SaaS. Pre-Expiry-Alerts 90/30/7 Tage an gestaffelte Empfängerkreise, automatische Eskalation wenn 14 Tage vor Ablauf kein Renewal bestätigt ist. Wenn ein Zertifikat durchrutscht – egal welches – ist das kein technisches Problem. Das ist eine fehlende Excel-Spalte und ein nicht gesetzter Kalendereintrag.
- Dezentrale Eskalationsstufen mit Verfallsdatum. Die zentrale Plattform ist nicht das Problem, das fehlende Drehbuch für ihren Ausfall ist es. Ab Minute X greift Verfahren Y. Ab Minute Z springt Rufnummer A. Nicht „wir geben es mal nach oben" – das ist Wischiwaschi für Häuser, die noch nie ernsthaft gefallen sind. Konkrete Schwellen, konkrete Adressaten, konkrete Befugnisse für die Ortskraft, jenseits derer sie eskalieren darf und nicht nur soll.
- Ein definierter Kommunikationsprozess. Welche Rolle tippt die hauseweite Mail, in welchem Takt, mit welchem Ausweichweg, mit welcher Eskalationsschwelle. Damit nicht der mit den schnellsten Fingern auf der Tastatur zum De-facto-Sprecher des Hauses wird. Damit beim nächsten Ausfall die Belegschaft nicht erst fünfmal anrufen muss, um zu prüfen, ob es überhaupt schon jemand weiß.
Diese drei Dinge sind kein IT-Projekt. Sie sind nicht einmal eine Software-Anschaffung. Sie sind eine Tabelle, ein Telefonnummern-Plan, eine Mail-Vorlage. Drei Dinge, die jeder Bäckereibetrieb mit zehn Mitarbeitenden längst hat – einen Notfallplan an der Wand neben der Stempeluhr.
Das Cert ist erneuert. Die Plattform läuft wieder. Beim nächsten Mal klingelt mein Telefon zuerst – nicht weil ich zuständig bin, sondern weil ich die Scheiße einmal geregelt habe.