Mentale Stolpersteine beim Lernen aus Unfällen
Unfälle ereignen sich – und danach ist meistens klar, was schiefgelaufen ist. Oder?
Tatsächlich ist es oft nicht so einfach. Wenn wir versuchen, aus Unfällen zu lernen, stehen uns unsichtbare Hindernisse im Weg: unsere eigenen Denkfehler.
Heuristiken und Biases
– mentale Abkürzungen und verzerrte Wahrnehmungen – helfen uns im Alltag, schnell Entscheidungen zu treffen. Doch beim Lernen von Unfällen führen sie oft auf Holzwege.
Vier Denkfehler spielen dabei eine besonders große Rolle:
Fundamental Attribution Bias – fundamentaler Attributionsfehler: „Die waren einfach nachlässig“
Nach einem Unfall ist unser erster Impuls oft, die Schuld bei den Menschen zu suchen, die direkt beteiligt waren.
„Der hätte besser aufpassen müssen!“
Was wir dabei übersehen: Entscheidungen entstehen nie im luftleeren Raum. Zeitdruck, schlechte Kommunikation, unsichere Rahmenbedingungen – all das beeinflusst Verhalten.
Wenn wir nur auf individuelles Fehlverhalten schauen, verpassen wir die Chance, das System zu verbessern. Und genau das ist es, was nachhaltige Sicherheit braucht.
False Uniqueness Bias – Fehlwahrnehmung der eigenen Einzigartigkeit: „Bei uns könnte das nie passieren“
Wenn anderswo ein Unfall passiert, denken viele Organisationen:
„Tja, die haben halt Fehler gemacht – bei uns läuft das besser.“
Das ist der False Uniqueness Bias: Wir glauben, wir seien klüger, besser vorbereitet, weniger anfällig.
Aber genau diese Haltung verhindert Lernen.
Anstatt aus den Erfahrungen anderer zu profitieren, wiegen wir uns in falscher Sicherheit.
Dabei wäre gerade die Frage wichtig: „Wo sind wir vielleicht genauso verwundbar?“
Confirmation Bias – Bestätigungsfehler: „Alles deutet auf menschliches Versagen hin“
Wir lieben es, Recht zu behalten. Deshalb suchen wir automatisch nach Hinweisen, die unsere ersten Vermutungen bestätigen, und ignorieren den Rest.
Im Kontext von Unfalluntersuchungen bedeutet das: Wenn einmal die Hypothese „menschliches Versagen“ im Raum steht, werden alle Fakten durch diese Brille betrachtet.
Das Problem: Wenn wir nicht auch widersprüchliche Hinweise ernst nehmen, bleiben wichtige Erkenntnisse auf der Strecke.
Gutes Lernen braucht Offenheit – und die Bereitschaft, eigene Annahmen infrage zu stellen.
Hindsight Bias – Rückschaufehler: „Das hätte doch jeder sehen müssen!“
Nach einem Unfall wirkt plötzlich alles offensichtlich:
„Warum hat denn niemand gemerkt, dass das schiefgehen muss?“
Hier schlägt der Hindsight Bias zu. Mit dem Wissen von heute erscheint es uns glasklar, was damals passieren musste.
Doch in der echten Situation war die Lage oft komplex, unübersichtlich und von vielen Unsicherheiten geprägt.
Sidney Dekkers Tunnel-Beispiel bringt das wunderbar auf den Punkt:
Nach einem tödlichen Einsturz in einem Tunnel dachten alle, es sei völlig unverantwortlich gewesen, dort arbeiten zu lassen.
Doch die Arbeiter selbst sahen sich unter Druck, es gab keine akuten Warnzeichen – und die Entscheidung schien im Moment völlig vernünftig.
Wenn wir das ignorieren, verpassen wir es, echte Lernchancen zu erkennen: nämlich zu verstehen, warum gut ausgebildete Menschen in komplexen Systemen manchmal schlechte Ergebnisse produzieren.
Fazit
Heuristiken und Biases sind normal – wir alle tappen in diese Fallen.
Wichtig ist, dass wir sie erkennen und bewusst gegensteuern:
Statt Schuldige zu suchen: Den Kontext verstehen.
Statt „uns passiert das nicht“: Unsere eigenen Schwächen ehrlich prüfen.
Statt vorschnelle Hypothesen: Offen für komplexe Erklärungen bleiben.
Statt klug aus der Rückschau: Fragen, wie die Situation sich zum Ereigniszeitpunkt wirklich dargestellt hat.
Nur so machen wir aus Unfällen echte Gelegenheiten, besser zu werden.
Danke! Für das Originalfoto an Randy Laybourne auf Unsplash
Weitere Beiträge:

Wie geht fachliche Führung?
Wie geht fachliche Führung im Arbeits- und Gesundheitsschutz? Das situative Führungsmodell gibt Handlungshilfen zur individuellen Förderung.

Bow-Tie: Risikomanagement mit der Fliege
Bow-Tie ist eine leicht zu erlernende, visuelle Methode, die zur Dokumentation und Bewertung von Risikoszenarien eingesetzt werden kann.