Buchempfehlung: The naked pilot, 1995

Im Internet liest man ja viele Buchempfehlungen, zumeist von neu erschienenen Büchern. Ich habe jetzt im Urlaub „The naked pilot“ von David Beaty gelesen. Das Buch ist 1995 erschienen und ist komplett absolut topaktuell und wirklich spannend zu lesen.
Es handelt von menschlichen Fehlern, die zu Flugzeugunfällen geführt haben. Schon das 1995 geschriebene Vorwort ist der aktuellen Diskussion, was im medizinischen Bereich zu Fehlern führt, um Jahre voraus. Die weit überwiegende Zahl an Fehlerquellen im Cockpit kann man 1:1 auf Fehlerquellen in OP’s oder medizinischen Behandlungsteams übertragen. Die Jungs aus der Luftfahrt haben sich nur im Gegensatz zum medizinischen System wesentlich früher und konsequenter um die Identifizierung und extensive Implementierung von Ausbildungen, Routinen und Maßnahmen gekümmert, solche Fehler nach Möglichkeit zu vermeiden. 1995 war der Stand, dass noch 25 % der Fehler, die zu Unfällen in der Luftfahrt führten, technischer Natur waren, wie explodierende Triebwerke oder abfallende Fahrgestelle. 75 % der Fehler waren auf menschliche Fehler zurückzuführen. Und damit sind nicht fliegerische Pilotenfehler gemeint, sondern Fehler, die der menschlichen Art zu handeln oder zu interagieren eigen sind. Die Analyse solcher Fehlerquellen auch in der Medizin konsequent zu erforschen, um sie zu verhindern, müßte weitaus intensiver geschehen (siehe auch dieses Video über CRM in Luftfahrt und Medizin).
Beaty identifiziert folgende typische Fehlerquellen, nach Häufigkeit geordnet:
Kommunikation, mit der Crew, dem Tower und dem Management: Hiermit zusammenhängende Fehler sehen oft so aus, dass einer etwas falsch macht, mindestens ein anderer das weiß, er aber mit seinem Wissen irgendwie nicht durchkommt, weil er es nicht sagt, nicht klar genug sagt, nicht sagen will, sich nicht zu sagen traut, glaubt, es nicht sagen zu dürfen oder es sagt aber nicht angemessen gehört wird. Eine ausgeprägte Hierarchie verschlechtert diese Art von lebenswichtiger Kommunikation rapide.
Wahrnehmung: Sehe ich das kreuzende Flugzeug? Sehe ich es auch, wenn der Fensterrahmen genau da ist, wo das Flugzeug zu sehen wäre?
– „Deadly Set“: Die Voreingestelltheit auf einen bestimmten Gedanken oder ein bestimmtes Detail einer Situation. Beaty beschreibt zahlreiche Unfälle, bei denen die Crew versuchte, sich einem Aspekt einer Situation zu stellen, von dem sie dannganz eingenommen war, und übersah einen anderen, lebenswichtigen Aspekt. Eine Katastrophe nahm ihren Lauf, als die Lampen im Cockpit, die anzeigen, ob das Fahrwerk ausgefahren ist, nicht leuchteten, weil sie durchgebrannt waren. Das Fahrwerk war tatsächlich aber korrekt ausgefahren, das Flugzeug hätte seinen Landeanflug fortsetzen können, es wäre nichts passiert. Da aber die Kontrolleuchten defekt waren, verfestigt sich der Gedanke an eine Crash- Notlandung in der Crew. Sie wollte möglichst viel Zeit zur Vorbereitung haben, auch um die Passagiere vorzubereiten. Dabei verabsäumten sie es, das zu tun, was für eine solche Situation vorgeschrieben ist, nämlich, tief am Tower vorbei zu fliegen und die Towerbesatzung mal nachgucken zu lassen, ob das Fahrwerk vielleicht doch ausgefahren ist. Die Crew war so lange auf dieVorbereitung der Notlandung konzentriert, bis sie nach dem Fliegen mehrerer Runden zwei Kilometer vor der Landebahn mit ausgefahrenem Fahrwerk im Wald abstürzten. Der Sprit war leer.
– Getäuscht werden
– Das männliche Ego (hier bitte beliebige Kontexte ausdenken und den immer gleichen Mechanismus beobachten…)
– Entscheidungsfindung: In kurzer Zeit unter hohem Druck die richtige Entscheidung zu treffen unterliegt einer ganzen Reihe von menschlichen Beschränkungen. In der Medizin eher noch komplexer als in der Luftfahrt…
– In kritischen Situationen greift der Mensch auf früh gelerntes zurück, nicht auf später gelerntes. In beiden Welten kritisch…
– Automation
– Sinkende Konzentration, Langeweile und Abgelenktheit: Vor allem bei monotoner Kontrolle, wie der Überwachung einer mehrstündigen Narkose.
– Konformität: Der starke menschliche Drang, lieber konform mit der Gruppe oder dem Vorgesetzen zu gehen als anzuerkennen, dass Gruppe oder Chef auf dem falschen Weg sind und dies klar zu sagen.
– Seitenfehler: Aviation: „Was, das andere Flugzeug flog auch nach rechts?“. Medizin: „Was, die kranke Niere war die rechte?“
– Erschöpfung und Streß: Luftfahrt: Am Ende eines mehrstündigen Flugen passieren die weitaus meisten Fehler bei der Landung. Medizin: Nach einem langen Nachtdienst in den frühen Morgenstunden bei drei gleichzeitigen Aufnahmen….

Critical Risk Management (CRM) in Medizin und Luftfahrt

Gestern hatte ich das Glück, in einem RICHTIGEN Flugsimulator fliegen zu dürfen (Danke Stefan!), was wirklich aufregend ist. Heute postet Chirurgenwelpe hier dieses unbedingt sehenswerte Video. Es handelt von einem Piloten, der etwas über den „human factor“ in der Medizin und in der Luftfahrt zu berichten hat. Das bezieht sich auf die Analyse des Hergangs von fatalen Fehlern, etwas, in dem Mediziner von Piloten sehr viel lernen können.

As a result of his personal experience, Martin Bromiley founded the Clinical Human Factors Group in 2007. This group brings together experts, clinicians and enthusiasts who have an interest in placing the understanding of human factors at the heart of improving patient safety.
In Just A Routine Operation Martin talks about his experience of losing his wife during an apparently routine procedure and his hopes for making a change to practice in healthcare.

Die Analyse von schweren Fehlern zeigt gebietsübergreifend immer wieder, wie wichtig gerade in risikoreichen Situationen Kommunikation und Offenheit sind. In zwei Dritteln der untersuchten Fälle hatte einer der Beteiligten eine wichtige Information oder Idee, die den Gang der Dinge womöglich wesentlich hätte abwandeln und verbessern können, kam aber damit irgendwie nicht durch.

Übrigens auch sehr spannend ist diese vollständige Rekonstruktion eines Flugzeugunglücks, die National Geographic gedreht hat:

http://youtu.be/ddpvP2UPHcY