- Leadership Insiders - https://www.leadership-insiders.de -

Fehlerprovokation durch Führung – Lehren aus der Luftfahrt

Nachfolgend werden die organisationalen, nicht technischen Entwicklungen in der Luftfahrtindustrie skizziert, die einen verbesserten Umgang mit Fehlern zur Folge hatten. Hauptansatzpunkt sind die Crews und die sich hier wandelnde Rolle des Führenden. Empfehlungen für die Übertragbarkeit auf andere Organisationen werden gegeben.

Demkat / Shutterstock

Fehler sind unnötig, misslich, ärgerlich, bisweilen tödlich. Auch wenn sie einer selbstwertdienlichen Überzeugung nach vor allem durch andere begangen werden, schadet es nicht, vorsorglich mehr über die Fehlerkultur und das Fehlermanagement und die Rolle der Führung dabei zu erfahren. Wir werden dies mittels eines Blickes in die Luftfahrt machen, denn es scheint, dass wir von dort alle etwas für unsere Organisationen lernen können: Nach Angaben des Bundesverbandes der Deutschen Luftverkehrswirtschaft aus 2020 war das Fliegen im Jahr 2019 sechzig Mal sicherer als 1970. Leadership Insiders schaut in diesem Zusammenhang einmal genauer auf die dortigen, nicht technischen Ursachen – Crews – als Fehlerquelle für Unfälle und weist Empfehlungen zur Fehlerkultur, für das Fehlermanagement sowie für das Verständnis von Führung aus.

Fehler, Fehlerkultur und Fehlermanagement

Fehler haben einen weiten Bedeutungshorizont. Eine irrtümliche Entscheidung oder die Abweichung von einem Standard, Zustand oder Ziel wird genauso hierunter gefasst wie ein Verhalten, was als „falsch“ klassifiziert wird. Dabei muss mitgedacht werden, dass ein „Richtiges“ existiert. Dieses „Richtige“ ist allerdings nicht selten eher eine Übereinkunft zwischen den Anwesenden denn ein objektiv physikalisches Faktum.

Ob Fehler in Organisationen per se als unzulässig gelten oder als Lernchance für den Einzelnen, das Team oder die Organisation als Ganzes eingestuft werden, ist eine Frage der Fehlerkultur. Eine Fehlerkultur ist dabei der gemeinsam geteilte und gelebte Umgang mit Fehlern. Wir reden demnach sowohl von Werten und Normen als auch von Praktiken.

Verstehen wir die Fehlerkultur als wesentlichen Bestandteil des normativen Managements und damit als Teil der Organisationskultur, fassen wir das strategische wie operative Management hier als das

  • Gestalten: Rahmen, Konzept
  • Lenken: Ziele, Strukturen, Prozesse und
  • Entwickeln: Fortschreiben im Zeitablauf, bewusst wie eigendynamisch

von Systemen zum Umgang mit Fehlern auf.

Dessen prominenteste Konkretisierungen finden sich zum Beispiel im ursprünglich durch Ford inspirierten Qualitätsstandardkonzept der ISO-9000 Regeln, beim vom General Electric (GE) popularisierten Six-Sigma Ansatz oder in dem von Toyota mit Strahlkraft angewandten Kaizen. Fehler und Verbesserungen werden hier zusammengedacht, bilden also Lernchancen. Die Idee einer Lernenden Organisation steht vor allem für diese Fähigkeit.

Nach diesen kurzen Vorklärungen schauen wir uns nun in Form einer Branchenfallstudie (Luftfahrt) in aller Ruhe an, wie sich dort im Hochleistungsteam „Crew“ sowohl eine Fehlerkultur als auch ein Fehlermanagement entwickelte bzw. entwickelt wurde, um selbst etwas daraus lernen zu können.

Luftfahrt als Lerninspiration: Die Crew als Hochleistungsteam

Hochleistungsteams kennen wir aus der Medizin, aus der Nuklear- und Chemieindustrie, bei Feuerwehren, im Katastrophenschutz, bei Polizei sowie Militär und eben in der Luft- und Raumfahrt. All diese Organisationen haben potentiell oder gar regelmäßig gefahrenträchtige Situationen mit Entscheidungsnotwendigkeiten im Sekunden- und Minutenbereich zu bewältigen.

Grundsätzlich sind für die Arbeit in solchen Teams zwei Lösungsansätze vorgesehen:

Zum einen eine hohe Standardisierung bei den Maßnahmen (Procedures) z.B. durch Handbücher, Checklisten oder Planentscheidungen. Dies dient vorrangig zur Verhinderung von Situationen, in denen Fehler passieren können.

Zum anderen standardisierte Teamarbeitsformen, die u.a. durch schnelle Informationsverarbeitung, hohes, aber effizientes Kommunikationsaufkommen und klare Teamstrukturen gekennzeichnet sind. Damit sollen vor allem krisenhafte Situationen, die auf fatale Fehler zusteuern, unter Kontrolle gebracht werden. Die Führung ist dabei ebenfalls zu bedenken.

In der Luftfahrt gibt es hierzu einen interessanten Ansatz, der bei beiden vorgenannten Feldern ansetzt. Es wird nachfolgend aufgezeigt, wie dieser entwickelt wurde und es dadurch gelungen ist, einen höheren Grad von Fehlerkultur und Fehlermanagement zu erreichen.

Ein kurzer Rückblick zur Luftfahrtgeschichte

In der Frühphase der Fliegerei bis zum Ende des Ersten Weltkriegs wurden Flugzeuge von einem einzigen Piloten geflogen. Zu Beginn der 1920er Jahre und mit den größeren Flugzeugen kamen weitere Besatzungsmitglieder hinzu. Seit den 1930ern bestanden die Besatzungen in der Regel aus dem Piloten (Kapitän), einem Kopiloten (Erster Offizier), dem Bordmechaniker (später Flugingenieur, Zweiter Offizier) und einem Funker/Navigator. Schon an dieser Stelle eine erste interessante Erfahrung: Die Kapitäne nahmen die Kopiloten als Einschränkung wahr, sie waren es gewohnt, alleinverantwortlich zu fliegen und allenfalls die genannten Fachkräfte an Bord zu dulden. Sowohl in der Ausbildung als auch im Einsatz herrschte das Bild aus der Frühzeit der Fliegerei: Das Führungsmodell war auf den Kapitän zugeschnitten; er war im Cockpit die zentrale Figur. Dem Zusammenwirken innerhalb der Flugzeugbesatzung wurde wenig Beachtung geschenkt. Auch durch die Kriege wurde das Bild des heroischen Luftwaffen-Piloten, der die absolute Kompetenz und das Sagen im Cockpit hatte, gefördert.

Die Kapitäne waren einem anspruchsvollen Trainings- und Kontrollsystem unterworfen. Bereits in den 1940ern gab es in den USA von der damaligen Civil Aeronautics Administration genau festgelegte Intervalle, in denen die Kapitäne ihre Kenntnisse, insbesondere für Notsituationen, unter Beweis stellen mussten. Insofern waren sie sicherlich kompetente, erfahrene Piloten, ganz gleich, wie selbstherrlich sie mitunter auftraten, aber Krisenbewältigungen waren auf sie alleine zugeschnitten. Man erkennt den – heutzutage eigentlich entzauberten – Heldenmythos: Führende sind allmächtig (Weibler 2013).

Ein weiterer Grund dafür, dass Fragen der Zusammenarbeit im Cockpit für lange Zeit unberücksichtigt blieben, war die Tatsache, dass bis Mitte der 1960er die noch fehleranfällige Technik der Flugzeuge vorherrschende Unfallursache war. In den 1970ern sah man, dass die Technik aufgrund der Fortschritte sich immer weiter verbesserte, aber die Unfallquote fast gleich blieb. Die meisten Unfälle entstanden nun durch Fehler der Cockpit-Besatzung. Die Ausbildung der Flugzeugbesatzungen – Piloten, Flugingenieure, Funker und Navigatoren – war bis Ende der 1970er Jahre ausschließlich auf die individuellen fachlichen Fertigkeiten ausgerichtet. Da sich trotz bester Ausbildung des Flugpersonals die Zahl der Unfälle nicht verringerte, wurde klar, dass die kontinuierliche Erhöhung der fliegerischen Qualifikationen der einzelnen Akteure nicht die Lösung des Problems sein konnte.

Der Lösungsansatz: Crew Resource Management (CRM)

Die amerikanische Luftfahrtbehörde Federal Aviation Administration (FAA) und die NASA entwickelten deshalb in den 1980er Jahren das Konzept Crew Resource Management (CRM). Dieses baute auf SHEL-Modell des Luftfahrtpsychologen Elwyn Edwards aus den 1970ern auf, was durch die nun auch Bestand habenden vier Hauptelemente eines Flugs gekennzeichnet war:

Software (Programme, Dokumente und Richtlinien für den Flugbetrieb), Hardware (das Flugzeug mit all seinen Komponenten), Environment (die Umweltbedingungen) und Liveware (die einzelnen Besatzungsmitglieder).

Den Schwerpunkt legte er auf Liveware und untersuchte dabei auch die Autoritäts- und Kommunikationsverhältnisse im Cockpit. Eine Schlussfolgerung war, dass das hohe Autoritätsgefälle, also eine bestimmte Ausprägung von Führung, die Kommunikation auch und gerade in Krisensituationen negativ beeinflusste. Als ideale Bedingung definierte er ein Gefälle, dass weder zu hoch noch zu niedrig, also abgeflacht sein sollte. Er kreierte das sogenannte TAG-Modell (Trans-Cockpit Authority Gradient), nach dem der Kapitän optimale Arbeitsbeziehungen zu den Crew-Mitgliedern entwickeln und seine Rolle und Autorität als Kapitän dabei weder unter- noch überbetonen soll. Das war der Ausgangspunkt für das erste CRM-Konzept (dazu auch Wiener u. a. 2020).

Die Schulungen der Besatzungen basierten auf dem heute in die Jahre gekommenen Managerial-Grid-Konzept von Robert Blake und Jane Mouton (1964), das situativ verschiedene Führungsstile aufzeigt. Die Kapitäne, Piloten und Flugingenieure nahmen diese Kurse jedoch nicht ernst, verspotteten sie als „charm school“. Führungsthemen und Verhaltensanalysen kamen ihnen in der Fliegerei belanglos vor. Die Kapitäne meinten zudem, dass ihre Autorität untergraben werden sollte. Die CRM-Kurse wurden deshalb abgelehnt. Ihre Akzeptanz verbesserte sich erst, als man die Trainings in Flugsimulatoren durchführte und dabei Notfalllagen einspielte, bei denen die Cockpitbesatzungen intensiv kommunizieren mussten. Der Wert einer durch ein abgeflachtes Hierarchiegefälle verbesserten Kommunikation wurde daraufhin erkannt und angenommen.

Schrittweise Erweiterung auf alle Beteiligten

Bei der Analyse von Flugunfällen wurde aber auch deutlich, dass die Teamdefinition zu eng gefasst war. Ausschlaggebend hierfür war ein Flug, bei dem ein Brand in der Kabine eine Notfalllandung erzwang. Der Untersuchungsbericht ergab, dass die Zusammenarbeit im Cockpit zwar funktioniert hatte, die Kabinenbesatzung jedoch nicht integriert gewesen war und die Lage an Bord deshalb eskalierte.
Damit trat ein weiteres Problem auf: Der Status der Kabinenbesatzungen war auf einer noch tieferen Stufe als die der Kopiloten und Flugingenieure. Dass diese rangniedrigste Gruppe sich in die Belange der Cockpitbesatzung einmischte, war zunächst kaum vorstellbar. In der Fortentwicklung der CRM-Trainings wurde deshalb die Einstellung der Cockpit-Besatzungen zu ihren weiteren Teamkollegen an Bord entsprechend geformt oder korrigiert, die Kommunikationsbeziehungen erweitert.

Anfang der 1990er wurde das CRM-Training nochmals ausgebaut. Es wurden nun auch Bereiche wie Flight Operations, also die Planung und Betreuung eines Flugs auf dem Boden, sowie die Wartung, einbezogen. Anfangs wurden die Gruppen noch getrennt unterrichtet, doch es setzte sich die Erkenntnis durch, dass es sinnvoller war, dass alle gemeinsam das CRM-Training durchliefen. Die großen Fluggesellschaften in den USA und Europa begannen außerdem systemisch zu denken und berücksichtigten im nächsten Schritt weitere Einflussfaktoren, wie z. B. die Firmenkultur.

Fehlermanagement

CRM Trainings sind heute weltweit Pflicht für alle Flugzeugbesatzungen, aber auch für andere Bedienstete der Luftfahrtgesellschaften. Dabei werden Fähigkeiten wie Situationsverständnis, Planung, Entscheidungsfindung und Kommunikation trainiert. Zur Veranschaulichung werden Fallstudien verwendet, die meistens auf den Untersuchungsberichten von Flugzeugunfällen und -abstürzen beruhen.

In der letzten Version (etwa seit 1997) wird CRM überwiegend als Fehlermanagement aufgefasst. Die Erkenntnis, dass sich menschliches Fehlverhalten auch nicht mit großen technischem Aufwand und mehrfachen Überwachungssystemen vermeiden lässt – erst recht nicht in komplexen Risikobereichen – war evident. Wenn Fehler also grundsätzlich unvermeidbar sind, sollte CRM zu einem Korrektiv mit drei Verteidigungslinien werden:

  • Fehler vermeiden (mittels Ausbildung, Verfahrensstandards, Checklisten)
  • Fehler erkennen (dank gegenseitiger Kontrolle der Besatzungsmitglieder oder cross check)
  • Fehler ansprechen (unabhängig von der hierarchischen Position des Besatzungsmitglieds)

Eine Maßnahme ist zum Beispiel, dass Fehler – stets ohne Schuldzuweisung – am Ende des Fluges in einer Abschlussbesprechung, dem Debriefing, diskutiert werden.

Um solche Erkenntnisse auch anderen Besatzungen zugängig zu machen, haben die meisten Fluggesellschaften darüber hinaus ein anonymes Berichtssystem eingeführt, in dem alle Mitarbeitende über Fehler während der Flüge berichten können. Seit 1976 gibt es in den USA zusätzlich das von der NASA betreute Aviation Safety Reporting System (ASRS) [url: https://asrs.arc.nasa.gov/], das ebenfalls anonyme Fehlermeldungen zulässt. In einigen anderen Ländern existieren ähnliche Systeme, International Confidential Aviation Safety Systems (ICASS) genannt. Wie Niedeck ausführt, ist die eingehende Zahl der Berichte eher gering, da diese Berichtssysteme nur Berichte von Freiwilligen entgegennehmen. Der rechtlichen Absicherung der Systeme sowie der absoluten Vertraulichkeit der Berichte und des Schutzes der Berichtenden scheint man nicht vollumfänglich zu vertrauen. Eine Sonderstellung bei den internationalen Berichtssystemen nehme aber das oben genannte ASRS der USA ein: die Zusicherung von bedingter „Straffreiheit“ erzeugt jährlich über 50.000 Berichte.

Entscheidungsfindung

Für die Entscheidungsfindung, besonders kritisch in Notsituationen, gibt es im CRM-Training ein Modell, das heute weltweit angewandt wird: Das vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) und der Lufthansa entwickelte FOR–DEC-Verfahrensschema. Jeder Buchstabe steht für einen Schritt:

  • Facts: Analyse aller relevanten Fakten
  • Option: Identifikation möglicher Entscheidungsoptionen
  • Risks/Benefits: Abwägung von Risiken und Nutzen der Entscheidung
  • „–„: Selbst der Bindestrich ist wichtig, er soll das kurze Nachdenken zwischen der Analyse und der Entscheidung signalisieren
  • Decision: die Entscheidung selbst
  • Execution: die Ausführung
  • Cross Check: Kontinuierliche Überprüfung der getroffenen Entscheidung

Dieses Verfahren gleicht bzw. ähnelt den Entscheidungsprozessen im Organisationsalltag (vgl. u.a. Hofinger u. a. 2013, Hagen 2017).

Fazit

Komplexe Situationen sind anfällig für Fehler,  in Ausnahmesituationen werden gravierende Fehler provoziert. Führungskultur und Führungsmanagement können dabei prinzipiell Ursache wie Lösung des Problems sein. Zu betonen ist dabei, dass auch Leadership, also das, was Sicherheit im Besonderen garantieren soll, in angebbaren Konstellationen Hauptursache für Unsicherheit und Fehlerhaftigkeit sein kann.

Neben einer nicht nachlassenden Überzeugungsarbeit, die auf Einsicht setzt, sind Hierarchien führungsseitig kritisch zu beäugen, selbst wenn diese Hierarchien eine Leistungshierarchie dargestellt haben sollten. Dort, wo Führung und ein a priori Heldentum eine unheilige Allianz eingehen, entwickeln sich Wissen und Intuition in jedem Organisationstyp suboptimal. Deshalb sind gegenwärtige Anstrengungen, Lockerungen des hierarchischen Denkens in Organisation durch Agilität oder New Work zu erreichen, gleichsam Risikominimierungsstrategien. Dies aber nur, sofern es gelingt, nicht nur im persönlichen Austausch, sondern auch strukturell-kulturell eine fluide Kommunikation zu gewährleisten.

Wir sollten uns gerade in Hochleistungsteams, aber nicht nur hier, dieser Sichtweise verpflichtet fühlen. Wirksam ist sie dann, wenn sie vor dem Eintreten einer Ausnahmesituation bereits in eine reflektierte, akzeptierte und eingeübte Praxis überführt worden ist, um vernünftig greifen zu können. Das reduziert das Ausmaß an Improvisation zum falschen Zeitpunkt.

Als eine Ermutigung auf diesem Weg kann ein Zitat aus dem Buch „Fatale Fehler“ von Jan U. Hagen (2017, S. 117) dienen, das auf neue Normalitäten hinweist, die man sich, wie wir gesehen haben, zu Beginn einer Veränderung nicht hat vorstellen können.

Obwohl sich die Machtposition – und die Verantwortung – der Kapitäne in den letzten 50 Jahren kaum verändert haben, ist das Hierarchiegefälle zwischen Kapitän und den übrigen Besatzungsmitgliedern seit der CRM-Einführung sichtlich flacher, als es noch vor 25 Jahren der Fall war. Spricht man mit Kapitänen darüber, sehen sie den heute praktizierten offenen Umgang mit den anderen Cockpitmitgliedern und der Kabine nicht als Nachteil, sondern als Entlastung.“

Blake, R. R. / Mouton, J. S. (1964): The managerial grid. The key to leadership excellence, Houston

Bundesverband der Deutschen Luftverkehrswirtschaft (2020): Wie sicher war Luftverkehr im Jahr 2019? https://www.bdl.aero/de/publikation/wie-sicher-war-luftverkehr-im-jahr-2019/ )aufgerufen am 14.4.2020)

Confidential Aviation Safety Systems (ICASS):
https://luftfahrtakademie.de/reporting-systems-vertrauliche-berichtssysteme.html (aufgerufen am 05.04.2020)

Edwards, E. (1972): Man and machine: Systems for safety. Proceedings of British Airline
Pilots Association Technical Symposium, London, S. 21-36

Edwards, E. (1975): Stress and the airline pilot. Paper presented to British Airline Pilot
Association Medical symposium: Aviation medicine and the airline pilot, London

Hagen. Jan U. (2017): Fatale Fehler. Oder warum Organisationen ein Fehlermanagement brauchen. 2. k. Aufl., Berlin

Hofinger, G. /Proske, S. / Soll, H. (2013): FOR-DEC & Co. Hilfen für strukturiertes Entscheiden im Team. In: R. Heimann, S. Strohschneider & H. Schaub (Hrsg.). Entscheiden in kritischen Situationen. Neue Perspektiven und Erkenntnisse, Frankfurt, S. 119-130

Niedek, S. (o.J.): Reporting Systems (Vertrauliche Berichtsysteme). Luftfahrtakademie. The Aviation Academy. url: https://luftfahrtakademie.de/reporting-systems-vertrauliche-berichtssysteme.html (aufgerufen am 05.04.2020)

Reporting Systems: Aviation Safety Reporting System (ASRS)
https://asrs.arc.nasa.gov/ (aufgerufen am 05.04.2020)

Weibler, J. (2013). Entzauberung der Führungsmythen. RHI-Essay, Nr. 2. München
url: https://www.romanherzoginstitut.de/publikationen/detail/entzauberung-der-fuehrungsmythen.html (aufgerufen am 05.04.2020)

Wiener, E.L. /Kanki, B.G. /Helmreich, R.L. (2020). Crew Resource Management. San Diego u.a.