Kollektiv wachsam

Wie Unternehmen Warnsignale früh erkennen und effektiv reagieren können. 

  • Teilen per:
  • Teilen per:

Im September 2004 startete der Pharmakonzern Merck die größte Rückrufaktion für ein rezeptpflichtiges Medikament, die es je gab. Das Unternehmen nahm das Präparat Vioxx vom Markt, das seit 1999 mehr als 80 Millionen Patienten gegen rheumatische Schmerzen eingenommen hatten. Schon im Jahr 2000 hatte jedoch das „New England Journal of Medicine“ die Ergebnisse eines Versuchs veröffentlicht. Sie zeigten, dass bei Patienten, die Vioxx einnahmen, die Wahrscheinlichkeit, einen Herzinfarkt oder einen Schlaganfall zu erleiden, viermal so hoch war wie bei denen, die das konkurrierende Naproxen bekamen. Merck ließ das Medikament vier weitere Jahre auf dem Markt, obwohl sich die Hinweise verdichteten, dass die Einnahme gefährlich war. Erst als Merck 2004 testete, ob Vioxx sich zur Behandlung einer anderen Krankheit eignete, entschloss sich das Unternehmen, das Mittel vom Markt zu nehmen: Ein externes Gremium hatte dies empfohlen, weil Patienten, die mit Vioxx behandelt wurden, ein doppelt so hohes Risiko hätten, einen Herzinfarkt oder einen Schlaganfall zu erleiden, wie die Kontrollgruppe, die ein Placebo erhielt. 

Die Rücknahme von Vioxx durch Merck ist ein typisches Beispiel dafür, wie sich unternehmerische Katastrophen innerhalb einer längeren Inkubationszeit entwickeln. Irrtümer und Warnsignale häufen sich, ihre gravierende Bedeutung wird jedoch oft erst erkannt, wenn es zu spät ist. Unternehmen müssen deshalb die Fähigkeit entwickeln, solche Anzeichen möglichst früh richtig zu deuten und entsprechende Maßnahmen zu ergreifen. 

Lassen sich unternehmerische Katastrophen vorhersehen? Die Antwort lautet erstaunlicherweise ja. Katastrophen entwicklen sich in langen Inkubationszeiten, in denen wichtige Warnsignale nicht bemerkt werden. Und zwar wegen irriger Annahmen derer, denen sie hätten auffallen können, wegen eines kulturell bedingten Rückstands der Sicherheitsvorkehrungen oder weil unter den Betroffenen eine Abneigung herrscht, Ereignisse zur Kenntnis zu nehmen, die auf einen katastrophalen Ausgang hindeuteten. 

Drei Arten von Informationsproblemen sind dafür verantwortlich, dass Signale oft ignoriert oder nicht ernst genommen werden: 

Signale werden nicht als Warnungen gedeutet, weil sie nicht mit den im Unternehmen vorherrschenden Überzeugungen übereinstimmen: In den Neunzigerjahren etablierte sich Enron als ein Online-Unternehmen, das Verträge über Energieprodukte kaufte und verkaufte. Das Unternehmen war überzeugt, dass es Zugang zu erheblichen Kreditlinien benötigt, um starke Gewinnschwankungen, die sich auf seine Bonität ausgewirkt hätten, verhindern zu können. Da es schwierig war, Anleger zu finden, die bereit waren, ihr Geld in Enron-Vermögenswerte zu investieren, begann Enron, Vermögenswerte zu verkaufen – nicht an unabhängige Dritte, sondern an „angeschlossene, aber nicht zum Konzern gehörende Unternehmen“. Die Unternehmen kamen nicht in den Abschlüssen von Enron vor, waren dem Konzern aber so eng verbunden, dass Enron ihre Bestände seinen eigenen Aktiva zurechnete. Als Warnsignale hinsichtlich dieser fragwürdigen Methoden auftauchten, war der Aufsichtsrat nicht weiter beunruhigt, weil er darin normale Geschäftspraktiken sah. Am Schluss gestattete der Board es ausdrücklich, 27 Milliarden Dollar, fast die Hälfte der gesamten Aktiva, aus der Bilanz herauszunehmen, wodurch sich Abstieg und schließlich Zusammenbruch des Energiegiganten beschleunigte. 

Warnsignale werden zur Kenntnis genommen, aber die Zuständigen reagieren nicht darauf: Im Februar 1995 ging eine der ältesten Handelsbanken Englands infolge eines Verlustes in Höhe von einer Milliarde Dollar durch unautorisierte Wertpapiergeschäfte in Konkurs. Der Bericht der Bank of England über den Zusammenbruch der Barings Bank kam zu dem Schluss, es seien „verschiedene Warnsignale vorhanden“ gewesen. „Mitarbeiter in verschiedenen Abteilungen“ hätten es jedoch versäumt, „die erkannten Probleme anzugehen“. Schon Mitte 1994 hatte Baring Futures Singapore (BFS) eine Innenrevision durchgeführt. Der Bericht an dasManagement der Bank bezeichnete es als unbefriedigend, dass Nick Leeson sowohl für den Handel als auch für die Administration zuständig sei. Man empfahl, beide Funktionen zu trennen, was aber nicht geschah. Im Januar 1995 machte die Simex (Singapore International Monetary Exchange), die Börse von Singapur, BSF auf einen möglichen Verstoß gegen ihre Vorschriften aufmerksam. Dennoch wurden keine Untersuchungen eingeleitet. Barings in London finanzierte weiter die Börsengeschäfte von BSF, und das Topmanagement erfüllte prompt und ohne Rückfrage alle Anforderungen, selbst als immer höhere Summen benötigt wurden und Informationen weiter ausblieben. Die Spekulationsverluste explodierten, und im März 1995 wurde die insolvente Bank zum symbolischen Preis von einem Pfund Sterling verkauft. 

Gruppen verfügen über Teilinformationen und Teilinterpretationen, überblicken aber nicht das Ganze. Im August 2000 verkündete Bridgestone/Firestone den Rückruf von mehr als 6,5 Millionen überwiegend an Ford Explorern montierten Reifen, weil es zu Unfällen durch plötzliches Abschälen des Profils gekommen war. Bereits Mitte 1998 hatte eine Versicherungsgesellschaft die US-Verkehrssicherheitsbehörde NHTSA über Profilablösungen bei Firestone-ATX-Reifen informiert. Im selben Jahr erfuhr Ford von Problemen durch Profilablösung bei Firestone-Reifen an Explorern in Venezuela, und 1999 tauschte Ford die Reifen von nach Saudi-Arabien gelieferten Explorern aus, ebenfalls wegen Profilablösungen. Ford und Firestone beschuldigten sich im weiteren Verlauf gegenseitig, während sich die Berichte über Probleme mit den Reifen häuften. Im Mai 2000 startete die NHTSA eine Untersuchung. Drei Monate später erklärte sich Firestone zu dem Rückruf bereit. 

Unternehmen können ihre Wachsamkeit erhöhen. Mitarbeiter sollten sich bewusst sein, dass sie Urteile oft auf Grund verzerrt wahrgenommener Informationen fällen. So kann die Wahrnehmung eines Risikos dadurch beeinflusst werden, wie eine Situation dargestellt wird. Werden etwa einem Manager mehrere Möglichkeiten als potenzielle Gewinnchancen präsentiert, wird er sich für die mit dem geringeren Risiko und der sichereren Chance entscheiden. Werden dieselben Möglichkeiten als potenzielle Verluste dargestellt, wird sich der Manager für eine riskantere Möglichkeit entscheiden, um den Verlust möglichst gering zu halten. Die Forschung hat bei Wirtschaftsführern auch andere Arten von Vorurteilen bei der Interpretation von Informationen festgestellt: Sie bevorzugen Informationen, die ihre Handlungen und Fähigkeiten bestätigen, sie tendieren dazu, ihr eigenes Urteilsvermögen zu überschätzen, und sie neigen zu unrealistischem Optimismus. 

Wenn ein Projekt sehr schlecht läuft und bei objektiver Betrachtung eigentlich nur die Möglichkeit bleibt, es zu beendenbestehen viele Manager trotzdem auf einer Fortsetzung und schießen oft sogar noch Ressourcen nach. Stellen Fakten die Durchführbarkeit eines Projekts infrage, finden Manager oft einen Weg, die Informationen zu diskreditieren. Sind die Informationen mehrdeutig, suchen sie sich nur die positiven heraus, um das Projekt fortsetzen zu können. Beharrlichkeit assoziiert man schließlich allgemein mit einer starken Führungspersönlichkeit, die „weiß, was sie will“, und Rückzug wird oft als Zeichen von Schwäche ausgelegt. Wie können Führungskräfte feststellen, wo die Grenze zwischen Entschlossenheit und Verbohrtheit liegt? Folgende Fragen können helfen: Fällt es mir schwer zu definieren, was einen Misserfolg darstellen würde? Würde das Scheitern des Projekts mein Bild von mir als Manager von Grund auf verändern? Würde ich erst heute diese Stelle antreten und von diesem Projekt erfahren, würde ich dann versuchen, es zu stoppen? 

Auf der Gruppenebene kann die Fähigkeit der Gruppe, riskante Entscheidungen zu treffen, durch Gruppendenken und Gruppenpolarisierung beeinträchtigt werden. Gruppendenken liegt dann vor, wenn einzelne Mitglieder Informationen zurückhalten oder verharmlosen, um den Zusammenhalt der Gruppe nicht zu gefährden. Die Gruppe überschätzt ihre Fähigkeiten, verschließt sich widersprüchlichen Informationen und wendet Druck an, um ihre Konformität zu wahren. Zu Gruppenpolarisierung kommt es dann, wenn eine Gruppe kollektiv eine Entscheidung trifft, die riskanter ist als das, was jedes Mitglied für sich allein getan hätte. 

Um diese Tendenzen zu überwinden, sollte der Leiter seine Präferenzen nicht bekannt geben und eine Atmosphäre schaffen, die den Austausch unterschiedlicher Ansichten fördert. Um ihren Horizont zu erweitern, sollte die Gruppe sich aktiv um Infor-mationen von externen Experten bemühen, darunter auch solche, die die Grundannahmen der Gruppe infrage stellen. Die Gruppe sollte sich in Untergruppen aufteilen, die unter verschiedenen Prämissen dasselbe Problem diskutieren. Ein Mitglied könnte den Advocatus Diaboli spielen und fehlende Informationen, zweifelhafte Voraussetzungen und fehlerhafte Argumente thematisieren. 

Die Unternehmen selbst brauchen eine Informationskultur, die gewährleistet, dass Fehlentwicklungen schon im Ansatz erkannt und korrigiert werden. Untersuchungen in Unternehmen und Einrichtungen, von denen hohe Zuverlässigkeit erwartet wird (etwa atomgetriebene Flugzeugträger oder Notaufnahmen in Krankenhäusern), zeigen, dass diese sich an fünf Vorgaben halten: Sie rechnen ständig mit der Möglichkeit von Störfällen und verlangen deshalb Berichte über jede Störung, analysieren Beinahe-Unfälle und achten darauf, dass sich keine Selbstgefälligkeit breit macht. Sie versuchen, sich ein vollständiges, nuanciertes Bild von jeder schwierigen Situation zu machen. Sie achten darauf, was an vorderster Front abläuft, damit Abweichungen vom normalen Verlauf so früh entdeckt werden, dass die Störung begrenzt und behoben werden kann. Sie entwickeln Verfahren zur Entdeckung, Eindämmung und Behebung von Fehlern und erwarten Flexibilität. Schließlich übertragen sie die Entscheidungsbefugnis auf die Mitarbeiter, die über die größte Erfahrung verfügen, ungeachtet ihres Ranges. 

Eine Informationskultur der Wachsamkeit besteht letztlich aus fortgesetzten Gesprächen über Sicherheit und Risiken, unterstützt durch die erforderliche Fantasie und den politischen Willen zum Handeln. Wo ein klares Bewusstsein dafür herrscht, dass gravierende Fehler eine konkrete Bedrohung darstellen, wird man sich anbahnende Fehlentwicklungen entschlossen aufspüren und entsprechende Gegenmaßnahmen einleiten. Der Preis der Wachsamkeit ist allerdings ein ständiges Unbehagen. Andrew Grove von Intel hat es so formuliert: „Nur die Paranoiden überleben.“ 

cw.choo@utoronto.ca 

Copyright © Massachusetts Institute of Technology, 2005 

All Rights reserved. www.sloanreview.mit.edu 

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%