Strategien für turbulente Zeiten
Prognosen sind wichtig für Unternehmen. Doch wenn sich das Umfeld ständig verändert – so wie jetzt –, taugen sie nicht mehr viel. Manager brauchen ein Modell, das auch in unsicheren Zeiten funktioniert. Für Unternehmen ist es in ihrer Strategieplanung nahezu unmöglich, sich auf deterministische Prognosen zu verlassen. Grund dafür sind vier Quellen der Unvorhersehbarkeit.
Von Michael C. Mankins und Mark Gottfredson
Wenn sich das Geschäftsumfeld ständig ändert, ist es für Unternehmen schwer, gute Strategien zu entwickeln. Das liegt auch daran, dass die meisten Managerinnen und Manager nach wie vor herkömmliche Planungsmodelle nutzen. Sie versuchen vorherzusagen, wie sich die Märkte entwickeln und die Wettbewerber reagieren werden. Daraufhin formulieren sie einen Mehrjahresplan, der definiert, wie das Unternehmen in diesem Szenario erfolgreich sein will, und reichen ihn dann zur Umsetzung an die unteren Ebenen weiter. Sie messen regelmäßig den Fortschritt, mit dem Ziel, alle Beteiligten auf Kurs zu halten.
Dieser Ansatz funktionierte gut in einer Zeit, in der die Märkte stabil waren und sich die wesentlichen Faktoren für Wachstum und Rentabilität einfach vorhersagen ließen. Zum Beispiel in der zivilen Luftfahrt: Von 1980 bis 2000 verzeichnete die Branche ein relativ konstantes Wachstum. Jedes Jahr stieg die Anzahl der zurückgelegten Flugmeilen um etwas weniger als 5 Prozent. Hersteller und Fluggesellschaften nutzten diskrete Modelle, um Investitionen in neue Flugzeuge zu bewerten und Flotten zu planen. In diesen 20 Jahren expandierten Airbus und Boeing aggressiv: Die Größe der globalen Flotte verdreifachte sich – von 5000 auf knapp 15.000 Maschinen.
Doch dann folgten die Terroranschläge vom 11. September 2001, die Kriege im Irak und in Afghanistan, Höchststände beim Ölpreis, die globale Finanzkrise, der Klimawandel, SARS und Corona. Prognosen für den kommerziellen Luftverkehr wurden schwierig und komplex und erwiesen sich häufig als falsch. Und wir sprechen hier nur von einer Branche.
Die Welt verändert sich so rasant, dass Unternehmen nicht mehr für alle Eventualitäten planen können. Über viele Jahre haben Wissenschaftlerinnen und Praktiker Tools und Methoden zur Strategieentwicklung unter Unsicherheit entwickelt. Zu den bekanntesten zählen die Szenariotechnik, die Monte-Carlo-Simulation und die Realoptionsanalyse. Jede von ihnen war eine wichtige Weiterentwicklung.
Die Szenariotechnik gewann in den 1970er Jahren an Bedeutung, um strategische Investitionen zu beurteilen. Unternehmen betrachteten dabei mehrere zukünftige Szenarien, statt sich auf eine einzige deterministische Prognose festzulegen. Die Monte-Carlo-Simulation ging einen Schritt weiter. Mit ihr konnten Manager für jede wichtige Variable eine Wahrscheinlichkeitsverteilung ermitteln und anschließend Tausende von Simulationen durchspielen. Sie erhielten eine Verteilung der möglichen Ausgänge und konnten sich auf das wahrscheinlichste Szenario konzentrieren. Die Realoptionsanalyse verfeinerte dieses Vorgehen in den 1980ern, indem sie den Faktor Flexibilität explizit in die Investitionsplanung einbezog.
Doch keiner dieser Ansätze hat sich in der Breite durchgesetzt. Nicht einmal ein Viertel aller Großunternehmen nutzen die Tools regelmäßig für ihre Investitionsplanung und noch weniger für die Strategieentwicklung. Warum?
Managerinnen und Manager argumentierten uns gegenüber, dass die Daten schwer zu erheben seien und die Analyse zu teuer sei, um sie regelmäßig durchzuführen. Zudem könnten die Ergebnisse kontraintuitiv sein und ließen sich Führungskräften und dem Board nur schwer vermitteln. Daher nutzen die meisten Unternehmen immer noch konventionelle Modelle zur Strategieentwicklung – zum Nachteil ihrer Kunden, Aktionäre und übrigen Stakeholder.
Entscheiderinnen und Entscheider müssen neu darüber nachdenken, was eine gute Strategie in turbulenten Zeiten ausmacht. Sie sollten Strategieentwicklung als einen kontinuierlichen Prozess betrachten, der zu einem lebendigen, dynamischen Plan führt. Wir stellen Ihnen in diesem Artikel dafür ein praktisches Modell vor, das mehrere führende Unternehmen bereits erfolgreich einsetzen.
Ein kontinuierlicher Prozess
Eines dieser Unternehmen ist Dell Technologies. 2014, kurz nachdem Michael Dell das Unternehmen an die Börse gebracht hatte, führte das Topmanagement einen neuen, kontinuierlichen Ansatz zur Strategieentwicklung und Ressourcenverteilung ein. Im Zentrum steht die „Dell Agenda“ – eine Liste von strategischen Problemen und Chancen, die das Unternehmen angehen muss, wenn es seinen langfristigen Erfolg und seinen Wert steigern will. Anstatt einen „strategischen Plan“ zur Bearbeitung dieser Agenda zu entwickeln, erstellen die Managerinnen und Manager für jeden einzelnen Geschäftsbereich eine mehrjährige Prognose, den sogenannten Multiyear Outlook (MYO). Dieser sagt voraus, wie sich die Performance jedes Geschäftsbereichs auf der Basis bereits getroffener Managemententscheidungen entwickelt. Mögliche zukünftige Entscheidungen bleiben unberücksichtigt.
Separat vom MYO erstellt das Unternehmen ein mehrjähriges Performanceziel, das sich an den strategischen und finanziellen Erwartungen des Topmanagements für den Konzern orientiert. Diese Erwartungen weichen unweigerlich vom MYO ab. Das ist gewollt und eine wichtige Säule des Ansatzes, weil es die Führungskräfte motiviert, die Dell Agenda voranzutreiben, um die Lücke zu schließen. Die Dell Agenda ist außerdem stets aktuell: Sobald ein Problem gelöst ist, wird der MYO aktualisiert und ein neues Thema aus der Liste zur Agenda hinzugefügt. Dadurch verfügt das Unternehmen stets über einen „lebendigen Plan“, der alle getroffenen Entscheidungen erfasst, sowie einen Prozess, der Entscheidungen so lenkt, dass sie die Leistung verbessern.
Wer Strategieentwicklung als einen kontinuierlichen Prozess begreift, kann agiler auf ein volatiles Umfeld reagieren. Unser Ansatz umfasst fünf Schritte, bei denen unterschiedliche Tools zur Strategieentwicklung unter Unsicherheit zum Einsatz kommen.
Mit der Szenariotechnik versuchen Unternehmen, politische, ökonomische, technologische und gesellschaftliche Veränderungen vorherzusagen. Sie entwickeln dann Best-Case-, Worst-Case und Base-Case-Szenarien und ermitteln deren jeweilige Eintrittswahrscheinlichkeit, um besser strategische Entscheidungen treffen zu können.
Wir haben allerdings die Erfahrung gemacht, dass diese Art der Szenarioanalyse eher zu einem schrittweisen Denken führt – und damit lediglich zu kleinen Änderungen statt zu einer echten Kurskorrektur, die häufig nötig wäre. Wirklich bahnbrechende Erkenntnisse liefert dagegen die Betrachtung „plausibler Extremszenarien“, wie wir sie nennen. Dabei geht es nicht darum, das Ergebnis mit der größten Wahrscheinlichkeit zu ermitteln, sondern aus einer Vielzahl von Szenarien neue Möglichkeiten abzuleiten, sich im Wettbewerb zu positionieren. Das Ziel sind dabei „No Regret“-Entscheidungen, die Führungskräfte nicht bereuen müssen und die sich in den meisten Szenarien als sinnvoll erweisen.
Sehen wir uns das Beispiel von CMS Energy an, dem größten Strom- und Erdgasversorger im US-Bundesstaat Michigan. Vor zehn Jahren stellte die Unternehmensleitung fest, dass sich die Geschäftsbedingungen rasant veränderten: Staatliche Vorschriften wurden strenger; es entstanden neue Technologien der Energieerzeugung und -verteilung; Verfügbarkeit und Kosten wichtiger Vorprodukte für Kohle-, Gas- und Atomstrom änderten sich, und neue Marktbedingungen beeinflussten die Stromnachfrage auf regionaler und nationaler Ebene. In dieser unsicheren Lage musste CMS die Art und den Zeitpunkt seiner strategischen Investitionen überdenken.
Bislang hatte das Unternehmen seine Investitionen geplant, indem es die Terminkontraktpreise für Kohle und Gas ermittelte und nach Gesprächen mit Regulierungsbehörden Preisprognosen erstellte. Wäre CMS bei diesem Ansatz geblieben, hätte es seinen Kurs wahrscheinlich fortgesetzt. Es hätte schrittweise in neue Gas- und Stromkapazitäten investiert und seine Strategie erst dann angepasst, wenn neue Vorschriften der Regulierungsbehörden oder Wettbewerber es dazu gezwungen hätten.
Der Energieversorger entschied sich jedoch für einen anderen Weg und entwarf vier plausible Extremszenarien: Deregulierung (ein Szenario, das die fast vollständige Deregulierung des zwischenstaatlichen Strommarktes vorsah), Aufhebung des Hub-and-Spoke-Systems (eine zukünftige Punkt-zu-Punkt-Belieferung über Bundesstaatengrenzen hinweg), Dekarbonisierung (eine rasante Zunahme von Umweltauflagen) sowie riesige Gasvorkommen (unter der Annahme, dass die Erschließung neuer Erdgasvorkommen zu günstigeren Preisen auf dem US-amerikanischen Markt führen würde). Keines dieser Szenarien galt als besonders wahrscheinlich. Sie stellten vielmehr Möglichkeiten dar, auf die das Unternehmen reagieren müsste – alle mit anderen Folgen für das Kerngeschäft.
Das Topmanagement analysierte die Position des Unternehmens in jedem der vier Szenarien und identifizierte mehrere „No Regret“-Maßnahmen, also Schritte, die in allen vier Szenarien sinnvoll sein würden. Dazu zählten die Senkung der Fremdkapitalquote, die Verbesserung der Kundenbeziehungen, um regulatorische Risiken besser managen zu können, und die Suche nach neuen Möglichkeiten, um die Kosten von Brennstoff und zugekaufter Energie zu senken.
Zudem sahen die Topmanager eine Chance darin, die Stromerzeugung von CMS neu zu konfigurieren. Sie wollten die Produktionskapazitäten von der Verfügbarkeit und den Kosten von Erdgas abhängig machen und stärker den Druck zur Dekarbonisierung berücksichtigen.
Eine weitere wichtige Erkenntnis: Die bisherige Strategie der schrittweisen Kapazitätsausweitung war in allen vier Szenarien riskant. Sie machte das Unternehmen für Aufsichtsbehörden und Wettbewerber angreifbar und barg die Gefahr, Veränderungen auf dem Strommarkt zu verpassen. Tatsächlich rechnete damals niemand damit, dass der Gaspreis 2014 um 67 Prozent fallen würde.
Da das Topmanagement statt der wahrscheinlichsten Szenarien extreme, aber plausible Szenarien entworfen hatte, war das Unternehmen besser für den Wechsel von Kohle zu Gas aufgestellt. Dies führte dazu, dass CMS gemessen an seiner Aktienrendite zwischen 2015 und 2020 zu den obersten 10 Prozent der Energieversorger zählte.
In unsicheren Zeiten ist Flexibilität Gold wert. Wenn Sie zum Beispiel zum Beginn einer Autofahrt mit einem möglichen Stau auf einer Schnellstraße rechnen, die wenige Auf- und Abfahrten hat, entscheiden Sie sich vielleicht für eine flexiblere, wenn auch längere Strecke. Genauso können Unternehmen den Faktor Flexibilität in die Strategieentwicklung einbeziehen – und zwar in Form von Risikoabsicherungen und Optionen.
Flexible Strategien können Risiken absichern und gleichzeitig wertvolle Optionen bereithalten.
Eine geeignete Methode ist die Realoptionsanalyse. Eine Realoption stellt das Recht, nicht aber die Verpflichtung zu einer Geschäftsentscheidung dar. Das bedeutet, die Entscheider können weitere Investitionen aufschieben, bis zusätzliche Informationen ausgewertet wurden. Mit Optionspreismodellen können Analysten – vorausgesetzt sie verfügen über die richtigen Daten – die Option, eine Investition aufzuschieben oder zu unterlassen, wertmäßig quantifizieren. In den frühen 2000ern galt die Realoptionsanalyse als bestes Tool, um Investitionen in Rohstoffe, Produktentwicklung, Forschung und Entwicklung, neue Technologien und andere Unternehmen zu bewerten. Leider hat sie sich in der Strategieplanung nie wirklich durchgesetzt. Managerinnen und Managern ist es oft nicht gelungen, die Parameter des Modells ausreichend genau zu definieren, um hilfreiche Ergebnisse zu erhalten.
Unserer Ansicht nach haben sich Unternehmen zu früh von der Realoptionsanalyse verabschiedet. Sie haben sich zu sehr darauf konzentriert, den absoluten Wert einer Realoption zu bestimmen, anstatt den relativen Wert konkurrierender strategischer Alternativen zu betrachten – was eigentlich zu den Grundprinzipien des Tools gehört.
Ein Beispiel: Zwei Alternativen sind gleichermaßen geeignet, um ein Unternehmen im Wettbewerb voranzubringen. Eine jedoch ermöglicht mehr Flexibilität, den Kurs zu ändern, Investitionen aufzuschieben oder Ressourcen aufgrund besserer Informationen neu zu verteilen. Dann besitzt diese Option in den meisten Fällen einen größeren relativen Wert. Das Unternehmen sollte sich deshalb für sie entscheiden. Das heißt: Managerinnen und Manager sollten strategische Alternativen auch dann unter dem Gesichtspunkt der Flexibilität bewerten, wenn sie sich absolut nur schwer – oder gar nicht – quantifizieren lässt.
Strategische Flexibilität lässt sich auf unterschiedliche Weise erreichen, etwa durch neue Technologien. So tauschen derzeit viele Bahnunternehmen ihre in die Jahre gekommenen Lokomotiven aus. Weil die Rohstoffpreise so stark schwanken, müssen sich Bahnbetreiber viele Gedanken darüber machen, welchen Kraftstoff sie für zukünftige Lokomotiven verwenden. Seit 2016 gehen die Preise von Öl und Gas stärker auseinander. Für Bahnbetreiber wurde es attraktiver, auf Gas als Antrieb umzustellen.
Niemand konnte jedoch sicher sein, ob der Preisunterschied bestehen bleibt oder größer oder kleiner wird. Gleichzeitig veränderte sich die Technologie der Loks. Motoren, die mehrere Kraftstoffe verbrennen können, wurden zu einer echten Alternative für solche, die nur auf einen Kraftstoff ausgelegt sind. Letztere sind deutlich günstiger, aber auch weniger flexibel. Je nach Schienennetz, Kundschaft und Strategie kann die Flexibilität, die die neuen Motoren bieten, die höheren Anschaffungskosten wettmachen.
Häufig ist die Lage jedoch nicht so eindeutig. Dann müssen die Verantwortlichen zwischen Optionen mit sehr unterschiedlichen Ergebnissen abwägen, je nachdem, wie sich die Lage entwickelt. Wer den Faktor Flexibilität berücksichtigt, kann auf Strategien kommen, die Risiken absichern und gleichzeitig wertvolle Optionen für die Zukunft bereithalten.
Walt Disney ist hierfür ein gutes Beispiel. Vor einigen Jahren erkannte das Unternehmen, dass Streamingdienste die klassischen Kabel- und Satellitenfernsehanbieter bedrohten. Im August 2017 gab Disney bekannt, für 1,58 Milliarden US-Dollar die Mehrheit an BAMTech zu übernehmen, einem Direct-to-Consumer-Anbieter von Streamingtechnologie und Marketingservices. Die Entscheidung sorgte für große Aufregung und überraschte die Investoren. Sie fragten sich, warum das Unternehmen so viel Geld in eine relativ kleine Plattform (einen Ableger des Baseballverbands Major League Baseball) investierte. Durch den Zukauf war Disney jedoch in der Lage, nur knapp zwei Jahre später sein Streamingangebot Disney+ auf den Markt zu bringen.
Vier Monate nach der Investition in BAMTech leitete Disney die Übernahme von 21st Century Fox ein. Zunächst erschienen die 71,3 Milliarden US-Dollar, die das Unternehmen dafür in die Hand nahm, wie der Versuch, das herkömmliche Fernsehgeschäft zu stärken. Tatsächlich aber war die Akquisition eine Absicherung. Disney verschaffte sich Zugang zum umfangreichen Filmarchiv von Fox. Diese Sammlung würde sich als wertvoll erweisen – unabhängig davon, welches Distributionsmodell sich langfristig durchsetzen würde.
Durch seine Investitionen in strategische Absicherungen und Optionen zog Disney an seinen weniger vorausschauend handelnden Mitbewerbern vorbei und verdoppelte seinen Marktwert zwischen 2017 und 2020. Mittlerweile folgen andere Unternehmen in ihrer langfristigen Strategie dem Beispiel Disneys.
Risiken absichern und Optionen offenhalten ist nicht das Gleiche, wie viele kleine Wetten zu platzieren. Unternehmen, die durch Letzteres versuchen, das Risiko zu reduzieren, landen fast nie einen großen Erfolg. Es gibt nur wenige Beispiele für relativ kleine Einsätze, die später zur Marktführerschaft geführt haben. Vielmehr steigt die Wahrscheinlichkeit vieler kleiner Verluste, die unterm Strich bares Geld kosten. Schlimmer noch: Wenn das Management mehrere konkurrierende Wetten auf die Zukunft eingeht, verliert das Unternehmen seine eigentlichen Ziele aus den Augen. Es verschwendet zudem Zeit und die Arbeitskraft seiner besten Mitarbeiter, was den Schaden weiter in die Höhe treibt.
Sehen wir uns dazu noch einmal Dell an. In den Jahren vor 2013, als noch nicht abzusehen war, welche Technologien sich durchsetzen würden, investierte das Unternehmen breitflächig in Smartphones, Tablets, Chromebooks, Drucker, Heim-PCs, kommerzielle Laptops und Desktopcomputer, Workstations, Server, Speicher, IT-Dienstleistungen und Software. Abgesehen von PCs, Workstations und Servern hinkte Dell allerdings in den anderen Märkten, in die es so großzügig investiert hatte, hinterher.
Erst als das Unternehmen seinen Strategieprozess auf plausible Extremszenarien – von „Tod des PCs“ bis zu „allumfassender Mobilität“ – umstellte, erkannte die Führungsriege, wie viele ihrer kleinen Wetten höchstwahrscheinlich nicht aufgehen würden. Also verabschiedete sie sich als Erstes von Smartphones, Tablets und Druckern. Später trennte sich Dell auch von IT-Dienstleistungen und Software. Die Analyse zeigte auch, in welche Bereiche es sich langfristig lohnen würde, stärker zu investieren. Entsprechend vereinfachte Dell seine PC- und Serverportfolios und reinvestierte einen Teil der Einsparungen in das Produktdesign.
Diese und andere Entscheidungen halfen dem Unternehmen in einer Zeit, in der PCs und Server zu Massenprodukten wurden und sich die Märkte konsolidierten. Indem sich Dell aus mehreren Märkten verabschiedete, konnte es seine Einsätze strategisch konzentrieren. Das operative Ergebnis verdreifachte sich zwischen 2013 und 2020; der Marktwert des Unternehmens stieg um 420 Prozent.
3. Erst testen, dann investieren
Für Jeff Bezos, den Gründer von Amazon, sind Experimente der Schlüssel zu Innovation. Aus vielen Experimenten des Konzerns sind profitable Geschäfte hervorgegangen, etwa Marketplace, Amazon Web Services (AWS) und Prime. Andere waren weniger erfolgreich und wurden schnell eingestellt. Beispiele sind Crucible, mit dem Amazon versuchte, in den Bereich der Multiplayerspiele vorzustoßen; Haven, das Gesundheits-Joint-Venture mit JPMorgan und Berkshire Hathaway; und Spark, mit dem der Onlinehändler eine Instagram-ähnliche Shoppingplattform etablieren wollte.
Doch auch die gescheiterten Vorhaben hielten wertvolle Erkenntnisse für Bezos und sein Team bereit und halfen ihnen, in Zukunft besser zu investieren. Diese Kultur des Ausprobierens und Anpassens hat Amazon zu einem der innovativsten und wertvollsten Unternehmen der Welt gemacht.
Manager müssen jedoch klare Kriterien dafür entwickeln, in welchen Bereichen sie experimentieren wollen. Wer einfach nur ganz viele kleine Experimente beginnt, hat selten Erfolg, wie wir gesehen haben. Bei Amazon dürfen deshalb nur „dreamy ideas“, also träumerische Ideen getestet werden. Das sind Ideen, die die Kundinnen und Kunden lieben, die sich zu riesigen Unternehmen mit hohen Erträgen entwickeln könnten und die eine realistische Chance haben, langfristig zu bestehen.
Marketplace, AWS und Prime haben diese Kriterien erfüllt. Im Falle von Prime konnte zum Beispiel niemand bei Amazon auf Daten verweisen, die belegten, dass die einjährigen Abogebühren den kostenlosen Versand aufwiegen würden. Doch dann konnte Amazon die Idee validieren. Dafür machte das Unternehmen Experimente, zunächst in ausgewählten lokalen Märkten und dann auf globaler Ebene. 2020, 15 Jahre nach seiner Gründung, ist Prime ein 25 Milliarden US-Dollar starkes Geschäft.
Kleine Experimente sind völlig in Ordnung, sogar empfehlenswert. Sie sollten aber an eine größere Idee gekoppelt sein, damit sich der Test auch lohnt. Richtig eingesetzt, gibt ein Experiment Auskunft darüber, ob ein Unternehmen in ein größeres, risikoreicheres Vorhaben investieren sollte oder nicht.
4. Triggerpunkte, Wegweiser und Kennzahlen bestimmen
Wie viel eine Option wert ist, hängt davon ab, wann sie ausgeübt wird. In Branchen, in denen dem Marktführer der Löwenanteil am künftigen Gewinnpool zufällt, kann es enorme Vorteile haben, der Konkurrenz voraus zu sein. Das zeigt das Beispiel der Fahrdienste Uber und Lyft: Uber war nur 18 Monate früher am Markt als Lyft, doch dieser kleine Vorsprung genügte, um sich als Branchenführer zu etablieren. Heute besitzt Uber einen Passagieranteil von 70 Prozent, während der Anteil von Lyft auf 30 Prozent beschränkt bleibt. Selbst in Märkten, in denen First-Mover-Vorteile weniger stark ausgeprägt sind, kann der richtige Handlungszeitpunkt entscheidend sein. Erfolgreiche Unternehmen identifizieren deshalb Triggerpunkte, Wegweiser und Kennzahlen, um Veränderungen zu erkennen und darauf zu reagieren, bevor es die Konkurrenz tut.
So definierte ein Automobilkonzern die Marktdurchdringung von Elektrofahrzeugen als einen kritischen Faktor oder Triggerpunkt. Sie beeinflusste den Großteil seiner Strategie: von den Investitionen in herkömmliche Verbrennungsmotoren über die Größe seines Händlernetzes bis hin zu seinem langfristigen Governance- und Betriebsmodell.
Zu dem Zeitpunkt existierten sehr unterschiedliche Prognosen zu Elektroautos – von weniger als 20 Prozent weltweiter Nachfrage im Jahr 2030 bis zu mehr als 50 Prozent (siehe auch Kasten „Was Prognosen unsicher macht“). Also entwarf das Management des Unternehmens mehrere plausible Extremszenarien und entschied – ausgehend von einer 30-prozentigen Marktdurchdringung von E-Fahrzeugen im Jahr 2030 –, den Anteil des Geschäfts mit Verbrennungsmotoren und die damit verbundenen Investitionen zurückzufahren.
Gleichzeitig wussten die Manager, dass die geplante Reduktion zu gering wäre, sollten sich Elektroautos schneller verbreiten. Deshalb definierten sie einige Schlüsselindikatoren – sogenannte Wegweiser –, um die Marktentwicklung zu beobachten. Dazu gehörten Ankündigungen neuer gesetzlicher Auflagen, Investitionen von Herstellern in Elektrofahrzeuge, Produktionsprognosen von Wettbewerbern für Investoren, Kosten für Batterien, die Entwicklung der Kosten auf der Erfahrungskurve sowie die Marktanteile von Elektroautos in unterschiedlichen Regionen. Für jeden dieser Wegweiser definierten sie Kennzahlen. Das Unternehmen bestimmte auch für sechs weitere Faktoren Triggerpunkte, Wegweiser und Kennzahlen.
Je genauer diese Variablen sind, desto hilfreicher sind sie, um Veränderungen erkennen und den Kurs korrigieren zu können. Das Automobilunternehmen aus dem Beispiel misst quartalsweise Kennzahlen, die mit den einzelnen Wegweisern verknüpft sind. Deuten die Wegweiser darauf hin, dass die Marktdurchdringung von Elektroautos bis 2028 auf 30 Prozent steigt, wird das Unternehmen die Übergangsphase vom Verbrennungsmotor zu E-Fahrzeugen um vier Jahre verkürzen.
Indem das Managementteam solche möglichen Kurskorrekturen im Vorfeld durchdachte, konnte es seine Optionen bestmöglich ausspielen. Es profitierte von der Flexibilität, die damit einhergeht, auf den besten Moment warten zu können, ohne unter Zugzwang zu geraten. Das Unternehmen sammelt fortwährend weitere Informationen, behält die Marktentwicklung im Auge und kann das Geschäft mit Verbrennungsmotoren so lange wie möglich profitabel weiterführen.
Wegweiser und Triggerpunkte sind niemals statisch. Sie spiegeln den bestmöglichen Kenntnisstand des Managements über die „bekannten Unbekannten“ wider, die die Strategie eines Unternehmens zu einem bestimmten Zeitpunkt beeinflussen. Offenbaren sich bisher „unbekannte Unbekannte“, muss das Management die Wegweiser und Triggerpunkte anpassen.
So hatte Netflix beispielsweise die Übernahme von BAMTech durch Disney wahrscheinlich nicht auf dem Schirm. Dennoch musste es reagieren, um seine führende Position zu verteidigen. Ebenso wenig rechneten die meisten Unternehmen, die wir kennen – wenn überhaupt welche –, vor Januar 2022 mit einem russischen Angriff auf die Ukraine. Die wenigen Firmen, die dieses Ereignis zügig in ihre Strategie integrierten, waren besser als ihre Wettbewerber in der Lage, ihre Beschäftigten zu schützen und ihr Geschäft zu stabilisieren.
Strategien müssen auf unerwartete Veränderungen im Markt- und Wettbewerbsumfeld eingehen. Für Unternehmen heißt das: Sie müssen die Triggerpunkte und Wegweiser dann schnell überarbeiten, und zwar auf die gleiche Art und Weise, wie sie auch die ursprünglichen Kennzahlen festgelegt haben. Je aktueller ihre Wegweiser sind, desto besser können sie auf externe Schocks reagieren.
5. Verbindliche Überwachungsmechanismen etablieren
In den meisten Unternehmen ist die Performanceüberwachung nicht mehr als ein Wetterbericht: Das Topmanagement kommt zusammen – meist quartalsweise –, nimmt einen Soll-Ist-Vergleich der Leistung der einzelnen Geschäftsbereiche vor und identifiziert Abweichungen. Manchmal beschließen die Verantwortlichen, dass eine Performancesteigerung nötig ist. In anderen Fällen passen sie den Plan einfach an die Abweichungen an.
In solchen Fällen dienen Performancereviews kaum bis gar nicht dazu, künftige Entwicklungen vorherzusehen. Und sie geben keine Antwort auf die Frage, ob das Unternehmen sich neu ausrichten muss. Um auf Veränderungen im Umfeld reagieren zu können, sollten Managerinnen und Manager nicht fragen „Wie war unsere Performance?“, sondern „Sollten wir unseren Kurs ändern?“.
Die meisten Performancereviews dienen kaum bis gar nicht dazu, die Zukunft vorherzusehen.
Um diese Frage zu beantworten, sind mehr Informationen nötig als bei der üblichen Vorgehensweise. Das Management muss den Gründen für die Performanceabweichung auf den Grund gehen, Krisenpläne vorbereitet haben und diese schnell umsetzen können. Einige Unternehmen haben Grenzwerte (rot, gelb und grün) definiert. Liegt ein Wegweiser über einem kritischen Wert, steht entweder eine Kurskorrektur (rot) oder die Notwendigkeit einer tiefergehenden Analyse (gelb) an.
Das schweizerisch-schwedische Lebensmittelverpackungsunternehmen Tetra Pak, das 2020 einen Umsatz von knapp elf Milliarden Euro erzielte, nutzt dieses System. Als sie ihre Strategie entwickelten, betrachteten die Führungskräfte vier Szenarien – von „mehr Tempo bei Nachhaltigkeit“ bis „schneller zum Massenmarkt bewegen“.
Jedes Quartal misst das Unternehmen 42 Wegweiser. Darunter sind Schlüsselkennzahlen wie der Anteil an Verpackungen, der laut Gesetz in wichtigen Ländern wiederverwertet werden muss, der prozentuale Preisanstieg durch nachhaltige Verpackungen, der Anteil von Onlinehändlern im Lebensmittel- und Getränkesegment sowie die durchschnittlichen operativen Gewinnmargen von Lebensmittel- und Getränkeeinzelhändlern.
CEO Adolfo Orive und sein Team setzen sich vierteljährlich zusammen, um die Geschäftsentwicklung eingehend zu besprechen. Dabei konzentrieren sie sich auf die Zukunft („Was müssen wir tun?“), nicht auf die Vergangenheit („Welchen Umsatz haben wir im letzten Quartal in Indien erzielt?“). Deutet ein Wegweiser darauf hin, dass ein Szenario wahrscheinlicher ist als ein anderes, beschleunigt das Unternehmen seine derzeitigen Programme oder legt neue auf. Dadurch war Tetra Pak in der Lage, seine Strategie zügig an neue Umweltauflagen und Änderungen der Kundenwünsche anzupassen.
Als die Preiselastizität in einem der größten Märkte des Unternehmens deutlich stärker anstieg als erwartet – ein rotes Warnsignal dafür, dass sich ein Massenmarkt entwickelte –, baute Tetra Pak die Produktion kostengünstiger Verpackungen aus. Die neue Performanceüberwachung wurde so deutlich handlungsorientierter, was dem Unternehmen mehr Wachstum und Rentabilität einbrachte.
Fazit
Es gibt viele nützliche Tools zum Umgang mit Unsicherheit. Doch Managerinnen und Manager tun sich schwer damit, sie konsequent anzuwenden, wenn sie strategische Entscheidungen treffen müssen. Unternehmen, die auch in unruhigen Zeiten erfolgreich sein wollen, brauchen ein neues Modell zur Strategieentwicklung. Wir haben Ihnen hier beschrieben, was einen solchen dynamischen Ansatz auszeichnet. Diejenigen, die ihn einsetzen, werden sich in den nächsten Jahrzehnten einen Vorsprung verschaffen – und diesen auch halten können. Wer hingegen am Prinzip „Erst planen, dann umsetzen“ festhält, könnte unwiderruflich abgehängt werden. © HBP 2022
Autoren
Michael Mankinsist Partner der Beratungsgesellschaft Bain in Austin im US-Bundesstaat Texas. Er ist bei Bain für die Bereiche Organisationsdesign, Unternehmensstrategie und Transformation verantwortlich. Mankins ist Co-Autor des Buches „Time, Talent, Energy: Overcome Organizational Drag & Unleash Your Team’s Productive Power“ (Harvard Business Review Press 2017).
Mark Gottfredsonist Partner bei Bain im texanischen Dallas und Co-Vorsitzender des Bereichs Automobil und Mobilität in Amerika. Zudem verantwortet er weltweit die Bereiche für Komplexitätsmanagement und Leistungssteigerungsdiagnostik. Er ist Co-Autor des Buches „The Breakthrough Imperative: How the Best Managers Get Outstanding Results“ (Harper Business 2008).
Was Prognosen unsicher macht
1. Die große Anzahl der Veränderungsvektoren Die Veränderungen in den meisten Branchen bewegen sich entlang von drei oder mehr Vektoren. Beispiel Goldförderung: Bergbauunternehmen berücksichtigen in ihrer Planung seit Langem die Volatilität von Goldpreisen. Doch heute erhöhen Umweltfragen, Regelungen zu Arsen-Höchstgehalten, neue Sicherheitsstandards, politische Instabilitäten, die globale Geldpolitik, technologische Entwicklungen und viele weitere Aspekte die Unsicherheit. Unternehmen müssen jeden dieser Faktoren bei Produktionsentscheidungen und der Bewertung neuer Projekte berücksichtigen. Vernachlässigen sie auch nur einen einzigen Faktor, laufen sie Gefahr, sich auf den falschen Kurs festzulegen.
2. Miteinander verbundene Veränderungsvektoren Viele Vektoren sind miteinander verknüpft. Veränderungen in einem Bereich verstärken daher Veränderungen in einem anderen. Dadurch steigt die Anzahl der Variablen, die Unternehmen in ihren Strategien berücksichtigen müssen.
3. Unsichere Prognosen zum Gleichgewicht Typischerweise existiert eine Vielzahl von Prognosen dafür, wie das Gleichgewicht – der Steady State – entlang jedes Vektors aussehen wird. Anfang der 1980er Jahre ging ein großer Telekommunikationsanbieter davon aus, dass sich Mobiltelefone nicht durchsetzen würden. Die Geräte waren extrem schwer, Akkus hielten nicht lange, Empfang gab es nur sporadisch, und die Verbindungskosten waren hoch. Aufgrund einer Prognose, nach der 2000 weltweit lediglich 900.000 Geräte verkauft würden, zog sich das Unternehmen aus dem Mobilfunkgeschäft zurück. Andere Anbieter, die mit 50-fach höheren Verkaufszahlen rechneten, investierten dagegen stark. Das zeigt: Auf eine einzige Schätzung zu setzen, erhöht das Risiko danebenzuliegen.
4. Die prognostizierte Zeit bis zum Erreichen des Gleichgewichts Prognosen zu Nutzungsraten weichen häufig stark voneinander ab, und das aus gutem Grund: Sie lassen sich nur schwer erstellen. Es dauerte 18 Jahre, bis sich Geldautomaten durchsetzten, während die chinesische Plattform WeChat mit ihrem Bezahldienst in weniger als einem Jahr 50 Millionen Nutzer gewann.
Wie wirkt sich all das auf Prognosen aus? Ein Beispiel: Wenn eine Branche mit acht Veränderungsvektoren konfrontiert ist, zu denen es je vier Prognosen für den Gleichgewichtszustand gibt, müssen die Strategieverantwortlichen 32 mögliche Szenarien betrachten. Berücksichtigt man pro Vektor nur vier Projektionen für die Zeit, die zum Erreichen des Gleichgewichts nötig ist, steigt die Zahl der Szenarien auf 128. Da viele der Veränderungsvektoren und Gleichgewichtsprognosen miteinander verknüpft sind, steigt die Anzahl der möglichen Ergebnisse schon schnell auf 1000 oder mehr an. Und die Welt ist weit komplexer, als das Beispiel suggeriert.
Kompakt
Das Problem Wenn Unternehmen Strategien unter Unsicherheit entwickeln, bedienen sich nur wenige von ihnen aus dem strategischen Werkzeugkasten, der Methoden wie Szenariotechnik, Monte-Carlo- Simulation und Realoptionsanalyse umfasst. Stattdessen halten sie an konventionellen Modellen fest – sehr zum Nachteil ihrer Kunden, Aktionäre und übrigen Stakeholder.
Die Gründe Als Gründe führen Managerinnen und Manager an, dass die Tools Daten erfordern, die sich nur schwer generieren lassen und dass regelmäßige Analysen teuer sind. Außerdem können die Ergebnisse kontraintuitiv sein und lassen sich dem Topmanagement und dem Board nicht leicht vermitteln.
Die Lösung Die Strategieentwicklung muss ein kontinuierlicher Prozess sein, der zu einer lebendigen, dynamischen Strategie führt. Dazu bedarf es eines anderen Ansatzes bei der Entscheidungsfindung, einer Experimentierkultur sowie neuer Modelle der Strategieentwicklung und der Performancemessung.
Dieser Beitrag erschien erstmals in der Oktober-Ausgabe 2022 des Harvard Business managers.
