1. Research
  2. Produkte & Themen
  3. Publikationsreihen
  4. Konzept
3. März 2016
Kursrutsch an den Rohstoffmärkten, Sorge um Abwertung des Renminbi, schwaches Lohnwachstum — Vertreter der Deflationsthese haben die Qual der Wahl. Aber könnte die eigentliche Gefahr eher eine zu hohe anstatt zu niedrige Inflation sein? [mehr]
KONZEPT Ausgabe 07 Inflation: Totgesagte leben länger? März 2016 Kursrutsch an den Rohstoffmärkten, Sorge um Abwertung des Renminbi, schwaches Lohnwachstum — Vertreter der Deflationsthese haben die Qual der Wahl. Aber könnte die eigentliche Gefahr eher eine zu hohe anstatt zu niedrige Inflation sein? Titelthema Inflation: Totgesagte leben länger? Konzept3 Gewissheiten gibt es nur wenige in der komplexen Welt von Wirtschaft und Finanzen, daher sind Geldanlagen immer wieder eine Herausforderung. Mit einer Ausnahme: Wenn alle mit dem Gleichen rechnen, kann man fast sicher davon ausgehen, dass es nicht eintreten wird. In den meisten Fällen sollte man sich also eher auf das genaue Gegenteil einstellen. Und da in allen Köpfen derzeit das Gespenst der Deflation umgeht, wollen wir die siebte Ausgabe unseres Konzept-Magazins einem längst vergessenen Relikt widmen: der Inflation. In unseren vier Features zur Inflation schließen wir zwar einen weiteren Verfall der Weltpreise nicht aus – tatsächlich scheint es bei Drucklegung fast so, als würden sie wirklich ins Bodenlose sinken (und mit ihnen auch alles andere!). Dennoch ist es schlicht so, dass unser Verständnis von Preisschwankungen nicht selten unzureichend ist und es daher anmaßend und gefährlich wäre, den Gedanken an eine Inflation einfach von der Hand zu weisen. Vielleicht sollten sich manche Experten, die das Wirtschaftsgeschehen kommentieren, ein Beispiel an Janet Yellen und deren Bescheidenheit hinsichtlich der Prognosesicherheit der Federal Reserve in puncto Inflation nehmen. Wodurch also könnte die wachsende Armee der Deflationsfanatiker eines Besseren belehrt werden? Welche Rolle spielt die demografische Entwicklung bei der Preisbildung? Wie ist es um die Zukunft der Rohstoffe bestellt? Ist Inflation gut oder schlecht für die Wertentwicklung von Aktien? Diese und viele andere Fragen erläutern wir ausführlich in der vorliegenden Ausgabe von Konzept. Wem diese Themen zu trocken sind, der sei auf unsere beliebte Infografik verwiesen, die die weltweite Preisentwicklung aus einem eher sportlichen Blickwinkel beleuchtet. Außerdem lockt diese Ausgabe mit einer Vielzahl unterhaltsamer kürzerer Artikel. Haben Sie sich beispielsweise jemals gefragt, was erneuerbare Energien und Eier aus Freilandhaltung gemeinsam haben? Die Antwort kennt Martin Brough, der uns zudem erklärt, wie die grüne Energie die konventionelle Energieerzeugung durcheinanderwirbelt. Von den regenerativen Energien zu den Raketen reisen wir mit Myles Watson, der uns zeigt, warum die versammelte Schar an Milliardären, die ins Raumfahrtgeschäft drängen, am Ende auf dem Boden des Hühnergeheges landen könnte. Daneben widmen wir uns – ganz bodenständig – den 100 Millionen Diabetes-Patienten in China. Jack Hu rechnet vor, dass eine bessere Versorgung mit Diabetespräparaten und eine verstärkte heimische Produktion der Medikamente die Preise so weit fallen lassen könnten, dass den 80% der Erkrankten, die im Moment noch gar nicht in Behandlung sind, endlich geholfen werden könnte. Wir bleiben in den Schwellenländern, wo die Unternehmen, die unser Konsumgüter-Team beobachtet, endlich wieder Anzeichen für Hoffnung sehen. Daraus könnte mehr werden – schließlich gehörte die Branche für nichtzyklische Konsumgüter mit zu den ersten, die eine Konjunkturabkühlung in den Emerging Markets kommen sahen. Die Rubriken auf den hinteren Seiten des Magazins bieten wieder allerlei Erkenntnisse und manchmal auch Blech. So mischte sich unser Konferenzspion diesmal unter die Gäste einer Veranstaltung der Deutschen Bank zur internationalen Automesse in Detroit. Von Partystimmung konnte dort allerdings trotz des Ölpreises von USD 30 und der Rekordzahl an Autokäufen durch die Amerikaner im letzten Jahr nicht die Rede sein. Um Missstimmung geht es auch in unserer „Ideas Lab“-Serie und dem Vortrag Editorial Konzept 4 von Prof. Peterson zum Thema „Konflikte im Team“. Der Konfliktforscher hat herausgefunden, dass lediglich ein Zehntel aller Spannungen in einem Team auf echten Meinungsverschiedenheiten beruht. In den meisten Fällen kommt es offenbar zu Missklängen, weil man sich schlicht im Ton vergreift. Und zu guter Letzt rezensierte der Ihnen treu ergebene Chefredakteur während einer Zugfahrt den Führungskräfteratgeber „Extreme Ownership“ zweier ehemaliger US-Navy SEALs. Danke für Ihr Interesse und viel Vergnügen bei der Lektüre! Stuart Kirk Head of multi-asset research Wenn Sie Ihr Feedback geben oder mit den Verfassern in Kontakt treten möchten, wenden Sie sich bitte zunächst an Ihren Kundenbetreuer der Deutschen Bank oder schreiben Sie an das Team research.haus@db.com. Konzept5 Articles 08 Emerging Markets—Tradition und Neuanfang 11Erneuerbare Energien—Erklärungsversuch für eine unerklärliche Branche 14 Weltraumforschung—Milliardäre auf dem Boden der Tatsachen 16 Diabetes in China—Die 100 Millionen Patienten-Krise Columns 54 Buchrezension—Geborene Anführer 55 Ideas Lab—Konflikte im Team 56 Konferenzberichte—Nichts als Autos im Kopf 57 Infografik—Preise in Olympiastädten Konzept Features Inflation: Totgesagte leben länger? 19 Auf schwankendem Grund 34 Rohstoffe: Am Boden, aber keineswegs ohne Aufwärtspotenzial 28 Inflation und die Bewertung von Aktien 44 Emerging Markets— Tradition und Neuanfang Harold Thompson, Gerry Gallagher, Tristan Van Strien Seit zunehmend Zweifel an der Qualität der von offizieller Seite vorgelegten Konjunkturdaten laut werden, werden ständig neue alternative Indikatoren aus dem Hut gezaubert, die Auskunft über den Gesundheitszustand der Emerging Markets geben sollen. Diese vermeintlichen Konjunkturbarometer reichen von einfachen Messungen beispielsweise des Frachtvolumen und des Energieverbrauchs bis hin zu Kuriositäten wie Satellitenbildern, die die Helligkeit der Beleuchtung in Fabriken zeigen. Gleichwohl waren die meisten dieser Indikatoren nicht geeignet, die Anleger ausreichend zu warnen, wie ernst die Lage in den Emerging Markets tatsächlich ist. Ein möglicher Grund könnte der Rückgriff auf veraltete Modelle für diese Volkswirtschaften sein, die fast ausschließlich die Industrie berücksichtigen und die zunehmende Bedeutung der Konsumausgaben außer Acht lassen. Anleger auf der Suche nach Hinweisen über den Zustand der Schwellenländer hätten besser daran getan, ihr Augenmerk auf die Entwicklung der Unternehmen im Bereich konsumnahe Ge- und Verbrauchsgüter weltweit zu richten, die 6,3 Milliarden Verbraucher in den Emerging Markets bedienen. Lange vor dem rigorosen Ausverkauf von Emerging-Markets- Anlagen ab 2015 wiesen diese Unternehmen ein deutlich geringeres Umsatzwachstum in den Schwellenländern aus. Ein gutes Beispiel ist Unilever. Der in zahlreichen Schwellenländern präsente niederländisch-britische Konzern hat in den letzten 25 Jahren sein Marktvolumen in den Emerging Markets um jährlich rund fünf Prozent gesteigert. 2014 wurde jedoch quasi ein Nullwachstum vezeichnet. Damals mögen Emerging-Markets-Anleger angesichts der drohenden Konjunkturabkühlung überreagiert haben, doch heute kann man ihnen genau das Gegenteil anlasten. Trotz der von dunklen Wolken überschatteten Prognosen für die Schwellenländer weisen Unternehmen der nichtzyklischen Konsumgüterindustrie Anzeichen einer Verbesserung auf. Betrachtet man das Universum börsennotierter europäischer Unternehmen der nichtzyklischen Konsumgüterindustrie, so lag das Wachstum in den Emerging Markets 2015 schätzungsweise ein Drittel höher als im Vorjahr. Betrachtet man vergangene Turbulenzen in den Schwellenländern, besteht Grund zur Hoffnung auf eine anhaltende Wachstumsverbesserung. Ein Blick auf weltweit tätige Unternehmen im Bereich konsumnahe Ge- und Verbrauchsgüter wie Unilever und Nestlé offenbart in einzigartiger Weise, welche Faktoren die Dynamik in den Schwellenländern bestimmen. Einige Produkte dieser Unternehmen werden seit Jahrzehnten und teilweise sogar seit Jahrhunderten an diesen Märkten vertrieben. Viele Marken wurden von europäischen Abenteurern in diese Länder gebracht und standen schon bald für Tradition und Qualität. Bis in heutige Zeit haben dies zum Beispiel Marken wie Dettol, Heineken, Lux, Omo, Marlboro und Johnnie Walker geschafft. Die Marktdurchdringung der großen Marken ist hier so enorm, dass manch westlicher Tourist verwundert vor den Regalen maroder Gemischtwarenläden in abgelegenen Gegenden entlang des Amazonas oder im Hinterland des indischen Subkontinents stehen dürfte, in denen sich ein vertrautes Markenprodukt ans nächste reiht. Hersteller von Konsumgütern des täglichen Bedarfs haben in diesen Ländern also eine traditionsreiche Geschichte, einzigartige Reichweite und somit oftmals eine sehr hohe Präsenz. Viele Großkonzerne erwirtschaften dort fast die Hälfte ihres Umsatzes. Insgesamt Konzept 8 lässt sich sagen, dass das Exposure von Schwergewichten der Verbrauchsgüterindustrie in Bezug auf die Schwellenländer annähernd zweieinhalb mal so hoch ist wie das eines börsennotierten Durchschnittsunternehmens aus Europa. Ein Boom an den Emerging Markets beschert daher auch positive Umsatzzahlen für die Global Player. Geraten diese Volkswirtschaften jedoch – wie momentan – unter Druck, wird auch die nichtzyklische Konsumgüterindustrie der Industrieländer zu Unrecht abgestraft. Unternehmen dieser Branche zeichnen sich nicht nur durch ihr ausgesprochen starkes Exposure in den Schwellenländern aus, sondern auch durch ein hohes Maß an geografischer Diversifizierung in diesem Segment. Diese ist umso wichtiger, als auf die vergleichsweise weit entwickelten Länder Brasilien, China und Russland, die meist im Zentrum der Diskussionen stehen, lediglich knapp ein Drittel der Gesamtbevölkerung der Schwellenländer entfällt. Zweifelsohne spielen diese drei Länder eine große Rolle, erbringen sie doch rund die Hälfte der Wirtschaftleistung aller Emerging Markets. Der Umstand, dass sich die Wirtschaftskommentare unverhältnismäßig stark diesen Märkten widmen, bewirkt jedoch, dass ihre Entwicklung tonangebend für die Entwicklung aller Schwellenländer ist. Tatsächlich hängt die finanzielle Performance von Unternehmen der nichtzyklischen Konsumgüterindustrie aber von weit mehr als diesen drei Ländern ab. Lediglich ein Drittel des Gesamtumsatzes in den Schwellenländern wird an diesen drei großen Märkten erzielt. Das Exposure in Bezug auf die „Big Three“ ist gerade einmal halb so hoch wie das in Bezug auf die Masse der restlichen Schwellenländer. Nestlé, eines der größten Verbrauchsgüterunternehmen weltweit, hat für diese Länder den Begriff „Zone CNN“ eingeführt. Er spielt darauf an, dass über diese Länder nur dann berichtet wird, wenn ein Filmteam von CNN vor Ort von der jüngsten Krise berichtet, beispielsweise von einer Naturkatastrophe, einem Krieg oder einem sonstigen geopolitischen Ereignis. Doch genau in diesen sogenannten „Tier 2 Emerging Markets“ sind die Hersteller von Konsumgütern des täglichen Bedarfs präsent und heben sich damit von anderen Branchen wie der Luxusgüterbranche ab, deren Erfolg oder Misserfolg von einem oder zwei der weiter entwickelten Schwellenländer wie China abhängt. Das Pro-Kopf-Vermögen der 4,7 Milliarden Verbraucher in diesen Märkten ist durchschnittlich halb so hoch wie das in Brasilien, China und Russland. Unternehmen der nichtzyklischen Konsumgüterindustrie, die Basisprodukte zu erschwinglichen Preisen bieten, haben es leichter, an diesen Märkten Fuß zu fassen als Branchen, denen der Marktzugang aufgrund der Art oder des Preises ihrer Konsumgüter verwehrt bleibt. Daher sollten die Aktien der nichtzyklischen Konsumgüterindustrie unter einem anderen Konzept9 Blickwinkel betrachtet werden als die Titel von anderen Unternehmen mit Geschäftsaktivitäten in Ländern, die ebenfalls den Stempel „Emerging Markets“ tragen. Klarer Nachteil einer konsumgüterorientierten Strategie in einer ganzen Reihe von Schwellenländern ist die Gefahr von Währungsschwankungen. Seit Anfang 2013 haben die Emerging-Markets- Währungen fast ein Drittel ihres Werts eingebüßt. Man könnte auch sagen, der Wert dessen, was 6,3 Milliarden Menschen produzieren, ist in US-Dollar ausgedrückt in den vergangenen drei Jahren um ein Drittel gesunken. Um diese Abwertung abfedern zu können, haben die Unternehmen der nichtzyklischen Konsumgüterindustrie die Preise angehoben. Dabei geht es nicht nur darum, das Ergebnis in der Berichtswährung eines Unternehmens zu polieren, sondern auch darum, den Anstieg der Inputkosten auszugleichen, die oftmals in US-Dollar ausgewiesen werden. Manifestiert haben sich diese Preissprünge 2013 und insbesondere 2014. Und natürlich blieb dies nicht ohne Folgen für die Verbraucher, die wegen ihrer ohnehin knappen Mittel ihren Konsum drosseln mussten und so für sinkendes Umsatzwachstum sorgten. Doch scheinen die finanziellen Folgen dieser Abwertung inzwischen überstanden. Zumindest sollten sich die Folgen anhaltender Währungsabwertungen mit der Zeit abschwächen. Somit dürfte der Absatz mit nahendem Ende des Zyklus von Währungsabwertungen und Preissteigerungen auch wieder nach oben tendieren. In der Tat gibt es immer mehr börsennotierte europäische Verbrauchsgüterhersteller, die direkt bestätigen, das Wachstum in den Emerging Markets sei 2015 im Vorjahresvergleich um ein Drittel gestiegen. Diese Steigerung gilt natürlich nicht pauschal für alle Länder oder Sektoren, doch wenn der aktuelle Zyklus parallel zu früheren Zyklen verläuft, dürfte das Marktvolumen der Schwellenländer weiter steigen. Anleger, die kein Ende des sich derzeit an den Emerging Markets bietenden Gemetzels sehen und davon ausgehen, dass auch die westliche Konsumgüterindustrie in diesen Sog geraten wird, dürften angesichts dieser optimistischen Botschaft überrascht sein. Die aktuellen, noch zaghaften Anzeichen einer Verbesserung des Emerging-Markets-Geschäfts von Konsumgüterunternehmen gibt Grund zur Zuversicht für 2016 und spätere Jahre. Konzept 10Konzept 10 Was ist wettbewerbsfähig, aber teuer, treibt die Preise nach unten, aber Rechnungen hoch, verändert die Welt und ist trotzdem unbedeutend? Die Antwort lautet: erneuerbare Energien – und die sind voll von Widersprüchen. Kein Wunder, dass es vielen so schwerfällt, diese scheinbar blühende Branche zu verstehen. Eine Folge dieser Verwirrung ist, dass traditionelle Versorgungsunternehmen saubere Energiequellen nicht ernst genug nehmen. Eine weitere ist, dass politische Entscheidungsträger und Anleger die Herausforderung unterschätzen, die die Ersetzung fossiler Brennstoffe in den Bemühungen um eine CO2-neutrale Welt darstellt. Diese Missverständnisse rühren daher, dass der Trend zur De-Commoditisierung am Energiemarkt, also die Entwicklung der Massenware Energie zu einem auf Basis spezifischer Merkmale differenzierbaren Produkt, nicht erkannt wurde. Entgegen der allgemeinen Wahrnehmung konkurrieren erneuerbare Energien nämlich nicht nur beim Preis mit fossilen Brennstoffen, sondern stehen auf vier ganz verschiedenen Ebenen mit ihnen im Wettbewerb. Vor diesem Hintergrund wird die aktuelle Energiedebatte weitaus verständlicher. Die momentan stattfindende Energierevolution ist in der Tat verwirrend. Die Energiewende in Deutschland beispielsweise kam schnell und mit Wucht – die Kapazitäten des Landes für Sonnen- und Windenergie überschreiten bereits jetzt die Stromnachfrage zu Spitzenzeiten und wachsen beständig weiter. Allein im letzten Jahr schnellte die erzeugte Windenergie um 50% nach oben. Die Debatte in der deutschen Politik geht inzwischen sogar soweit, Kohle als Energiequelle komplett abschaffen und vollständig auf erneuerbare Energien umschwenken zu wollen. Ziel des Klimaschutzabkommens, das vergangenes Jahr in Paris geschlossen wurde, ist indes die Schaffung einer CO2-neutralen Welt Erneuerbare Energien— Erklärungsversuch für eine unerklärliche Branche Martin Brough in der zweiten Hälfte des Jahrhunderts. Indien plant bis 2022 Solarkapazitäten von 100 Gigawatt, mehr als das Doppelte der heutigen Kapazität in Deutschland. In vielen Ländern hat die Solarenergie bereits „Netzparität“ erreicht, d.h. die Kosten liegen unter den Strompreisen für Privathaushalte. Der Anfangslagerbestand des Energiespeichersystems Tesla Powerwall war bei Markteinführung im vergangenen Jahr rasch ausverkauft. Das System könnte die Nutzung von Wind- und Sonnenenergie auf mehr Stunden pro Tag ausdehnen. Selbst der sonst so schwerfällige Transportsektor ist von sauberer Technologie angetan und immer mehr Hersteller bringen Fahrzeuge mit Stromanschluss auf den Markt. Bei näherer Betrachtung stellt man jedoch fest, dass eine Welt ohne fossile Brennstoffe noch auf sich warten lassen wird. Trotz der deutschen Energiewende stammten nur rd. 1% des gesamten Energieverbrauchs im vergangenen Jahr aus Solarproduktion, weitere gut 2% aus Windenergie. Erneuerbare Energien, mit Ausnahme der konventionellen Wasserkraft und Bioenergien, machen weniger als 3% des weltweiten Energieverbrauchs aus und ihr Anteil wächst nur um einen halben Prozentpunkt im Jahr. In den USA wurde das Ziel von Präsident Obama, bis 2015 eine Million Elektrofahrzeuge auf die Straße zu bringen, nicht einmal zur Hälfte erreicht. Und das, obwohl in den USA insgesamt 250 Millionen Autos unterwegs sind. Einige behaupten nun, dass, da saubere Energien kostentechnisch wettbewerbsfähig geworden sind, ihnen ein explosionsartiges Wachstum bevorstünde. Doch der letzte Auktionspreis für netzgekoppelte deutsche Sonnenenergie lag bei EUR 85 je Megawattstunde, verglichen mit einem Ernergiegroßhandelspreis für 2018 von EUR 23/ MWh (einschließlich der Kosten für den Kauf von CO2-Emissionsrechten). Auch in Großbritannien lagen die Preise für Solar- und Windenergie im vergangenen Jahr um ein Vielfaches über dem Großhandelspreis. Die Kosten für ein privates Energiespeichersystem in den USA betragen 30 Cent je Kilowattstunde, sogar nach Abzug der Kosten für das Laden der Batterie. Das entspricht Konzept11 dem Doppelten des üblichen Strompreises für Privathaushalte. Wie können solche ganz offensichtlich nicht wettbewerbsfähigen Technologien überleben? Wäre Energie reine Ware, wären fallende Kosten der erste Schritt zur Wettbewerbsfähigkeit, um die teuersten fossilen Brennstoffe, wie etwa Rohöl aus der Tiefsee, teure Kohle aus Inlandsproduktion oder Flüssiggas von weit entfernten Standorten, auszubooten. Für eine vollständige Verdrängung müssten auch die Preise der billigsten fossilen Brennstoffe, beispielsweise Öl aus Saudi-Arabien oder Schiefergas aus den USA, unterboten werden. Bevor es jedoch überhaupt zu einem Wettbewerb auf Grenzkostenbasis kommen kann, sind noch drei weitere Wettbewerbsfaktoren zu berücksichtigen. Da wäre zum einen das politische Thema Energie. Hier erfreuen sich erneuerbare Energien bereits großer Beliebtheit. Der zweite Faktor ist die erfolgreiche Vermarktung von sauberer Technologie als Luxusware. Drittens entsprechen die Preise in weiten Teilen des Energiesektors nicht den Grenzkosten. Dadurch können erneuerbare Energien preistechnisch wettbewerbsfähig sein, bevor sie kostentechnisch wettbewerbsfähig werden. Diese drei Bereiche, in denen Energie nicht mehr die Funktion einer Massenware hat, gewinnen an Bedeutung, und erneuerbare Energien liegen in allen drei Bereichen vorn. Die Frage ist nur: Wie weit kann diese De- Commoditisierung gehen? Werfen wir zunächst einen Blick auf die politische Wettbewerbsfähigkeit. Die Subventionen für Solar- und Windenergie lagen in Deutschland zu Beginn weit über den Produktionskosten oder Preisen für fossile Energien. Die Reduzierung von CO2-Emissionen als moralischer Imperativ und der kaum entwickelte Emissionshandel führten zu Verwerfungen im Markt für konventionelle Energiequellen. Zwar kämpften Pioniere wie Deutschland und Spanien mit hohen Kosten, aber sie trugen dazu bei, die Technologie weiterzuentwickeln und so die Kosten für alle zu senken. Der schrittweise staatliche Ankauf erneuerbarer Energien durch Auktionen, Einspeisungstarife oder andere Zuschüsse ist inzwischen so günstig wie nie. Wesentliche Zielvorgaben für erneuerbare Energien stellen weltweit auf anhaltendes Wachstum ab. Das allein genügt jedoch nicht, um eine CO2-neutrale Welt zu schaffen. Letztlich sind es die Wähler, die ausschlaggebend für die politische Wettbewerbsfähigkeit sind. Erneuerbare Energien haben aufgrund der geringen Emissionswerte, der wahrgenommenen Sicherheit im Vergleich zu Gas aus Russland und Öl aus Nahost, der Schaffung einheimischer Arbeitsplätze und der Aussicht auf langfristige Wettbewerbsfähigkeit besonders bei Wechselwählern großen Anklang gefunden. Die Begeisterung, weiterhin für die Abschaffung fossiler Brennstoffe zu zahlen, könnte jedoch allmählich nachlassen. Die britische Regierung beispielsweise hat die Subventionen für zusätzliche erneuerbare Energien im vergangenen Jahr gekürzt und die Förderung neuer Windkraftanlagen auf dem Festland eingestellt. Selbst in Deutschland impliziert die Zielvorgabe für 2025 von 40%-45% für erneuerbare Energien eine reduzierte Ausbaugeschwindigkeit bei neuen Anlagen. Politiker sind weniger am Wachstum erneuerbarer Energien interessiert, wenn dafür an fossile Brennstoffe gekoppelte Arbeitsplätze im Inland gestrichen werden müssen, die einheimische Industrie an Wettbewerbsfähigkeit einbüßt oder die Stromrechnungen für den Endverbraucher nach oben getrieben werden. Zum Glück haben erneuerbare Energien und saubere Technologien bereits die nächste Wettbewerbsphase erreicht: die Etablierung als Luxusgut. Autos von Tesla sind einfach cool. Ebenso die Batterien und Solarpaneele, Thermostate von Nest, per App steuerbare Anwendungen und LED-Beleuchtung. Konzept 12Konzept 12 Elektrofahrzeuge und saubere Technologien werden den Verbrauchern nicht als billige Massenware angeboten, sondern als einzigartige Produkte mit hohem Mehrwert. Vielleicht wird die De-Commoditisierung von Energie, wie bei Spezialbieren, noch eine Weile auf sich warten lassen. Der Prozentsatz des als Luxusware verkauften Stroms mag zwar nicht groß sein, der prozentuale Mehrwert für den Energiesektor, der aus diesem Segment stammt, könnte letztlich jedoch enorm sein. Inzwischen haben auch Konzerne am Massenmarkt, die ihren Markenwert steigern wollen, den Reiz erneuerbarer Energien erkannt. Apple, Google und Amazon zahlen bereitwillig höhere Preise für nicht-subventionierte erneuerbare Energien, um ihre Datenzentren mit Strom zu versorgen. Das ist durchaus rentabel, wenn Kunden bereitwillig höhere Preise für Telefone, Medien oder Internetdienste von Unternehmen mit einem sauberen Image zahlen. Wenn die Kosten für erneuerbare Energien aber sinken, wird die Preisdifferenz gegenüber fossilen Brennstoffen kleiner und somit sinkt auch der gesteigerte Markenwert. Paradoxerweise könnten staatliche Förderungen und Regulierungen daher die Nachfrage nach erneuerbaren Energien als Luxusware sogar schädigen. Der höhere Preis für Eier aus Freilandhaltung lässt sich nur dadurch rechtfertigen, dass andere Eier unter unethischen Bedingungen produziert werden, und zwar legal. Würden nun die gesetzlichen Mindestanforderungen für Hühnerhaltung auf ein „zufriedenstellendes“ Niveau angehoben, könnten die Produzenten von Freilandeiern in Schieflage geraten. Ähnlich verhält es sich, wenn 40% des Stroms bereits als erneuerbar beauftragt oder subventioniert werden: Dann muss sich zusätzlicher, aus erneuerbaren Energien gewonnener Strom mit dem Stromeinzelhandel messen, der bereits den bestellten grünen Strom liefert. Abgesehen von der politischen Dimension und der Etablierung als Luxusgut gewinnen erneuerbare Energien auch preistechnisch an Wettbewerbsfähigkeit, obwohl sie aus Grenzkostensicht noch nicht konkurrenzfähig sind. In vielen Ländern kann inzwischen beispielsweise mit privaten Solaranlagen Strom zu einem durchschnittlichen Preis pro Einheit erzeugt werden, der unter dem Stromtarif liegt („Netzparität“). Insofern ist Solarenergie auch ohne Förderung wettbewerbsfähig. In den Stromtarif sind jedoch auch die Kosten für die Nutzung der Netze eingepreist, die durch Solaranlagen nicht reduziert werden. Die Gewinne im Stromnetz sinken daher stärker als die Kosten, weshalb entweder die Durchschnittspreise erhöht oder Tarife in fixe und variable Kosten aufgeteilt werden müssen (wodurch die Besitzer privater Solaranlagen trotz eigener Produktion für die Netznutzung zahlen müssten). So wie früher Telekommunikationsunternehmen und Fluggesellschaften ist auch der Energiesektor anfällig für Störungen, sobald die Grenzpreise die Grenzkosten übersteigen. Früher oder später werden Fälle von Quersubventionierung aufgedeckt werden. Mit einer auf Politik, Luxusmarkt und Preisbildung basierenden Wettbewerbsfähigkeit bleibt bezüglich des Wachstums am Markt für erneuerbare Energien noch Zeit, auch kostentechnisch wettbewerbsfähig zu werden. Das derzeitige Wachstum sollte indes nicht darüber hinwegtäuschen, dass im Hinblick auf Technologie und Kosten noch etliche Veränderungen stattfinden müssen, bis das letzte Fass Öl verdrängt werden kann. Konzept13 Genau wie alles andere unterliegt auch die Nachfrage nach Luxusobjekten zyklischen Trends. Anfang des 19. Jahrhunderts verbannten die Superreichen ihre Silberlöffel in die Schublade und speisten stattdessen lieber mit Aluminiumbesteck, da dieses damals durch das aufwändigere Veredelungsverfahren teurer und exklusiver war. In den 1960er Jahren reiste die Elite in Privatjets. Einige Jahrzehnte später standen Privatinseln hoch im Kurs. Heutzutage besitzt jeder, der etwas auf sich hält, ein eigenes Space Shuttle. Bekannte Beispiele sind Elon Musk von Tesla, Jeff Bezos von Amazon oder Richard Branson von Virgin. Nun, da die Reichen nach den Sternen greifen, ist Raumfahrt wieder schwer angesagt. Dazu hat auch die Werbemaschinerie der Nasa beigetragen, insbesondere der Medienhype im vergangenen Jahr, als die Raumsonde New Horizons am Planet Pluto vorbeiflog. Und dann kam auch noch Star Wars in die Kinos. Doch die Raumfahrt hat in den letzten Jahren nicht nur ihre Coolness zurückerlangt. Sie ist auch zum „Big Business“ avanciert. Seit 2010 ist der internationale Raumfahrtmarkt um fast 30% gewachsen und hatte im vergangenen Jahr einen Wert von USD 330 Mrd., was in etwa drei Viertel des weltweiten Smartphone- Marktes entspricht. Der Großteil dieses Geldes wird jedoch nicht von der Nasa für Forschungsreisen ausgegeben. Vielmehr macht das gesamte Raumfahrtbudget der US-Regierung gerade einmal ein Zehntel der Gesamtsumme aus. Heutzutage sind drei Viertel der Raumfahrtausgaben dem Geschäft mit kommerziellen Produkten, Dienstleistungen und Infrastruktur für die Raumfahrtindustrie zuzurechnen. Wer verdient also daran? Und wer wird künftig daran verdienen? Produktion und Vertrieb von Satelliten und Trägerraketen sind in den USA gegenwärtig in der Hand von Platzhirschen wie Lockheed Martin und Northrop Grumman. Beide Unternehmen beziehen etwa 15% ihrer Weltraumforschung— Milliardäre auf dem Boden der Tatsachen Myles Walton Einnahmen aus Aktivitäten im Raumfahrtbereich. Viele kleinere Unternehmen sind sogar noch abhängiger. Bei Aerojet und Orbital ATK beispielsweise macht das Raumfahrtsegment mehr als die Hälfte des Umsatzes aus. Diese und andere führende Akteure im Raumfahrtbereich müssen sich nun die Frage stellen, ob die neuen aufstrebenden und von Milliardären geführten Unternehmen mit ihren scheinbar unbegrenzten Mitteln bald in ihrem Geschäftsbereich voll durchstarten. Nehmen wir zum Beispiel SpaceX unter der Führung von Elon Musk. Im vergangenen Jahr erhielt das Unternehmen von der US-Air Force den Auftrag, nationale Sicherheitssatelliten ins All zu transportieren, ein Markt, der derzeit von der United Launch Alliance, einem Gemeinschaftsunternehmen von Lockheed Martin und Boeing, dominiert wird. Mit der Rakete Falcon 9 kann SpaceX für USD 90 Mio. pro Flug Hardware in die Umlaufbahn schicken. Das ist knapp die Hälfte der Kosten, die bei der Atlas V-Rakete der ULA anfallen. Und wenn erst einmal die Wiederverwendbarkeit der Rakete optimiert wurde, könnten die Kosten der Falcon sogar noch weiter sinken. SpaceX wurde von Google und Fidelity mit USD 1 Mrd. finanziert und wird derzeit mit etwa USD 15 Mrd. bewertet. Außer über die neue Konkurrenz müssen sich etablierte US-Raumfahrtunternehmen jedoch auch noch über zwei weitere Faktoren Sorgen machen. Da ist zum einen das bevorstehende Verbot für russische Raketentriebwerke, die bei militärischen Weltraumtransporten für amerikanische Trägerraketen verwendet werden. Von dieser Sanktion ist unter anderem auch die Atlas V-Rakete der ULA betroffen. Der zweite Faktor sind die Kosten und das Outsourcing bemannter Weltraumflüge. Seit dem letzten Space Shuttle- Flug im Jahr 2011 mussten die USA für die Beförderung ihrer Astronauten ins Weltall rund USD 80 Mio. pro Mann an Russland zahlen. Natürlich wäre es den Amerikanern lieber, dieses Geld innerhalb der eigenen Grenzen zu halten. Die bevorstehenden Sanktionen und steigende Outsourcing-Kosten haben bereits dazu geführt, Konzept 14 dass die neue Generation US-amerikanischer Raketenwissenschaftler vorzugsweise für kleinere und innovativere Unternehmen arbeitet. Häufig werden Parallelen zu der disruptiven Entwicklung am Markt für terrestrische Technologie gezogen, ausgelöst durch kleine Startups. Es ist jedoch unwahrscheinlich, dass es in absehbarer Zukunft auch im Raumfahrtmarkt zu einem vergleichbaren Bruch kommen wird. Der Grund dafür ist, dass der Kostenfaktor zwar wichtig ist, die meisten militärischen Kunden aber noch größeren Wert auf Verlässlichkeit legen. Die Fracht kann unter Umständen weit über USD 1 Mrd. wert sein und empfindliche Hard- und Software beinhalten. In den letzten zehn Jahren kann die ULA bei ihren schweren Delta-Raketen eine Erfolgsquote von 100% vorweisen. Und auch bei den kleineren Atlas- Raketen gab es bisher nur einen Fall von Teilversagen. Im Vergleich dazu mussten viele neue Marktteilnehmer bereits Rückschläge einstecken. Mehrere der SpaceX-Raketen haben Teilausfälle erlitten, und im vergangenen Jahr explodierte eine der Raketen kurz vor Eintritt in die Umlaufbahn, nur einen Monat, nachdem das Unternehmen den Zuschlag der Air Force erhalten hatte. Zudem hat sich die Entwicklung der Falcon Heavy-Rakete von SpaceX schon jetzt um drei Jahre verzögert. Auch Orbital hatte einige Pannen zu beklagen, vor allem vor gut 18 Monaten die Explosion der Antares-Rakete wenige Sekunden nach dem Start. Welchen Wert die Anbieter auf Verlässlichkeit legen, lässt sich am Beispiel Space Launch System belegen. Ziel des mit USD 1,5 Mrd. pro Jahr von der Nasa finanzierten Programms ist die Entwicklung einer Trägerrakete, die Lasten von 130 Tonnen in den niedrigen Erdorbit befördern kann. Das entspricht dem Siebenfachen von dem, was derzeit mit der Atlas V-Rakete transportiert werden kann. Der Plan ist es, ein Raumfahrzeug zu entwickeln, das sich für den Einsatz bei Mars-Missionen in den 2030er-Jahren eignet. Da bei diesem Projekt einiges auf dem Spiel steht, ist es vermutlich nicht verwunderlich, dass man hauptsächlich auf die Erfahrung von Boeing setzt, während kleinere Anbieter wie Orbital und Aerojet nur als Subunternehmer beteiligt sind. Einen Bereich gibt es jedoch, in dem die aufstrebenden Raumfahrtunternehmen keine Konkurrenz von den Schwergewichten der gewerblichen Raumfahrt fürchten müssen: den Weltraumtourismus. In diesem Jahr werden voraussichtlich sowohl Virgin Galactic als auch XCOR zahlende Kunden an den Rand des Weltalls befördern. Beide Unternehmen verzeichnen einen enormen Kundenansturm – ein Ticket bei Virgin kostet USD 200.000, die Warteliste der „künftigen Astronauten“ umfasst 700 Kunden. Bei XCOR haben 300 Personen den sechzigminütigen Flug für einen Ticketpreis von USD 100.000 gebucht. Und anders als Kunden in der gewerblichen und militärischen Raumfahrt scheinen sich die Weltraumtouristen keine Gedanken über Hardware-Probleme zu machen. 2014 kam beim Absturz einer Virgin- Raumfähre ein Besatzungsmitglied ums Leben. Dennoch forderten lediglich 20 Kunden eine Rückerstattung. Es dürfte nur eine Frage der Zeit sein, bis die Kosten sinken und der Markt wächst. Schon im vergangenen Jahr verkündete das Unternehmen Blue Origin von Jeff Bezos den erfolgreichen Testflug einer Rakete mit den „größten Fenstern, die jemals den Weltraum bereist haben.“ Zwar wird der Tourismus in absehbarer Zukunft voraussichtlich nur einen kleinen Teil des gesamten Raumfahrtmarktes ausmachen, die damit verbundene Expertise dürfte jedoch neue Wachstumsmöglichkeiten im Bereich der kommerziellen und der bemannten Raumfahrt eröffnen. Das sind gute Aussichten für die großen Raumfahrtunternehmen von heute, die sowohl die nötige Erfahrung mit Kunden als auch die Mittel haben, kleinere Wettbewerber und damit deren Technologien zu kaufen, die das eigene Portfolio ergänzen können. Während das Weltall also wieder einmal die Fantasie der Massen beflügelt und neue Unternehmen im Rennen um finanzielle, wissenschaftliche oder gesellschaftliche Anerkennung in den Startlöchern stehen, werden vermutlich auch in Zukunft die Branchengrößen, die in den konventionelleren Bereichen des Raumfahrtsektors tätig sind, die Gewinner sein – unter ihren Mitarbeiter einer neuen Generation von Träumern, die wie die Milliardäre von heute nach den Sternen greifen wollen. Konzept15 Diabetes in China – Die 100 Millionen Patienten-Krise Jack Hu In Gesprächen über die Länder mit den höchsten Fettleibigkeitsraten kommen einem meist zuerst die USA in den Sinn. Doch obwohl ein Drittel der Bevölkerung dort einen Body- Mass-Index von über 30 hat, schaffen es die USA im internationalen Vergleich kaum unter die Top 20. An der Spitze stehen Pazifikinseln wie Amerikanisch-Samoa und Nauru, wo fast drei Viertel der 65.000 Einwohner übergewichtig sind. Unter den 1,4 Mrd. Chinesen ist ein solches Niveau glücklicherweise noch nicht erreicht. Doch im letzten Vierteljahrhundert hat sich in China der Anteil der übergewichtigen Menschen an der Bevölkerung fast verdoppelt und liegt inzwischen gleichauf mit den USA. Diese rasche Verbreitung der Fettleibigkeit in China gibt zu denken, zumal mit den zusätzlichen Pfunden auch die Zahl der Diabeteserkrankungen sprunghaft gestiegen ist. Konzept 16 Zusätzlich begünstigt wird die Verbreitung von Diabetes durch andere Faktoren, die speziell für China gelten. Da wäre zunächst einmal die Ernährung. Ein Chinese isst im Durchschnitt drei bis vier Portionen Reis am Tag, ein Amerikaner dagegen eine oder zwei. Durch diese hohe Zufuhr von Kohlenhydraten können sich die damit verbundenen Risikofaktoren noch verstärken. So ergab eine chinesische Studie, dass Frauen, die beim Reis-Verzehr zum höchsten Quintil gehören, ein um 75% höheres Risiko haben, an Typ-2-Diabetes (der stärker verbreiteten Form der Krankheit) zu erkranken, als Frauen im niedrigsten Quintil. Ein weiterer Faktor, der zu einem Anstieg der Diabeteserkrankungen geführt hat, ist die Veränderung der Arbeitsbedingungen in China. Durch die Verlagerung weg von der Feldarbeit hin zur Produktion und schließlich zum Dienstleistungsgewerbe sind die Menschen körperlich weniger aktiv. Seit 1991 ist die Zahl der Minuten, in denen sich ein Mann pro Tag physisch betätigt, um 30% zurückgegangen. Bei den Frauen sind es sogar 40%. Diese Faktoren sind mit dafür verantwortlich, dass sich die Verbreitung von Diabetes in China seit Beginn des Jahrtausends auf 9% verdreifacht hat. Das entspricht in etwa der weltweiten Rate, die sich im selben Zeitraum auf 8% verdoppelt hat. Schätzungen zufolge gibt es in China mittlerweile 100 Mio. Diabetespatienten und damit viermal so viele wie in den USA. Von den weltweit Betroffenen lebt also ein Viertel in China. Und in Zukunft wird sich dieses Problem wohl noch verschlimmern, droht doch – hauptsächlich als Folge der inzwischen abgeschafften Ein-Kind-Politik – eine Überalterung der Gesellschaft. Heutzutage ist ein Zehntel der chinesischen Bevölkerung 65 Jahre alt oder älter. Bis 2050 werden ein Viertel der Chinesen dieser Altersgruppe angehören – und mit steigendem Lebensalter nimmt auch die Zahl der Diabetesfälle zu. Leider bleiben fast zwei Drittel der Diabeteserkrankungen in China unentdeckt, und weniger als ein Fünftel der Betroffenen erhält die entsprechende Behandlung. Tatsächlich entfallen trotz der hohen Zahl an Erkrankten weniger als 10% der weltweiten Ausgaben für Diabetesbehandlungen auf China. Es gibt jedoch Grund zur Hoffnung für Erkrankte, die bisher nicht die nötige medizinische Versorgung erhalten. Um das Ziel zu erreichen, bis 2020 ein grundlegendes, flächendeckendes Gesundheitssystem aufzubauen, wird China dieses Jahr mit der Neufassung seiner Liste unentbehrlicher Arzneimittel, der „Essential Drug List“ (EDL), und der Liste der erstattungsfähigen Medikamente, der „National Reimbursement Drug List“ (NRDL), beginnen. Dies dürfte sich positiv auf die Anzahl der Diabetesbehandlungen auswirken. Und was bedeutet das für Pharmaunternehmen? Großen amerikanischen und europäischen Konzernen eröffnet die Kombination aus einem wachsenden Markt und staatlicher Förderung enorme Möglichkeiten. Die Ausgaben für Diabetesmedikamente beliefen sich 2014 auf 27 Mrd. Renminbi. Seit 2012, als die EDL und die NRDL zuletzt überarbeitet wurden, sind diese Ausgaben jährlich um 15% gestiegen. Damit wuchs dieses Segment um ein Achtel schneller als der chinesische Gesamtmarkt für Medikamente. Und es ist sogar noch Luft nach oben. Wenn die Diagnoserate auf 85% steigt und es in 80% der diagnostizierten Fälle zu einer Behandlung kommt, dann könnte sich das Marktvolumen für einschlägige Medikamente im Vergleich zu heute verfünffachen. Bisher profitieren die Pharmaunternehmen von diesen Entwicklungen. Um den chinesischen Markt für Diabetesmedikamente buhlen nur vier internationale und drei einheimische Wettbewerber signifikanter Größenordnung. Dadurch ist der Preis für Insulin, ein wichtiges Konzept17 Medikament in der Diabetesbehandlung, relativ stabil geblieben, während es in anderen pharmazeutischen Bereichen mit einer größeren Zahl konkurrierender Anbieter zu regelrechten Preiskämpfen gekommen ist. Insbesondere multinationale Pharmakonzerne haben goldene Zeiten erlebt. Schon heute teilen Novo Nordisk, Sanofi-Aventis und Eli Lilly etwa 85% des Insulinmarktes für Krankenhäuser unter sich auf. Interviews mit Ärzten haben ergeben, dass Krankenhäuser der Grundversorgungsstufe grundsätzlich eher Insulin von multinationalen Pharmaunternehmen verwenden, weil sie der Ansicht sind, es sei von besserer Qualität als in China produzierte Präparate. Es gibt kaum aussagekräftige Vergleichsstudien, die diese Tendenz belegen. Was die Ärzte jedoch zu ihrer Ablehnung von Insulin aus heimischer Produktion bewegen könnte, ist die Tatsache, dass Kresol in medizinischer Qualität, ein wichtiger Bestandteil von Insulin, in China nicht verfügbar ist. Chinesische Hersteller verwenden daher Kresol in Industriequalität. Zudem beklagen sie, dass langwierige Zulassungsverfahren sie von Verbesserungen ihrer Produktionsprozesse abschrecken. Zulassungsbehörden in den USA und Europa arbeiten hierbei meist effizienter. Doch die einheimischen Unternehmen holen langsam auf. Im Zeitraum von drei Jahren bis Ende des ersten Halbjahrs 2015 haben chinesische Hersteller ihren Anteil am weiter gefassten Insulinmarkt auf fast zwei Fünftel verdoppelt. Davon entfielen 19% auf den einheimischen Marktführer Tonghua Dongbao. Dies steht im Gegensatz zum Rest des Medikamentenmarktes, an dem einheimische Unternehmen über denselben Zeitraum einen marktbeherrschenden Anteil von 75% hatten. Zudem haben chinesische Unternehmen Zulassungsanträge für 25 neue Hemmstoffe eingereicht. Diese relativ neuen Wirkstoffe machen in den USA derzeit etwa 20% des Marktes aus. Da sie jedoch nicht in der NRDL von 2012 enthalten sind, haben sie am chinesischen Markt gerade einmal einen Anteil von 1%. Neuere Varianten dieser Medikamente sollen jedoch bei der diesjährigen Überprüfung berücksichtigt werden, und die Aussichten auf eine Aufnahme in die Liste sind gut. Stehen die Wirkstoffe erst einmal auf der Liste, würde sich auch ein neuer Markt für diese einheimischen Präparate eröffnen. Die neueste Innovation der chinesischen Unternehmen kommt in Form von „Insulinanaloga“, genetisch veränderten Varianten des Insulins, durch die die Wirkung einer natürlichen Insulinfreisetzung besser nachgeahmt werden kann als durch synthetisches Insulin. Zwar haben amerikanische und europäische Konzerne in diesem Forschungszweig derzeit die Oberhand, chinesische Unternehmen haben jedoch in den letzten zehn Jahren ihre Forschungsausgaben drastisch erhöht und bereits die Zulassung für 26 derartige Wirkstoffe beantragt. Als nächstes müssen sie die wichtigen Ärzte und Krankenhäuser davon überzeugen, dass ihre Produkte mit denen der großen internationalen Pharmakonzerne durchaus mithalten können. Wenn ihnen das gelingt, könnte es zu einem Preiskampf kommen, von dem am Ende wohl die einheimischen Hersteller profitieren werden. Wie bei vielen anderen Chancen, die sich ausländischen Unternehmen am chinesischen Markt eröffnen, könnte sich anfänglicher Überschwang angesichts eines gigantischen Marktes in der harten Realität bald wieder legen. Konzept 18 Eine Deflation mag momentan durchaus eine Gefahr für die Weltwirtschaft sein. Doch selbst diejenigen, die hier wirklich eine sehr ernstzunehmende Bedrohung sehen, müssen zugeben, dass solche Deflationsprognosen nicht mehr als reine Spekulation sind. Mit der Vorhersage der Inflationsentwicklung haben sich alle wirtschaftswissenschaftlichen Modelle in den letzten Jahren eher schwer getan. Selbst Janet Yellen bezeichnete die Prognosefähigkeit der Federal Reserve in puncto Inflation bei ihrer Pressekonferenz nach der Zinserhöhung im Dezember 2015 als „relativ bescheiden“. Rineesh Bansal Inflation: Totgesagte leben länger? Konzept19 Im Klartext: Von der Preisentwicklung verstehen wir auch nicht mehr als von all den Vorgängen im menschlichen Gehirn. Es ist schlichtweg arrogant, davon auszugehen, dass die Welt auf eine Deflation zusteuert. Und es ist gleichfalls nicht besonders klug, den Blick für Inflationsgefahren zu verlieren. Da eine mögliche Deflation Anleger momentan mehr umtreibt als Inflationsängste, zielt dieser Artikel wie auch diese Ausgabe von Konzept insgesamt darauf ab, ein Bewusstsein dafür zu schaffen, dass man das Thema Inflation durchaus im Auge behalten sollte. Das mutet seltsam an, wenn man bedenkt, dass es eben die Inflation war, die in den Jahren nach der Finanzkrise konstant die Prognosen der Volkswirte übertraf. Der stetige Preisauftrieb trotz hoher Arbeitslosigkeit veranlasste den IWF dazu, in Bezug auf eine Deflation das Bild von einem Hund, der nicht bellt, zu gebrauchen. 1 Wenn es aber selbst in den meisten entwickelten Volkswirtschaften auch in Zeiten zweistelliger Arbeitslosenquoten nicht zu einer Deflation kam, ist es schwer vorstellbar, wie es jetzt dazu kommen sollte, nachdem bereits einige Jahre der konjunkturellen Erholung hinter uns liegen. Vor diesem Hintergrund sind die immer lauter werdenden Rufe nach Maßnahmen zur Abwendung einer drohenden Deflation nicht nachvollziehbar. Nicht weniger wahrscheinlich ist es, dass sich die Welt in den nächsten Jahren statt mit zu niedriger mit zu hoher Inflation konfrontiert sehen wird. Warum dies so ist, werde ich weiter unten noch näher ausführen. Ein erstes Argument gegen die Deflationsthese ist, dass diese bizarrerweise in den letzten zwölf Monaten verstärkten Zulauf bekommen hat, also selbst als sich die Inflation allmählich wieder ihrem Normalzustand annäherte. Ende 2015 betrug die jährliche Teuerungsrate der Verbraucherpreise ohne die schwankungsanfälligeren Preise für Nahrungsmittel und Energie in den G7-Ländern gut 1,5%. Damit hat die Inflation den höchsten Stand seit drei Jahren erreicht und ist gegenüber dem Vorjahr nochmals gestiegen (2014: 1,1%). Auch wenn die Inflation für manche Beobachter damit immer noch zu niedrig ist, kann von einer Deflation keine Rede sein. Auf dem aktuellen Niveau ist die Inflation zudem höher als im Durchschnitt seit der Jahrtausendwende und höher als in den sieben Jahren vor Ausbruch der Finanzkrise. Ein ähnliches Bild zeigt sich bei der Kerninflation in Schwellenländern, die im vergangenen Jahr über 5% betrug und damit den höchsten Stand seit vier Jahren erreicht hat und ebenfalls über dem Durchschnitt seit der Jahrtausendwende liegt. Die Datenlage lässt die allgegenwärtige Angst vor einer Deflation irrational erscheinen. Auch die Normalisierung der Kerninflation in entwickelten Volkswirtschaften ist keineswegs überraschend. Die amerikanische Volkswirtschaft, in der der Kern-Verbraucherpreisindex nur knapp über der Marke von 2% liegt, verzeichnete beispielsweise im vergangenen Dezember den 63. Monat in Folge Beschäftigungszuwächse. Seit dem Beginn des Zweiten Weltkrieges oder vielleicht sogar noch länger hat es keinen so anhaltenden Aufwärtstrend am Arbeitsmarkt mehr gegeben. Mit 13 Millionen während des aktuellen Aufschwungs neu geschaffenen Konzept 20 Stellen ist die Arbeitslosenquote auf 5% gesunken und bewegt sich damit bereits auf einem Niveau, bei dem die Fed von Vollbeschäftigung spricht. Die US-Notenbank und das Congressional Budget Office gehen sogar davon aus, dass die Arbeitslosigkeit bis zum Jahresende noch weiter auf 4,5-4,7% sinken wird. Als die Arbeitslosigkeit zuletzt 1999 einen ähnlich niedrigen Stand erreicht hatte, hatte die Fed erklärt, es bestünde nur noch eine „Sockelarbeitslosigkeit“. Obwohl am Arbeitsmarkt fast Vollbeschäftigung herrscht, verweisen die Vertreter der Deflationsthese darauf, dass es keinerlei Anzeichen für Lohndruck als Symptom dafür gibt, dass der Spielraum inflationsfreien Beschäftigungswachstums fast ausgereizt ist, und damit auch nicht für eine künftig niedrige Inflation. Aber diese Argumentation ist alles andere als überzeugend. Für den volkswirtschaftlich nicht vorgebildeten Leser sei hier angemerkt, dass es in den Daten zweiter Ordnung bereits erste Anzeichen für Lohndruck gibt. 2 Bei einer Umfrage unter Kleinunternehmen in den USA im Dezember antwortete unter dem Strich ein Fünftel der Befragten, dass man Gehaltserhöhungen andenke. Das ist der höchste Prozentsatz seit 2006. Diese Zeitreihe hat eine Korrelation von 0,75 mit dem durchschnittlichen Stundenlohn in einem Jahr, und diese historische Korrelation deutet auf Lohnzuwächse von 3,5% bis zum Jahresende hin. Hinzu kommt, dass zwischen dem Spielraum für inflationsfreies Beschäftigungswachstum am Arbeitsmarkt und dem Lohndruck möglicherweise ein nicht-linearer Zusammenhang besteht. Anders ausgedrückt: Lohninflation bleibt aus, bis der Rückgang der Arbeitslosigkeit einen bestimmten Schwellenwert erreicht hat. Danach steigt sie sprunghaft an. Wenn man abwartet, bis dieser Punkt erreicht ist, kann es schon zu spät sein, zumal es keine wissenschaftlichen Belege dafür gibt, dass die Lohnentwicklung ein Frühindikator für die Inflationsentwicklung allgemein ist. Löhne und Preise entwickeln sich allenfalls parallel, und wenn überhaupt, ist die Inflation noch ein etwas besserer Prädiktor für die Lohnentwicklung als umgekehrt. Fazit: Eine Inflation kann sich plötzlich einstellen, ganz unabhängig vom Trend in der Lohnentwicklung. Dabei sollte nicht das entscheidende Verbindungsglied zwischen Lohn- und Inflationsentwicklung vergessen werden: die Produktivität. Die Arbeitsproduktivität pro Stunde ist in der US-Volkswirtschaft in den letzten fünf Jahren jährlich um 0,5% gestiegen. Vor der Krise betrugen die Produktivitätszuwächse fast das Fünffache. Auch wenn die Löhne also weniger stark steigen, ergibt sich auf Basis der Lohnstückkosten als Messgröße für die produktivitätsbereinigten Lohnkosten eine Steigerung von knapp 2,5%. Damit liegt die Lohnentwicklung genau im langfristigen Mittel der 25 Jahre vor der Finanzkrise 2008 und in etwa im Bereich der 2% Inflation, welche die Zentralbank anstrebt. Dessen ungeachtet fordern manche Stimmen eine weitere Lockerung der Geldpolitik. Sie argumentieren entweder, die Produktivitätszuwächse seien höher als in den Zahlen zum Ausdruck komme, oder es werde mit der Zeit noch zu Produktivitätssteigerungen kommen, was höhere inflationsfreie Lohnzuwächse erlaube. 21 Inflation: Totgesagte leben länger? Leider lassen sich beide Hypothesen ex ante kaum schlüssig überprüfen oder widerlegen. Die erste Hypothese, die u.a. von Larry Summers vertreten wird, geht dahin, dass die Wirtschaftsdaten insofern grundsätzlich fehlerhaft sind, als die Positiveffekte neuer Technologien statistisch nicht schnell genug erfasst werden können und die Produktivitätssteigerungen daher geringer ausfallen, als sie eigentlich sind. Wenn diese Zahlen schließlich nach oben korrigiert werden, wird deutlich, dass die tatsächliche Entwicklung bei den Lohnstückkosten durchaus höhere Lohnsteigerungen rechtfertigt. Dies steht in klarem Widerspruch zu den umfangreichen Arbeiten von Robert Gordon und anderen, die Produktivitätssteigerungen durch die wachsende Verbreitung der neuesten Innovationen im Bereich Informationstechnologie sehr skeptisch sehen. Silicon-Valley-Unternehmer Peter Thiel bringt diese Sicht der Dinge vielleicht am besten auf den Punkt mit seiner Aussage „Man hat uns fliegende Autos versprochen, aber bis jetzt haben wir gerade mal 140 Zeichen bekommen“. Und wie ist die zweite Hypothese zu beurteilen, die aktuelle Verlangsamung des Produktivitätswachstums sei nur eine vorübergehende Delle? Eine solche Prognose sollte kritisch hinterfragt werden, vor allem weil es keine überzeugenden Erklärungen dafür gibt, warum die Produktivitätsentwicklung momentan an Dynamik verliert, sich nach dieser Phase dann aber wieder beschleunigen soll. Die Risiken, darauf zu vertrauen und damit falsch zu liegen, dürften dem aktuellen Offenmarktausschuss (FOMC) der Fed jedoch hinlänglich bekannt sein. James Bullard, derzeit Vorsitzender der Federal Reserve Bank of St. Louis und stimmberechtigtes FOMC-Mitglied, war vor zehn Jahren Co-Autor einer wissenschaftlichen Arbeit, in der die Fehleinschätzung der Fed in Bezug auf die rückläufige Produktivitätsentwicklung für die starke Inflation in den 70er Jahren verantwortlich gemacht wurde. 3 Ein weiteres Argument dafür, Inflationsrisiken nicht allzu großes Gewicht beizumessen, lautet, man müsse höhere Lohnzuwächse in Kauf nehmen, damit der Anteil des Produktionsfaktors Arbeit an der Wirtschaftsleistung (Lohnquote) steigt. In den ersten zehn Jahren dieses Jahrtausends ist der Anteil der Arbeitsentgelte am nominalen BIP drastisch von ca. 64 auf 56% gesunken. Versuche, diesen Trend mit einer Lockerung der Geldpolitik wieder umzukehren, stützen sich auf die mathematische Beziehung, dass sich Steigerungen bei den Lohnstückkosten entweder in der Gesamtinflation (gemessen anhand des BIP-Deflators) niederschlagen oder sie den Anteil des Produktionsfaktors Arbeit an der Wirtschaftsleistung steigen lassen. 4 Es ist aber keineswegs sicher, dass die Arbeitnehmer letztlich wirklich mehr Geld in der Tasche haben und diese Lohnzuwächse nicht stattdessen durch höhere Inflation aufgezehrt werden, wenn man für einen längeren Zeitraum höhere Lohnsteigerungen toleriert. Der Rückgang des Anteils der Arbeitseinkommen an der Wirtschaftsleistung in den letzten Jahrzehnten ist ein in allen Industrieländern zu beobachtendes Phänomen und aller Konzept 22 Wahrscheinlichkeit nach durch langfristige und noch relativ unklare strukturelle Faktoren bedingt. Eine expansive Geldpolitik ist aber wohl kaum der richtige Weg zur Lösung dieses Problems. Doch nicht nur die Geldpolitik wird in die Pflicht genommen. Vor dem Hintergrund zunehmend lauterer Rufe nach staatlichen Konjunkturpaketen scheint nun auch die Haushaltspolitik in einer Reihe von entwickelten Ländern einen expansiven Kurs zu steuern. 5 So soll beispielsweise das Budgetdefizit in den USA, das in den sechs Jahren seit 2009 kontinuierlich gesunken ist und im vergangenen Jahr nur noch 2,5% der Wirtschaftsleistung betrug, in den kommenden zehn Jahren fast jährlich wieder steigen, so die Prognosen. Dieses Gemisch aus lockerer Geldpolitik und expansiver Fiskalpolitik ist hochexplosiv. Wie Ben Bernanke kürzlich in einem Interview gesagt hat: „Eine Kombination von Steuersenkungen und geldpolitischer Lockerung ist fast dasselbe wie Helikoptergeld.“ Ben Bernanke ist sich außerdem der mit einem solchen Kurs verbundenen Inflationsrisiken wohl bewusst. Im Jahr 2003 hatte er erklärt: „Die meisten Volkswirte dürften darin übereinstimmen, dass die Hauptursache der Great Inflation die zu expansive Geld- und Haushaltspolitik war, die Mitte der 60er Jahre begann und sich dann in Schüben bis weit in die 70er Jahre fortsetzte.“„ “Die Ölschocks kamen der Politik damals sehr gelegen, von ihren eigenen Unzulänglichkeiten abzulenken. Doch die Inflation war in den USA bereits ein Jahr bevor der erste Ölschock die Wirtschaft 1974 traf von 3 auf 8% geklettert. Der Ölschock ließ sie lediglich weiter auf 12% steigen. Die aktuellen Deflationsängste sind auch durch eine Verschlechterung der internationalen Bedingungen genährt worden. Doch die Ängste vor einer globalen Deflation, gegen den die nationale Politik machtlos ist, sind völlig überzogen. Die Korrelation der Kerninflation in 50 Ländern in den vergangenen 15 Jahren liegt bei weniger als 10%. Das ist der niedrigste Wert seit 40 Jahren. 6 Martin Feldstein dazu: „Die Inflationsentwicklung in einem Land ist Spiegelbild ihrer Geldpolitik.“ Doch manche Anleger lässt die Angst vor importierter Deflation infolge eines abwertenden Renminbi nicht los. Auch hier sollte man die Dinge nüchtern betrachten. Zunächst einmal hatte die 40%ige Aufwertung des Renminbi gegenüber dem US-Dollar in den acht Jahren seit 2005 kaum einen nennenswerten inflationstreibenden Effekt in den USA. Berücksichtigt man dabei noch die erheblichen Lohnsteigerungen in China in diesem Zeitraum, ergibt sich noch eine wesentlich höhere reale Aufwertung. Darüber hinaus ist es aufgrund der politischen Intransparenz in China nach wie vor schwierig, Prognosen zur Entwicklung des Renminbi anzustellen. Eine starke Abwertung als Schlussfolgerung ist keineswegs vorherbestimmt. Doch selbst bei einer geordneten und schrittweisen Abwertung der chinesischen Währung wird der davon ausgehende Positiveffekt auf die schwächelnde Konjunktur des Landes einige der Negativeffekte, auf die Anleger fixiert sind, wettmachen. 23 Inflation: Totgesagte leben länger? Was die negativen Auswirkungen auf die US-Inflation anbelangt, zeigen Simulationen mit den makroökonomischen Standardmodellen der Fed, dass die US-Kerninflation nach einer 10%igen Veränderung des Dollar/Renminbi-Wechselkurses nach einem Jahr um 0,1 Prozentpunkte gesunken ist. Selbst wenn andere asiatische Schwellenländer nachziehen und ebenfalls abwerten, kommt es lediglich zu einer Verdoppelung des Inflationseffekts auf 0,2 Prozentpunkte. Die von China ausgehenden Deflationsrisiken sind durchaus real, es besteht aber andererseits auch das Risiko, deren Auswirkungen zu überschätzen und so falsche politische Entscheidungen zu treffen. Die Anhänger der Deflationsthese sehen sich auch durch den Kursrutsch an den Rohstoffmärkten bestätigt, ist doch insbesondere der Ölpreis im vergangenen Jahr um 50% abgesackt. Doch diese Einbrüche sind bereits Vergangenheit, entscheidend ist die Prognose für die kommenden zwölf Monate. Trotz einer ganzen Reihe von Senkungen in letzter Zeit liegt der Median der Prognosen von Wall-Street-Analysten bei einem Durchschnittspreis von USD 47 für das Jahr 2016. Auch die Weltbank und der IWF gehen für dieses Jahr von einem Anstieg des Ölpreises aus. Auch prominente Vertreter wie der Chef von BP und der Ölminister der Vereinigten Arabischen Emirate haben sich öffentlich zu der Erwartung einer Preiserholung in der zweiten Jahreshälfte 2016 geäußert. Doch unabhängig davon, ob diese Prognosen tragfähig oder Zweckoptimismus sind, ist eine Rückkehr zu einem Ölpreisniveau von USD 45-50 binnen Jahresfrist kaum ein utopisches Szenario. Bis vor ein paar Monaten war das noch Realität. Und die Fundamentaldaten für den Ölmarkt entwickeln sich in die richtige Richtung. Die US-Schieferölproduktion ist mittlerweile rückläufig und wird bis zum Jahresende etwa 25% unter dem Höchststand von 5,5 Mio. Barrel pro Tag Mitte 2015 liegen. Ein stetiger Angebotsrückgang in den USA könnte den Weg für Produktionskürzungen auch bei der OPEC ebnen. Analysten der Deutschen Bank sehen für dieses Jahr einen Angebotsüberhang von 600.000 Barrel pro Tag, der sich damit gegenüber dem Vorjahr halbiert haben und im kommenden Jahr auf nurmehr 160.000 Barrel pro Tag sinken wird. Wie bei den von China ausgehenden Risiken bereits angesprochen, gilt auch hier: Selbst wenn weitere deflationäre Impulse von den Rohstoffmärkten nicht auszuschließen sind, scheinen potenzielle Inflationsrisiken bereits gänzlich aus dem kollektiven Bewusstsein verschwunden zu sein. Mit USD 47 wird der Ölpreis in einem Jahr um 50% über dem Niveau im Januar dieses Jahres liegen. Wenn sich der aktuelle Trend einer kontinuierlich steigenden Kerninflation in den USA weiter fortsetzt, könnte der aus der Kombination dieser beiden Faktoren resultierende Preisauftrieb die Inflation in eine für Verbraucher und Marktteilnehmer gleichermaßen schockierende Höhe treiben. Ein solcher Schock könnte schwerwiegende Auswirkungen auf die allgemeinen Inflationserwartungen haben, wenn Olivier Blanchard mit seiner kürzlich formulierten Hypothese richtig liegt, dass die Inflationserwartungen nur deshalb relativ stabil sind, Konzept 24 weil das Thema Inflation in den Hintergrund gerückt ist. Rückt dieses Thema wieder verstärkt in den Mittelpunkt, könnten sich diese Erwartungen als weniger stabil erweisen als allgemein angenommen. Ich möchte diesen Aspekt gerne noch etwas vertiefen. Politiker betonen immer wieder die Verankerung der langfristigen Inflationserwartungen in der letzten Zeit und führen diese Entwicklung häufig auf die Glaubwürdigkeit der Inflationszielpolitik der Zentralbanken zurück. Diese Interpretation ist jedoch zu schmeichelhaft. In einer Arbeit von Carola Binder 7 in Harvard wird darauf hingewiesen, dass kaum ein Viertel der befragten Amerikaner bei vier möglichen Antworten den richtigen Namen des Fed-Chefs nennen kann. Auf die Frage, wie hoch ihrer Einschätzung nach aktuell die Inflation ist, wurde im Durchschnitt ein Wert von über 7% genannt, von einer halbwegs realistischen Prognose zur künftigen Inflationsentwicklung ganz zu schweigen. Meinungsumfragen unter Verbrauchern zum Thema Inflation zeigen zudem sehr hohe Divergenzen unter den Teilnehmern. Ein Drittel erwartet Inflationsraten von über 5% in einem Jahr. Doch während in der breiten Öffentlichkeit die Inflationserwartungen zu weit auseinander liegen, liegen die Expertenprognosen zu dicht beieinander. In der Blue Chip-Umfrage unter einflussreichen Volkswirten zu ihren Inflationserwartungen für die USA und einen Zeithorizont von sechs bis elf Jahren liegt die Differenz zwischen den zehn höchsten und den zehn niedrigsten Antworten deutlich unter 1% seit 2000. 8 Die Orientierung am Konsens scheint dazu zu führen, dass Experten bei veränderten Rahmenbedingungen für die Inflationsentwicklung nur langsam reagieren. Ein Beispiel: Als die Inflation in Japan in den 90er Jahren abrupt sank, lag die Konsensschätzung für die Inflationsrate in zwei Jahren für neun Jahre in Folge durchschnittlich fast einen Prozentpunkt über dem tatsächlichen Wert. 9 Selbst die Fed-Ökonomen sahen bei der Sitzung des Offenmarktausschusses im Juni 2003 eine Wahrscheinlichkeit von 40% für eine Deflation in den Jahren 2004 und 2005. Tatsächlich gab es jedoch in beiden Jahren 3% Inflation. Marktbasierte Messgrößen für die Inflationserwartungen sind auch nicht besser. Von der Fed inzwischen als Messgrößen für einen Inflationsausgleich (auch bekannt als Breakeven-Inflation) herangezogen, weisen sie schwere Mängel auf. Die Marktpreise für festverzinsliche Wertpapiere, aus denen diese Erwartungen abgeleitet werden, unterliegen kurzfristigen Störungen wie Liquiditäts- und Risikoaversion. Und als zuverlässige Indikatoren für die Entwicklung der Inflationserwartungen über einen sehr langen Zeitraum, also einen Zeithorizont von fünf bis zehn Jahren, korrelieren diese Messgrößen zu stark mit der kurzfristigen Entwicklung der Ölpreise. So ist z.B. ein Drittel der Veränderung der 5 Year / 5 Year Forward Breakeven Inflation über einen Zeitraum von drei Monaten durch die Veränderung des Ölpreises in demselben Zeitraum bedingt. Immer wieder wird auch die Ansicht vertreten, dass selbst ein Anstieg der Inflation auf ein relativ hohes Niveau keine dramatischen Auswirkungen hätte. Die Zentralbanken, so die Argumentation, wüssten 25 Inflation: Totgesagte leben länger? schon, wie hohe Inflation in den Griff zu bekommen sei. Auch dies ist Wunschdenken. Am überraschendsten ist in Bezug auf die Inflationsentwicklung seit Beginn der Finanzkrise die Trägheit der Inflationsrate auch bei extremen Veränderungen der Arbeitslosenquote. Jüngsten Schätzungen der Phillips-Kurve in einem IWF-Papier zufolge ist die Kurve heute ein Drittel flacher als in den 70er Jahren. 10 Eine solche flachere Kurve, die durch stabile Inflation trotz geringer und weiter fallender Arbeitslosigkeit gekennzeichnet ist, könnte dazu verleiten, weiter eine expansive Politik zu betreiben und die Arbeitslosigkeit noch weiter zu senken. Dieser Versuchung sollte die Politik jedoch widerstehen. Die flachere Phillips-Kurve hat nämlich auch eine Kehrseite: Kommt es zu einem Inflationsanstieg, ist der gesamtwirtschaftliche Preis für eine Rückführung der Inflation mit massiven Beschäftigungsverlusten wesentlich höher. Dies könnte in dem aufgeregten politischen Klima der heutigen Zeit auf starke Ablehnung stoßen. Außerdem hatten zum Zeitpunkt des Amtsantritts von Paul Volcker als Fed-Vorsitzender Jahre der Inflation die Staatsverschuldung auf 40% des BIP zusammenschmelzen lassen, die damit den niedrigsten Stand seit Ende des Zweiten Weltkriegs erreicht hatte. Heute beträgt der öffentliche Schuldenstand hingegen fast 100% des BIP. Ein starker Anstieg der Realzinsen zur Inflationsbekämpfung könnte verheerende Folgen für die Staatsfinanzen haben. Ganz abgesehen davon, dass auch die Zentralbanken immer noch mit ihren aufgeblähten Bilanzen zu kämpfen haben werden. Selbst wenn klar ist, mit welchen Mitteln dem Inflationsanstieg gegengesteuert werden muss, könnten die damit verbundenen Härten die Politik davor zurückschrecken lassen. Doch Inflationsbekämpfung ist immer ein hartes Geschäft. Der ehemalige britische Premierminister John Major hat es in einer Rede als Schatzkanzler 1989 auf den Punkt gebracht: „Wenn diese Politik nicht weh tut, bringt sie nichts.“ In den 70er Jahren hat man mit verschiedenen Instrumenten experimentiert, von der Einkommenspolitik der direkten Intervention unter Fed-Chairman Arthur Burns bis hin zur „Whip Inflation Now“-Kampagne von Präsident Ford im Jahr 1974, die Alan Greenspan später als „ausgemachten Schwachsinn“ bezeichnete. Der harte Kurs, den Fed-Chairman Volcker einschlug, war politisch erst vermittelbar, nachdem man alles andere ausprobiert hatte und damit gescheitert war. Während Kapitalmärkte und Politik ganz auf die Abwendung einer potenziellen Deflation fixiert sind, könnte sich durchaus herausstellen, dass das Problem in den nächsten Jahren eher in einer zu hohen als einer zu niedrigen Inflation bestehen könnte. Mit dem kräftigen Aufwärtstrend an den Arbeitsmärkten normalisiert sich die Inflation in den entwickelten Volkswirtschaften allmählich wieder. Dennoch wird weiterhin lautstark eine Fortsetzung der lockeren Geld- und Fiskalpolitik gefordert. Ein Inflationsanstieg wird uns kalt erwischen, enormen Schaden anrichten und nicht leicht in den Griff zu bekommen sein. Konzept 26 1 IWF-Prognose für die Weltwirtschaft, April 2013 2 „Are wages useful in forecasting price inflation”, San Francisco Federal Reserve Economic Letter, November 2015 3 „Did the Great Inflation Occur Despite Policymaker Commitment to a Taylor Rule?”, Bullard and Eusepi, St Louis Fed Working Paper, Juni 2003 4 „Wage Growth, Inflation, and the Labor Share”, Barrow and Faberman, Chicago Fed, Letter 2015 Number 349 5 Doch auch andere haben bereits darauf hingewiesen, dass falsche politische Weichenstellungen als Ursache der Great Inflation eine größere Rolle gespielt haben als die Ölschocks. Hier ist vor allem der verstorbene Ronald McKinnon zu nennen. 6 Rede des Gouverneurs der Bank of England, Mark Carney, in Jackson Hole, August 2015 7 „Fed Speak on Main Street”, Carola Binder, 2015 8 „Fundamental Disagreement”, New York Fed Staff Report No. 655, Dezember 2013 9 „My Intellectual Journey in Central Banking”, Masaaki Shirakawa, September 2013 10 „Inflation and Activity – Two Explorations and their Monetary Policy Implications”, Blanchard, Cerutti and Summers, November 2015 27 Inflation: Totgesagte leben länger? Rohstoffe: Am Boden, aber keineswegs ohne Aufwärtspotenzial Konzept 28 Als Experten für Öl und Metalle überlassen wir Fragen zur weltweiten Inflationsentwicklung lieber unseren Kollegen aus den Wirtschaftswissenschaften. Eines können wir aber mit Gewissheit sagen: Alle, die mit einer Deflation rechnen und sich bei ihren Prognosen auf weitere deutliche Rückgänge der Rohstoffpreise stützen, könnten bitter enttäuscht werden. Natürlich könnte sich der aktuelle Preissturz noch fortsetzen. Doch die wirtschaftlichen Gegebenheiten an den Öl- und Metallmärkten sprechen viel eher dafür, dass die Talsohle erreicht ist. Die Gründe wollen wir in diesem Artikel erläutern. Michael Hsueh, Grant Sporre Konzept29 Betrachten wir zunächst die Entwicklung am Ölmarkt. Im Januar erreichten die Preise mit USD 26 je Barrel ein Zehn-Jahres-Tief. Seither hat sich der Barrel-Preis bei durchschnittlich USD 30 eingependelt. Dadurch wird ein erheblicher Anteil künftiger Ölförderprojekte, die vor zwei Jahren bei einem Ölpreis von über USD 100 anvisiert wurden, wirtschaftlich uninteressant. Folglich haben Ölfirmen Investitionsausgaben von USD 380 Mrd., mit denen pro Tag 1,5 Mio. Barrel gefördert und 2021 auf den Markt kommen sollten, auf Eis gelegt. Davon entfallen 80% auf Offshore-Projekte und 58% auf die Tiefseeförderung. Und diese zurückgestellten Projekte lohnen sich weiterhin erst ab einem durchschnittlichen Brent-Preis von USD 64 je Barrel bei Tiefseebohrungen, von USD 55 bei Flachwasser-Projekten und von USD 58 bei der Onshore- und Ölsandförderung. Anders ausgedrückt: Von diesen Werten ist das aktuelle Preisniveau weit entfernt. Auch wenn die Gewinnschwelle bei der Förderung von sogenanntem Tight Oil (unkonventionelle Ölvorkommen in festen Gesteinsschichten, darunter Schieferöl) in den USA seit 2014 um 30% gesunken ist, haben die Break-Even-Preise global betrachtet eine gewisse Starrheit an den Tag gelegt. Das heißt: Sobald sich am Markt wieder ein Angebotsdefizit einstellt, dürften sich die Preise in Richtung des höheren Break-Even-Bereiches bewegen. Zudem dürften die momentanen Überschüsse – so üppig sie auch erscheinen mögen – angesichts der rückläufigen Förderung in den USA und der Geschwindigkeit, mit der die weltweit wachsende Nachfrage den Angebotsüberhang aufzehrt, schon in ein paar Jahren der Vergangenheit angehören. So liegt die Tight-Öl- Förderung in den USA schon deutlich unter ihrem Mitte 2015 erreichten Höchststand von 5,5 Mio. Barrel pro Tag. Bis Ende des Jahres dürfte sie auf 4,2 Mio. Barrel zurückgegangen sein. Diese Entwicklung stützt uns in unserer mittelfristigen Einschätzung, dass die Ölpreise bis nächstes Jahr wieder die US-Break-Even-Werte von USD 50-55 je Barrel ansteuern werden. Doch all diese Berechnungen geben keine Antwort auf die Frage der Fragen, die derzeit alle beschäftigt: Wie tief kann der Ölpreis noch fallen? Der Blick in die Lehrbücher besagt, dass der beste Anhaltspunkt für eine Preisuntergrenze die Grenzkosten der Produktion sind. Denn ab diesem Preisniveau würde die Produktion eingestellt. Zur Information: Die Grenzkosten für die Onshore-Förderung von Tight Oil in den USA liegen bei durchschnittlich USD 7-17 je Barrel, der gewichtete Durchschnitt weltweit beträgt indes USD 9. Allerdings ergibt sich ein bestimmter Anteil dieser operativen Kosten wohl aus langfristigen Verträgen, womit die tatsächlichen sogenannten Cash-Kosten für die reine Förderung mit bestehenden Anlagen noch darunter liegen dürften. Wenn wir nun von USD 9 als absolutem Tiefpunkt des Ölpreises ausgehen, gilt es noch eine Vielzahl weiterer Aspekte zu berücksichtigen. So ist nicht zuletzt denkbar, dass die geplanten Investitionsausgaben so stark heruntergefahren werden, dass eine V-förmige Preiserholung über die nächsten drei bis fünf Jahre in den Bereich des Möglichen rückt. Ferner steigt bei einem solchen Preisniveau sicherlich die Wahrscheinlichkeit Konzept 30 entsprechender OPEC-Maßnahmen, auch wenn sich Saudi-Arabien nach außen hin konsequent jede Einmischung der OPEC in eine eventuelle koordinierte Reduzierung des Angebots verbittet. Schließlich sind die Upstream-Unternehmen, also Ölfirmen, die in der Gewinnung und Förderung von Öl tätig sind, darunter insbesondere Emittenten von Hochzinsanleihen in den USA, in arge Nöte geraten. Damit reduziert sich die Handhabe der Branche, auf Preise über dem Break-Even-Punkt zu reagieren, wodurch wiederum die Wahrscheinlichkeit steigt, dass der Ölpreis über einen Zeitraum von fünf Jahren sogar über seinen Gleichgewichtspreis hinausschießt. Je tiefer die Preise fallen, desto höher die Wahrscheinlichkeit einer akzentuierten und dauerhaften Erholung. Das erklärt vielleicht, warum Ölmarktanalysten nichts mehr widerstrebt, als ihre Quartalsprognosen auf das derzeitige niedrige Kassamarktniveau, geschweige denn auf Grenzkostenniveau, abzusenken. So lag Ende Januar die Medianprognose von 34 Analysten zum durchschnittlichen Ölpreis im Jahr 2016 bei USD 47 je Barrel. Wir wollen uns auch mit den Argumenten derjenigen beschäftigen, die davon sprechen, dass der „Markt mit Öl geflutet wird“. Der für 2016 prognostizierte durchschnittliche Überhang von 600.000 Barrel/Tag muss unseres Erachtens ins Verhältnis gesetzt werden zu dem Überschuss von 1,2 Mio. Barrel/Tag, den wir 2015 erlebt haben. Zudem lassen sich Sorgen über den Aufbau der Lagerbestände im laufenden Jahr dadurch abmildern, dass die Lagerkapazitäten in den USA momentan zu zwei Dritteln ausgeschöpft sind und bis April voraussichtlich drei Viertel der Lagerkapazitäten erreicht werden, wenn unverändert 7,7 Mio. Barrel/Tag importiert werden (was wiederum eine der großen Unbekannten darstellt). Schließlich zeigt ein Vergleich mit den an anderen Märkten bestehenden Vorräten, dass die Öl-Lagerbestände, selbst auf ihrem aktuell überdurchschnittlichen Niveau, noch als angemessen durchgehen können. Die kommerziellen Rohölvorräte von 1,2 Mrd. Barrel in den OECD-Ländern decken zusammen mit den weltweiten schwimmenden Vorräten von 136 Mio. Barrel die Öl-Nachfrage der OECD-Länder für 29 Tage. Im Vergleich dazu decken die aktuellen Lagerbestände am US-Erdgasmarkt die Nachfrage für 45 Tage, und Kohlekraftwerte in den USA halten ein Angebot vorrätig, das dem Bedarf von 80 bis 87 Tagen entspricht. Aus diesen Gründen sprechen wir uns gegen eine allzu negative Einschätzung der Ölpreisentwicklung aus, auch wenn unsere Prognosen die durchschnittlichen Grenzkosten der Branche um US-Dollar-Beträge im zweistelligen Bereich übersteigen. Einen Tiefststand zu prognostizieren wird über die nächsten zwölf Monate weiter eine heikle Angelegenheit bleiben. Wir gehen aber davon aus, dass sich die Aufmerksamkeit allmählich stärker darauf richten wird, die Entwicklung des Nachfrageanstiegs korrekt vorherzusagen. Dadurch dürften die Preise Auftrieb erhalten. In Teilen lassen sich diese Erkenntnisse auch auf die Metallmärkte übertragen. Doch obwohl die Schwächephase dort bereits seit Langem anhält, ist eine Erholung unserer Einschätzung nach noch länger nicht in Sicht. Wenn die Preise ihre zu Jahresanfang verzeichnete Entwicklung 31 Rohstoffe: Am Boden, aber keineswegs ohne Aufwärtspotenzial fortsetzen, wird 2016 vielmehr das sechste Jahr in Folge mit Preisverlusten werden. Der Bloomberg-Index für Basismetall-Kassapreise ist seit seinem letzten Höchststand Mitte 2011 um über 50% gefallen. Die Abkühlung der chinesischen Wirtschaft einmal außer Acht gelassen, ist der Rückgang der Metallpreise Symptom und Ursache der deflationären Entwicklung zugleich. Es ist nicht überraschend, dass die Einkaufspreise im verarbeitenden Gewerbe in China seit fast fünfzig Monaten in Folge im negativen Bereich liegen. Wir rechnen damit, dass die Metallpreise zu einer letzten Negativphase ansetzen, sehen das Ende der Deflation aber endlich nahen. Wie kommen wir zu dieser Einschätzung? Die Metallmärkte waren in den letzten fünf Jahren entweder von einer guten Angebotssituation oder einem Überangebot geprägt. Grund hierfür war die Kombination aus rückläufigem chinesischem Nachfragewachstum und emporschnellendem Minenausstoß, da viele der langwierigen Explorations- und Vorbereitungsprojekte schließlich in konkreten Metalllieferungen mündeten. In einem solchen Umfeld sollten die Preise auf Grenzkostenniveau fallen (nominell das 90. Perzentil der Kostenkurve der Branche), wodurch es zu Minenschließungen und letztlich zu ausgewogenen Verhältnissen am Markt kommen sollte. Doch die Angebotssituation hat sich als recht konstant erwiesen, da sich die Betreiber der Schließung ihrer Minen unter Verweis auf die Kosten und die Folgen für die Umwelt versperrten. Starke deflationäre Kräfte haben die Manager zu der Fehlvorstellung verleitet, dass sie dem Verfall der Metallpreise mit Kosteneinsparungen begegnen und so trotzdem profitabel bleiben könnten. In gewisser Weise sind die Minenbetreiber Opfer ihres eigenen Erfolgs geworden: Indem sie kollektiv Kosten gesenkt haben, wurde der Rückgang der Metallpreise noch weiter gefördert. Wodurch wurde der Preisverfall bei Metallen noch begünstigt? Zum einen durch rückläufige Energiepreise, sowohl bei Öl als auch bei Kohle. Denn diese machen insgesamt 30-40% der direkten und indirekten Kosten aus. Ein weiterer Grund ist die Abwertung der Währungen rohstoffproduzierender Länder gegenüber dem US-Dollar. Bei den meisten Minenbetreibern fallen nämlich mindestens die Hälfte der Kosten in lokaler Währung an. Außerdem kommt noch der Rückkopplungseffekt der Deflation hinzu: Preisrückgänge drücken auch die Kosten für Produktionsfaktoren und Nutzungsrechte. Der letzte und am wenigsten verstandene Aspekt der Deflation sind veränderte Betriebsabläufe. In guten Zeiten steht bei den Strategien und Planungen von Minenbetreibern die Ertragsmaximierung im Mittelpunkt des Interesses. In schlechten Zeiten verlagert sich der Blick dann auf die Wahrung der Rentabilität und Kosteneinsparungen. Eigentlich haben Minenbetreiber noch einen weiteren Hebel zur Hand. Sie können Metalle mit höheren Reinheitsgraden abbauen. In dem Fall müssen sie weniger Erde für mehr Metall umwälzen. Kurzfristig ist ein solches Vorgehen durchaus lohnenswert, doch wird dadurch der Aufbau der Mine in Mitleidenschaft gezogen, wodurch einige Vorkommen Konzept 32 später nur mit höherem Aufwand abgebaut werden können. Unsere Prognose einer letzten Schwächephase der Metallpreise beruht auf den unerwartet niedrigen Ölpreisen und dem Abwertungspotenzial des chinesischen Renminbi. In den Metallpreisen ist derzeit ein Ölpreis von USD 40 je Barrel einkalkuliert, nicht die heutigen Preise von unter USD 30. Zudem dürfte eine schwächere chinesische Währung die Währungen rohstoffproduzierender Länder noch weiter in die Tiefe ziehen. Damit dürfte das Ende dieses Deflationszyklus aber erreicht sein. Womöglich könnte es den Minen-Managern gelingen, die Kosten noch weiter zu senken, doch ist jetzt ein Punkt erreicht, an dem weitere Einsparungen nicht mehr nachhaltig wären und letztlich Einbußen beim künftigen Ausstoß zur Folge hätten. Die aktuellen Kassapreise liegen 40-50% unter den als „Incentive Prices“ bezeichneten Werten, die erforderlich sind, um mit Projekten eine Rendite von 12-15% zu erwirtschaften. Folglich ist der Investitionsfluss in neue Förderkapazitäten schlicht ausgetrocknet. Gegenüber ihrem Spitzenwert von 2012 sind die Investitionsausgaben in der Branche um über 60% gesunken. Erzfirmen schöpfen ihre letzten Vorkommen aus, und die derzeitigen Investitionsausgaben reichen nicht aus, um den aktuellen Ausstoß für mehr als zwei bis drei Jahre aufrechtzuerhalten. Für Kupfer beispielsweise bräuchte es jedes Jahr zwei große neue Minen, nur um die Ausschöpfung bestehender Vorkommen auszugleichen. Genau wie bei Öl liegen die Kassapreise für Metalle momentan deutlich unter den Grenzkosten der meisten Förderunternehmen. Als Extrembeispiel sei die Nickel-Branche angeführt, in der zwei Drittel der Unternehmen in Not geraten sind. Im Zuge dieser Entwicklung sind die Bilanzen der Minenbetreiber unter enormen Druck geraten. Unseren Schätzungen zufolge werden die Nettoverbindlichkeiten der größten Unternehmen bis Ende des Jahres auf den unangenehmen Wert des 3,5-fachen EBITDA ansteigen. Dies könnte eine abrupte Wende in der Branche herbeiführen. Tatsächlich gewinnt die Drosselung des Angebots bereits an Dynamik. Insgesamt werden derzeit rund 5% der Branchenkapazitäten stillgelegt. Damit eine kritische Masse erreicht wäre, müssten mindestens 10% der Minen stillgelegt werden. Angesichts des Drucks, unter dem die Branche steht, gehen wir davon aus, dass dieses Szenario 2016 eintreten und so zu einer Preisstabilisierung führen wird. Bis die Kapitalbeschränkungen offensichtlich werden, könnte es noch etwas länger dauern. Sobald sie aber zutage treten, wird sich die Deflation bei den Metallpreisen rasch in eine Inflation umkehren. Das Schicksal der Metallmärkte ist untrennbar mit dem der Ölmärkte verknüpft. Die Metallmärkte werden auf eine Erholung des Ölpreises positiv reagieren, was wiederum die Bohrkosten unter Druck setzen wird. Ab diesem Punkt wird der Inflationszyklus von vorne beginnen. 33 Rohstoffe: Am Boden, aber keineswegs ohne Aufwärtspotenzial Auf schwankendem Grund Konzept 34 Um es mit den Worten eines unsterblichen (wenn auch unbekannten) Dichters zu sagen: „Demografie ist Schicksal“. Die meisten Ökonomen würden dem vermutlich zustimmen. Leider sind demografische Zusammenhänge komplex und undurchschaubar und daher ein lästiges Übel, mit dem sich Volkswirte nicht gerne beschäftigen. In volkswirtschaftlichen Modellen wird die demografische Entwicklung häufig als eine Konstante abgebildet. Eine Standardannahme ist konstantes Bevölkerungswachstum. An der Wall Street indes wird die demografische Entwicklung in den meisten Prognosen schlicht außer Acht gelassen. Aufgrund der kurzfristigen Ausrichtung vieler Modelle und der äußerst langsamen demografischen Veränderungen hat dies jedoch durchaus seine Berechtigung. John Tierney Konzept35 Um es mit den Worten eines unsterblichen (wenn auch unbekannten) Dichters zu sagen: „Demografie ist Schicksal“. Die meisten Ökonomen würden dem vermutlich zustimmen. Leider sind demografische Zusammenhänge komplex und undurchschaubar und daher ein lästiges Übel, mit dem sich Volkswirte nicht gerne beschäftigen. In volkswirtschaftlichen Modellen wird die demografische Entwicklung häufig als eine Konstante abgebildet. Eine Standardannahme ist konstantes Bevölkerungswachstum. An der Wall Street indes wird die demografische Entwicklung in den meisten Prognosen schlicht außer Acht gelassen. Aufgrund der kurzfristigen Ausrichtung vieler Modelle und der äußerst langsamen demografischen Veränderungen hat dies jedoch durchaus seine Berechtigung. 2016 könnte sich allerdings als eines der Jahre entpuppen, in denen die Demografie und insbesondere die Veränderungen in der Erwerbsbevölkerung der Schlüssel zum Verständnis der Wirtschaftsentwicklung in den USA sind, die immer wieder Rätsel aufgibt. Wenige amerikanische Wirtschaftsdaten werden aufmerksamer verfolgt als der monatliche Arbeitsmarktbericht mit den aktuellen Zahlen zur Beschäftigungsentwicklung außerhalb der Landwirtschaft (Nonfarm Payrolls, NFP), die jeweils am ersten Freitag eines Monats um Punkt 8:30 Uhr veröffentlicht werden. Die NFP sind das wichtigste breit gefasste Konjunkturbarometer und geben häufig den Takt für den Handel in den darauffolgenden Wochen vor. Der NFP-Bericht liefert zudem wichtige Daten für Prognosemodelle vieler anderer Datenreihen. In den vergangenen Jahren kamen vom Arbeitsmarkt konstant positive Impulse für die US-Wirtschaft und die Finanzmärkte, da die Beschäftigtenzahlen außerhalb des Agrarsektors beinahe jeden Monat um 200.000 stiegen, trotz nur schleppenden Wirtschaftswachstums sowie Abschwüngen und Krisen in verschiedenen Regionen und Märkten. Die Fed, die den Kurs für weitere Zinserhöhungen wohl bereits abgesteckt hat, setzt offenbar darauf, dass der Jobmotor auch weiterhin brummt. Es besteht jedoch ein erhebliches Risiko, dass sich das Beschäftigungswachstum in den nicht landwirtschaftlichen Sektoren in den kommenden Quartalen abschwächt und zunehmend unsteter wird, allein aufgrund der demografischen Entwicklung. Dies könnte wiederum zu einem langsameren Trendwachstum führen und große Unsicherheit und starke Volatilität bei Risikoanlagen nach sich ziehen. Oberflächlich verhält es sich mit dem Beschäftigungswachstum in diesem Konjunkturzyklus ganz ähnlich wie in vielen der bisherigen Nachkriegszyklen. Unter der Oberfläche sieht es jedoch ganz anders aus. In früheren Konjunkturzyklen basierte das Beschäftigungswachstum außerhalb der Landwirtschaft zunächst auf der Wiedereinstellung von Arbeitslosen und dem Wechsel vieler Erwerbstätiger aus der Landwirtschaft in andere Branchen. Aber innerhalb etwa eines Jahres entwickelte sich das Wachstum der Erwerbsbevölkerung zur wichtigsten Triebfeder am Arbeitsmarkt. Während der Zyklen der 1980er, 1990er und 2000er Jahre machte das Wachstum der Erwerbsbevölkerung mehr Konzept 36 als 70 Prozent des gesamten Beschäftigungswachstums außerhalb des Agrarsektors aus. Seit der Finanzkrise sind die Beschäftigtenzahlen in diesen Branchen hauptsächlich aufgrund von Wiedereinstellungen gestiegen. Um es in Zahlen auszudrücken: Arbeitslose und Beschäftigte aus der Landwirtschaft haben mit etwa zwei Millionen Menschen pro Jahr zum Anstieg der Beschäftigtenzahlen in den nicht landwirtschaftlichen Sektoren beigetragen, während das Wachstum der Erwerbsbevölkerung nur etwa ein Drittel des Gesamtwachstums ausgemacht hat. Bei einer Arbeitslosenquote von 5 Prozent wird dieser einst breite Strom an unbeschäftigten Arbeitskräften jedoch bald versiegen. Die Deutsche Bank prognostiziert, dass die Arbeitslosenquote 2016 auf 4,6 Prozent fallen wird. Das bedeutet, dass Arbeitslose nur mit etwa 600.000 Personen zum Beschäftigungswachstum in den nicht landwirtschaftlichen Sektoren beitragen werden, während zusätzlich 100.000 Arbeitnehmer aus der Landwirtschaft in andere Bereiche wechseln könnten. Das ist ein harter Bruch, vergleichbar mit einem rapiden Wetterumschwung am Übergang von einem Hochdruck- zu einem Tiefdruckgebiet oder beim Überqueren eines Gebirgsmassivs. In Zukunft wird weiteres Wachstum am Arbeitsmarkt stärker vom Wachstum der Erwerbsbevölkerung abhängen. Dieses wiederum wird von zwei gegenläufigen Faktoren bestimmt: Zum einen dem Ausscheiden der Baby-Boomer-Generation aus dem Arbeitsmarkt und zum anderen von den Kindern dieser Generation, der sogenannten Generation Y, die in den nächsten Jahrzehnten verstärkt auf den Arbeitsmarkt drängen wird. In den letzten Jahren war das Wachstum der Erwerbsbevölkerung eher unstet. Das Spektrum reicht von einem Anstieg um 1,5 Mio. im Jahr 2012 bis zu hin zu einer Schrumpfung um 0,4 Mio. im Jahr 2013. Zum Teil ist dies Spiegelbild der Schwankungen in der Wachstumsentwicklung. Die eigentliche Ursache sind jedoch die geburtenstarken Jahrgänge an beiden Enden der Skala der Erwerbsbevölkerung. Im Jahr 2010 gab es besonders viele 19- und 20-Jährige (geboren in den frühen 1990er Jahren) ebenso wie 63-Jährige (geboren 1947). Um zu verstehen, wie sich diese geburtenstarken Jahrgänge auswirken, empfiehlt sich ein Blick auf die Erwerbsbeteiligung in den jeweiligen Altersgruppen. In der Gruppe der 16- bis 19-Jährigen sind etwa 35 Prozent erwerbstätig, bei den 20- bis 24-Jährigen steigt dieser Wert auf 70 Prozent. In der Altersgruppe der 25- bis 54-Jährigen, die sich damit in der Lebensphase mit der stärksten Erwerbsbeteiligung befinden, erreicht die Beschäftigungsquote etwa 80 Prozent. Am anderen Ende des Altersspektrums nimmt die Erwerbsbeteiligung rapide ab. Nur 63 Prozent der 55- bis 64-Jährigen sind noch erwerbstätig, bei den über 65-Jährigen fällt dieser Prozentsatz drastisch auf nur noch 18 Prozent. Diese Konzentration geburtenstarker Jahrgänge an beiden Enden der Skala hat dazu geführt, dass die letzten Jahre von einem Auf und Ab am Arbeitsmarkt geprägt waren. Wenn man den aktuellen Trend in der Entwicklung extrapoliert und annimmt, dass die Zuwanderung weiterhin bei etwa 1 Million 37 Auf schwankendem Grund Menschen im Jahr liegt, werden in den nächsten Jahren etwa 4 Millionen Menschen jährlich neu in den Arbeitsmarkt eintreten, während auf der anderen Seite etwa 3 Millionen in den Ruhestand gehen. Mit der Zeit werden allmählich mehr ältere Menschen aus dem Arbeitsmarkt ausscheiden als junge hinzukommen. Während die Erwerbsbevölkerung also in diesem Jahr noch um etwa 1 Million Menschen wachsen dürfte, könnte dieser Zuwachs bis 2020 auf 795.000 sinken. Dies impliziert ein Wachstumspotenzial in den nicht landwirtschaftlichen Sektoren (einschließlich Neuzugänge auf dem Arbeitsmarkt und Arbeitslose) von 1,7 Millionen bzw. durchschnittlich 140.000 Menschen im Monat – das damit deutlich unter den Zahlen der vergangenen Jahre liegt. Selbst wenn die wirtschaftliche Erholung anhält, könnte die monatliche Quote bis 2020 auf deutlich unter 100.000 fallen. Diese demografischen Trends sind soweit einfach zu verstehen. Kompliziert wird es nun aber dadurch, dass sich der Eintritt der Generation Y in den und das Ausscheiden der Baby-Boomer-Generation aus dem Arbeitsmarkt wahrscheinlich nicht linear vollziehen werden. Man kann sich Szenarien vorstellen, in denen der Beschäftigungszuwachs außerhalb des Agrarsektors in einem Monat bei über 300.000 liegt und dann im nächsten Monat auf null sinkt oder sich sogar in einen Beschäftigungsabbau verkehrt. Die Entwicklung am unteren Ende der Skala ist leicht vorhersehbar. Die jungen Menschen strömen aus wirtschaftlicher Notwendigkeit relativ konstant auf den Arbeitsmarkt, sobald sie ihre Ausbildung beendet haben oder nicht mehr von ihren Eltern unterstützt werden. Das Ausscheiden der Baby-Boomer hingegen, deren Ersparnisse unter der Finanzkrise gelitten haben, ist ein Unsicherheitsfaktor – es ist einfach nicht vorherzusagen, wie sie beispielsweise auf steigende Löhne reagieren würden. Leider gibt es kein einfaches Analysemodell, um in Zahlen zu fassen, wie diese aktuellen Veränderungen in der Erwerbsbevölkerung genau aussehen oder wie sie sich auf die Wirtschaft auswirken werden und umgekehrt. Eine Möglichkeit, sich dem Problem zu nähern, ist eine Szenarioanalyse, bei der verschiedene Szenarien mit ihren möglichen Auswirkungen untersucht werden. Szenario 1: Das Wirtschaftswachstum liegt, wie in den vergangenen Jahren, weiterhin bei 1,5 bis 2 Prozent. Bei diesem Szenario besteht das Risiko, dass die Beschäftigungszahlen außerhalb des Agrarsektors stärker schwanken als in den vergangenen Jahren, was es schwerer einschätzbar macht, ob sich die Wirtschaft positiv oder negativ entwickelt. Stärkere monatliche Schwankungen bei den Nonfarm Payrolls können zu Unsicherheit in Bezug auf die Wirtschaftsentwicklung, stärkerer Volatilität und höherem Druck bei Risikoanlagen führen. Die Volatilität könnte zudem die Verlangsamung des Beschäftigungswachstums und die damit einhergehende allgemeine Wachstumsverlangsamung verschleiern und zu widersprüchlichen Signalen von der Fed führen. Ebenso könnten gute Zahlen falsche Wachstumserwartungen wecken und Anleger dazu veranlassen, stark in Risikoanlagen zu investieren, sowie die Fed die Konzept 38 Zinsschraube stärker anziehen lassen, als es die Wirtschaft verkraftet. Schwächere Beschäftigungszahlen hingegen könnten zu größerer Risikoaversion führen und die Fed weiter abwarten lassen. Beides könnte sich als politische Fehlentscheidung erweisen. Szenario 2: Die Wirtschaft wächst stärker. In diesem Szenario wären Arbeitgeber vermutlich mit einem Arbeitskräftemangel konfrontiert. Eine wahrscheinliche Strategie wäre in diesem Falle, die Generation der Baby-Boomer davon zu überzeugen, erst später in den Ruhestand zu gehen, was zu einem Anstieg der Beschäftigungszahlen führen würde, da dann bei gleichbleibenden Neuzugängen weniger Menschen aus dem Arbeitsmarkt ausscheiden würden. Es könnte zudem zu einer Lohninflation kommen, auch wenn hier vor allem die älteren Erwerbstätigen von höheren Löhnen profitieren dürften und sich das steigende Lohnniveau wohl nicht gleichmäßig über die erwerbstätige Bevölkerung verteilen würde. Die Fed könnte dies so interpretieren, dass die Wirtschaft sich endlich von der Finanzkrise erholt hat, und daher die Zinsen schneller anheben. Das Problem ist, dass die Baby-Boomer ihren Ruhestand nicht auf den Sankt-Nimmerleins-Tag verschieben werden. Bis auf Weiteres aber könnten höhere Beschäftigungszahlen und Löhne den Aufschwung in seiner Dynamik überzeichnen, so dass ein konjunktureller Einbruch vorprogrammiert ist, sobald wieder mehr Baby-Boomer in den Ruhestand gehen und damit die Beschäftigtenzahlen sinken oder die Fed die Zinszügel anzieht. Szenario 3: Das Wirtschaftswachstum verlangsamt sich weiter. In diesem Szenario würde die Nachfrage am Arbeitsmarkt vermutlich sinken und so könnte es dazu kommen, dass Arbeitgeber die Generation der Baby-Boomer ermutigen, früher in den Ruhestand zu gehen. Kurzfristig könnte dies den Arbeitsmarkt weiter im Gleichgewicht halten, mit kleineren Negativeffekten für die ganz jungen Arbeitnehmer und die Gruppe der 25- bis 54-Jährigen. Problematisch würde es, wenn sich die Wirtschaft schließlich erholt und die Baby-Boomer im Ruhestand nicht an den Arbeitsmarkt zurückkehren. Dies hätte einen Arbeitskräftemangel und ein langsameres Trendwachstum zufolge. Szenario 4: Die Einwanderungszahlen sinken. Bisher sind wir in unseren Szenarien davon ausgegangen, dass weiterhin etwa 1 Million Menschen pro Jahr in die USA einwandern. Es besteht jedoch das Risiko, dass dieser Zustrom in den kommenden Jahren abreißt. Zum einen plant der Supreme Court bis Mitte 2016 über einen Erlass von Präsident Obama zu entscheiden, der Abschiebungsschutz für etwa vier Millionen illegale Immigranten bedeuten würde, deren Kinder in den USA geboren sind. Sollte der Oberste Gerichtshof den Erlass kippen, ist unklar, wie viele Menschen von der Abschiebung betroffen wären oder wie schnell abgeschoben würde, aber allein die Zahl der möglichen Abschiebungskandidaten bedeutet ein Risiko für das Beschäftigungswachstum. Außerdem ist die Immigration ein heißes Thema bei den anstehenden Präsidentschaftswahlen. Unter neuer Führung könnte es zu einem politischen Kurswechsel kommen, und zwar tendenziell eher 39 Auf schwankendem Grund hin zu einer Begrenzung der legalen Einwanderung. Und schließlich gibt es noch ein fünftes Szenario. Unabhängig von der Wirtschaftsentwicklung könnte auch die unsichtbare Hand von Adam Smith ins Spiel kommen und für einen reibungslosen Übergang hin zu weniger oder mehr Arbeitskräften sorgen, sei es durch Lohnanpassungen oder durch den „Drehtüreffekt“ am Arbeitsmarkt. An der Wall Street geht man offenbar von diesem Szenario aus. Anleger können dies alles beunruhigend finden oder auch nicht. Sollte das fünfte Szenario (die unsichtbare Hand) eintreten, können sie einfach weiter machen wie bisher. Sollte sich jedoch eines der anderen vier Szenarien konkretisieren, könnte es ungemütlich werden. Denn unter dem Strich verheißen diese Szenarien nichts Gutes für die Wirtschaftsentwicklung. Sie implizieren ein langsameres Wachstum der Erwerbsbevölkerung und der Beschäftigung außerhalb des Agrarsektors, und dies wiederum bedeutet höchstwahrscheinlich weniger Wirtschaftswachstum. Erschwerend kommt hinzu, dass der Anpassungsprozess vermutlich keinen stetigen Verlauf haben wird und wir es daher allein schon am Arbeitsmarkt mit starken Schwankungen zu tun haben werden. Dieser Trend dürfte noch dadurch verstärkt werden, dass (wahrscheinlich) die meisten Volkswirte und Anleger weiterhin so tun werden, als befände sich die Welt dennoch in Szenario fünf, in dem sich der Arbeitsmarkt an die Wirtschaft anpasst. Das könnte dazu führen, dass Märkte und Politik auf den monatlichen Nonfarm-Payroll-Bericht entweder zu optimistisch oder zu pessimistisch reagieren oder blind bleiben für einen sich abzeichnenden Abwärtstrend, wenn die Lage auf kurze Sicht relativ stabil bleibt. Es gibt keine einfache Lösung für dieses Problem, und weder die Theorie noch die Erfahrung können uns brauchbare Ansätze liefern, die den Umbruch am Arbeitsmarkt erklären oder klar machen, welche gesamtwirtschaftlichen Auswirkungen davon zu erwarten sind. Der gewiefte Anleger wird aufmerksam verfolgen, ob die nächsten Arbeitsmarktberichte mehr Aufschluss über die aktuelle Beschäftigungs- und Wirtschaftsentwicklung geben, und sich entsprechend aufstellen, um die Chancen zu nutzen, die sich ergeben, wenn die Herde in die andere Richtung rennt. Konzept 40 41 In den vergangenen 20 Jahren gingen in Japan eine chronisch kränkelnde Wirtschaft und Deflation Hand in Hand mit einer rasant alternden Gesellschaft. Dies hat zu der Annahme geführt, dass zwischen diesen beiden Phänomenen ein Zusammenhang bestehen muss. Diese These wird durch die Entwicklung in den USA gestützt. Der Baby-Boom der Nachkriegszeit hat dort Mitte des 20. Jahrhunderts für einen starken Bevölkerungsanstieg gesorgt und die Inflation bis in die 1970er Jahre hinein kontinuierlich steigen lassen. Auch die Entwicklung in vielen Schwellenländern, wo bei tendenziell wachsender Bevölkerung vielfach hohe Inflation herrscht, passt in dieses Bild. Und dann sind da noch die großen Industrienationen, die in den vergangenen Jahren nicht in der Lage waren, die Inflation wieder auf ein stabiles Niveau anzuheben, was viele zu der Frage veranlasst hat, ob dies auf die alternde Bevölkerung zurückzuführen sei. Interessant ist, dass Ökonomen kein klares theoretisches Modell haben, das erklären würde, wie Bevölkerungs- und Inflationsentwicklung zusammenhängen. Um diesen Zusammenhang zu erforschen, wurde kürzlich in zwei groß angelegten Studien eine umfassende empirische Analyse von Inflationsentwicklung und Bevölkerungsentwicklung in den OECD-Ländern für die vergangenen 60 Jahre vorgenommen, in der Hoffnung, die Ergebnisse könnten dabei helfen, sowohl eine Theorie als auch einen praktischen politischen Ansatz zu entwickeln. Beide Studien basieren auf Daten von IWF, Weltbank und Vereinten Nationen und haben damit eine ähnliche Datengrundlage. Eine Studie des IWF legt nahe, dass eine alternde Bevölkerung und ein langsameres Bevölkerungswachstum mit sinkenden Inflationsraten einhergehen. 1 Eine zweite Studie der Bank für Internationalen Zahlungsausgleich kam zum gegenteiligen Ergebnis: In Gesellschaften mit einem höheren Anteil abhängiger Personen (sowohl bei einem höheren Anteil nur junger oder nur alter Menschen als auch bei einem höheren Anteil beider Gruppen) ist die Inflation höher, in Gesellschaften mit einem höheren Anteil von Menschen in den Schwerpunktjahren ihrer Erwerbstätigkeit hingegen niedriger. 2 Der Erklärungsansatz der Studie war, dass in Gesellschaften mit einem höheren Anteil abhängiger Personen tendenziell ein Nachfrageüberhang besteht, während Gesellschaften mit einem großen Anteil von Menschen im erwerbsfähigen Alter mehr produzieren als sie verbrauchen. Eine dritte und stärker theoretisch angelegte Studie der Federal Reserve Bank of St. Louis kam zu dem Schluss, dass in Gesellschaften mit einem höheren Anteil älterer Menschen eine Preisstabilität sichernde Politik zur Absicherung des Einkommensniveaus einen hohen Stellenwert hat. Gesellschaften mit einer jüngeren Bevölkerung tendierten eher zu inflationstreibenden Maßnahmen, da hier Löhne und Schulden als Finanzierungsquelle eine größere Rolle spielen. 3 Um sich ganz auf den Zusammenhang zwischen Bevölkerungs- und Inflationsentwicklung zu Demografie und Inflation Auf schwankendem Grund konzentrieren, schließt dieses Modell allerdings Transferleistungen zwischen den Generationen, wie Sozialversicherungen und Krankenversicherungen, aus. Da solche Transferleistungen aber in den meisten OECD-Ländern Standard sind, könnten diese durchaus Einfluss auf die Inflationspräferenzen haben, und es ist fraglich, wie hilfreich die Erkenntnisse für Anleger und politische Entscheidungsträger sind. Angesichts der Tatsache, dass viele Ländern kurz vor tiefgreifenden demografischen Veränderungen stehen oder sich bereits mitten im demografischen Wandel befinden, ist es beunruhigend, dass es in der Demografie wie in der Volkswirtschaftslehre so wenige interdisziplinäre Ansätze gibt. Das gilt umso mehr , als die aktuellen Veränderungsprozesse allgemein bekannt sind und auch die weitere Entwicklung absehbar ist. Doch mit dem Standardinstrumentarium der Ökonomik oder der Politik kommt man hier nicht weiter. Bis hier der Stein der Weisen gefunden ist, bleibt uns nur, uns weiter durchzuwursteln und aus Erfahrungen zu lernen – und hoffentlich falsche politische Weichenstellungen zu vermeiden. 1 „Impact of demographic change on inflation and the macroeconomy”, Jong-Won Yoon, Jinill Kim, und Jungjin Lee, IMF Working Paper WP/14/210, November 2014 2 „Can demography affect inflation and monetary policy?”, Mikael Juselius und Elöd Takáts, BIS Working Paper 485, Februar 2015 3 „Demographics, redistribution, and optimal inflation”, James Bullard, Carlos Garriga, Christopher J. Walker, Federal Reserve Bank of St. Louis, Mai 2012 Konzept 42 Konzept43 Inflation und die Bewertung von Aktien Konzept 44 Konzept Niemand rechnet mit einer baldigen Rückkehr der Inflation. Tatsächlich ist die letzte Phase nennenswerter Inflationsraten in den Industrieländern schon so lange her, dass die meisten Anleger keine Erfahrung damit haben, wie vor dem Hintergrund schnell steigender Preise Renditen zu erzielen sind. Indes gilt: Sag niemals nie, wie die vorangegangenen Artikel in diesem Magazin erläutern. Aber was ist die beste Strategie? Sei es aus reiner Neugier, sei es aus Sorge, dass der Abgesang auf die Inflation verfrüht ist – die Beantwortung dieser Frage ist auf jeden Fall den einen oder anderen Gedanken wert. Dieser Artikel beleuchtet nicht nur die Theorie, sondern auch Investments, die im realen Leben Erfolge gezeitigt haben. Sahil Mahtani 45 Die Standardantwort auf die Frage, was in Phasen von Inflation zu tun sei, lautet: Kaufe reale Vermögenswerte oder Hard Assets statt Finanzanlagen. Hintergedanke dabei ist, dass Hard Assets wie Immobilien, Rohstoffe und zwangsläufig auch Gold physische Vermögenswerte mit einem inneren Wert sind. Daher müsste ihr Wert nominal betrachtet mit der Inflation steigen. Eine Finanzanlage hingegen stellt lediglich einen vertraglichen Anspruch auf einen zugrunde liegenden Vermögenswert dar. Allerdings ist diese Kategorisierung nicht sonderlich tragfähig. Zum einen handelt es sich bei einigen Finanzanlagen zweifelsohne um Ansprüche auf reale Vermögenswerte. Aktien beispielsweise verbriefen Teilhaberrechte am Nettovermögen einer Kapitalgesellschaft, das teilweise mit Sicherheit aus Realwerten besteht. Auch die Wertentwicklung von Barrensilber und Silberfutures dürfte in Inflationsphasen recht ähnlich verlaufen. Darüber hinaus kann auch ein Schuldtitel im Falle einer Insolvenz einen Anspruch auf reale Vermögenswerte begründen. Und nicht zu vergessen: Einige inflationsgeschützte Finanzanlagen könnten sich auch ohne reale Vermögenswerte im Hintergrund als gute Absicherung erweisen – man denke nur an inflationsindexierte Staatsanleihen. Diskussionen über Inflationsschutz sollten sich demnach nicht um reale Vermögenswerte, sondern um „reale Erträge“ drehen. Aber selbst hier besteht die Gefahr einer Tautologie: Ein Vermögenswert mit realem Ertrag ist ein Vermögenswert, der einen inflationsgeschützten Geldstrom generieren kann, der wiederum ein Vermögenswert mit realem Ertrag ist. Damit dreht man sich einfach nur im Kreis. Daher lautet die bessere Frage vielleicht: Welcher Vermögenswert erwirtschaftet keinen realen Ertrag? Man betrachte einmal den Einfluss von Inflation auf Aktien. Es ist keine neue Erkenntnis, dass sich Aktien im inflationären Umfeld der 1970er Jahre schwer taten. Tatsächlich besteht eine der Kuriositäten hinsichtlich der Daten aus den letzten vier Jahrzehnten darin, dass sich die Rentabilität der Unternehmen im S&P 500 bei Inflation nicht signifikant veränderte, was man eigentlich hätte erwarten können, wenn doch Aktien von steigenden Preisen profitieren. In den 1970er Jahren schnellte die Verbraucherpreisinflation in den USA auf mehr als 12% nach oben, doch der Aktienmarkt verhielt sich eher so, wie man es vielleicht von Anleihen erwartet hätte: Die Eigenkapitalrendite lag einschließlich Dividenden ziemlich konstant bei etwa 12%. Die entsprechende Eigenkapitalrendite stieg damals stetig von 11% auf 15% – ein Hinweis darauf, dass Inflation und Eigenkapitalrenditen in einem positiven Zusammenhang zueinander stehen. Ein Aktienstratege würde nun tatsächlich darauf hinweisen, dass die Korrelation der jährlichen Zeitreihen in jenem Jahrzehnt 70% betrug. Allerdings bestätigt sich dieses Verhältnis nicht über längere Zeiträume. Nachdem der damalige Fed-Präsident Paul Volcker in den 1980er Jahren erfolgreich den Preisdruck eingedämmt hatte, ging die Inflation bis zum Ende des Jahrzehnts auf 5% zurück. Der Durchschnitt und der Median der Eigenkapitalrendite für eben diese Dekade lagen hingegen wiederum bei ca. 13%. In den 1990er Jahren ging die Inflation weiter zurück, auf 3% bis zum Jahr 2000. Die Eigenkapitalrenditen der S&P 500-Unternehmen bewegten sich jedoch immer noch um die Konzept 46 14%. Das erste Jahrzehnt des neuen Jahrtausends brachte dann einen weiteren Inflationsrückgang mit sich. Und die Eigenkapitalrendite? 12%. Unter Einbeziehung dieser dreieinhalb Jahrzehnte schmilzt die oben erwähnte Korrelation von 70% auf unbedeutende 2% zusammen. Eigenkapitalrenditen scheinen sich also nicht wirklich parallel zur Inflation zu entwickeln. Warren Buffett brachte es bereits 1977 auf den Punkt: Man sollte Aktien als Titel mit „Aktien-Kupon“ betrachten – auch wenn sie selten zu einem Buchwert von eins erworben werden. 1 Nun, Herr Buffett hat seine Milliarden im Wesentlichen mit Aktienanlagen gemacht und auch inflationäre Phasen gut überstanden. Eine andere Möglichkeit, sich diesem Thema anzunähern, besteht also in dem Eingeständnis, dass sich Unternehmensrenditen nicht in wesentlichem Maße im Gleichschritt mit der Inflation verändern; stattdessen muss sich das Augenmerk darauf richten, welche Unternehmen eine überdurchschnittliche Wertentwicklung aufweisen. Bei der Betrachtung der Wertentwicklung der S&P 500-Unternehmen in der Inflationsphase der 1970er Jahre kann eine erweiterte DuPont-Analyse hilfreich sein. Sie zeigt, dass es nur fünf Möglichkeiten zur Steigerung der Eigenkapitalrendite gibt: einen höheren Kapitalumschlag, einen höheren Verschuldungsgrad, geringere Zinskosten, geringere Unternehmenssteuern und höhere operative Margen. Betrachten wir zunächst den ersten Faktor. In den 1970er Jahren stieg der Kapitalumschlag der größten US-Unternehmen von 93% im Jahr 1970 auf über 100% im Jahr 1975, bevor er bis 1980 schließlich auf 80% sank. Diese Ausbuchtung der Kurve nach oben in der Mitte des Jahrzehnts ist auf die Tatsache zurückzuführen, dass sich ein neues Preisniveau direkt im Umsatz bemerkbar macht, während sich das Anlagevermögen nur dann verändert, wenn Gegenstände ersetzt werden. Sobald eine neue Maschine angeschafft werden muss, schlägt sich die Inflation der vorangegangenen Jahre auch in höheren Kosten dafür nieder, sodass der Kapitalumschlag bei ansonsten gleichbleibenden Bedingungen auf das ursprüngliche Niveau sinkt. Diese Erkenntnis liefert noch einen Hinweis auf etwas anderes: Unternehmen mit hohen Abschreibungskosten auf Sachanlagen kann ein Inflationsanstieg anfänglich zugutekommen, allerdings müssen sie ihre Vermögensgegenstände schließlich zu einem höheren Preis neu anschaffen. Unternehmen mit geringem Sachanlagevermögen hingegen profitieren unter Umständen auf lange Sicht kontinuierlicher. Der Verschuldungsgrad erhöhte sich in den 1970er Jahren stetig um das 2- bis 3,3-fache, da die Unternehmen eine höhere Verschuldung zur Steigerung ihrer Eigenkapitalrendite nutzten. Besonders anfällig für ein solches Vorgehen waren dabei kapitalhungrige Unternehmen, weil Einschnitte bei Dividenden oder Aktienemissionen weniger attraktiv erschienen als die Aufnahme neuer Schulden. Neuverschuldung ist in einem inflationären Umfeld ein nicht ganz ungefährliches Unterfangen, da die damit verbundenen Kosten wahrscheinlich steigen werden. Grund hierfür ist nicht nur das gesamtwirtschaftliche Lagebild, sondern auch der Umstand, dass die Bonitätsbewertungen mit steigender Verschuldung sinken. Dies führt uns zum dritten Faktor. Die Kennzahl für die Zinslast Inflation und die Bewertung von Aktien47 (Interest Burden Ratio; Gewinn vor Steuern/Gewinn vor Zinsen und Steuern; die Kennzahl beträgt eins für ein Unternehmen ohne Verbindlichkeiten oder Fremdfinanzierung) ging von 83% im Jahr 1970 auf 81% im Jahr 1980 zurück, was geringfügig höhere Zinskosten impliziert. Der vierte Einflussfaktor für die Rentabilität, die Unternehmenssteuern, wirkte sich auf die Unternehmenswelt in den USA in den 1970er Jahren leicht belastend aus: Die Kennzahl für die Steuerlast (Tax Burden Ratio) stieg von 63% auf 65%. Versuche, die Margen anzuheben, liefen schließlich ins Leere. De facto sanken die operativen Margen vor Steuern und Zinsen im Laufe des Jahrzehnts geringfügig von 11% auf 10,4% – in Relation zur damaligen Volatilität keine große Veränderung. Aber diese Entwicklung lässt vermuten, dass die Versuche, die steigenden Kosten für Arbeit und Rohstoffe an die Verbraucher weiterzugeben, nicht wirklich erfolgreich waren. Die Prüfung dieser fünf Faktoren zeigt also, warum sich die Eigenkapitalrenditen trotz grundlegender Veränderungen in der US- Wirtschaft nicht vom Fleck bewegten. Als weitere Lehre daraus kann man vielleicht ziehen, dass eine Verbesserung der Eigenkapitalrenditen in Zeiten hoher Inflation zwar möglich, aber schwierig ist. Trotz des höheren Verschuldungsgrads verharrten die Eigenkapitalrenditen der S&P 500-Unternehmen in den 1970er Jahren bei grob 12%. Währenddessen ging das Verhältnis von Free Cashflow zu Umsatz im gleichen Zeitraum kontinuierlich von 2,9% auf 1,8% zurück, was auf eine verringerte Rentabilität trotz gleichbleibender Eigenkapitalrenditen schließen lässt. Tatsächlich verschleierte die ganze Aufregung am amerikanischen Aktienmarkt in dieser Phase – die Auflösung der Großkonzerne (die zuvor so fieberhaft gebildet worden waren), der Bullenmarkt für Nifty Fifty-Aktien (die 50 beliebtesten US-Aktien) – lediglich die Tatsache, dass sich die Unternehmen schwer abkämpften, ohne wirklich von der Stelle zu kommen. Ein Blick auf die Erfahrungen einzelner Unternehmen in dieser Zeit lässt aber hilfreiche Rückschlüsse zu. Glücklicherweise mussten die Unternehmen in den 1970er Jahren wegen entsprechender Rechnungslegungsstandards in einem ungeprüften Zusatzdokument einige inflationsbereinigte Finanzinformationen offenlegen. Nehmen wir zum Beispiel die Washington Post Company im Jahr 1979, in dem ein allgemeiner Preisanstieg von 11% verzeichnet wurde: Nominal wies das Unternehmen ein Nettoergebnis von USD 43 Mio. aus. Nach Inflationsbereinigung lag das Ergebnis jedoch um 12% niedriger bei USD 38 Mio. Ein Blick in den Jahresabschluss erklärt die Ursache. Nominal beliefen sich die Abschreibungen auf Sachanlagen zwar auf USD 8 Mio., eine Anpassung um höhere Wiederbeschaffungskosten machte sie aber um 40% teurer. Nach Inflationsbereinigung schließlich lag der Wiederbeschaffungswert der Sachanlagen um 36% höher. Infolgedessen lag zwar die nominale Eigenkapitalrendite bei 26%, die reale Rendite auf das reale Eigenkapital nahm sich mit 17% jedoch deutlich bescheidener aus. Die Washington Post hatte eine Netto-Cash-Position, und ihre Barbestände verloren USD 1,6 Mio. an Wert. Auch vom Konzept 48 sinkenden Realwert seiner Schulden profitierte das Unternehmen nicht. Die steuerlichen Auswirkungen sind ebenfalls interessant. Der gezahlte Steuerbetrag von USD 42 Mio. betrug nominal 49% des Vorsteuerergebnisses, real aber 52%. Durch die Inflation stieg der effektive Steuersatz des Unternehmens um drei Prozentpunkte, ohne dass der Kongress auch nur einen Finger rührte. Kritiker des Standpunkts, dass sich Branchen mit niedriger Kapitalintensität bei Inflation überdurchschnittlich gut entwickeln, verweisen auf die Renditen in den 1970er Jahren. Hätte man in den 1970er Jahren USD 100 in den S&P 500 investiert, so hätte man bei Wiederanlage der Dividenden am Ende des Jahrzehnts nominal betrachtet USD 234 in der Tasche gehabt. Erstaunlicherweise waren die Top-3-Branchen dabei Energie (nominal USD 540), Industrie (USD 498) und Grundstoffe (USD 245). Alle drei sind ausgesprochen kapitalintensiv. Dies scheint der Argumentation zu widersprechen, man solle in Unternehmen mit geringem Bedarf an Sachanlagen und damit auch mit geringen Abschreibungskosten investieren. Eine Erklärungsmöglichkeit für diesen offensichtlichen Widerspruch setzt an der Tatsache an, dass die 1970er Jahre ein Jahrzehnt voller Turbulenzen an den Rohstoffmärkten waren – der Goldpreis stieg um das 17-fache und der Ölpreis um mehr als das 10-fache. Aber das kann noch nicht alles gewesen sein. Zum einen stieg der allgemeine Rohstoffindex, im Gleichschritt mit dem US-Aktienmarkt, nur um das 2,5-fache. Zudem würde ein rohstoffzentrierter Ansatz nicht erklären, warum auch Industriewerte zu den Top-Performern gehörten. Warren Buffett verwies in seinem Artikel von 1977 auch auf die außerordentlich hohen Gewinne von Kabelunternehmen in den 1970er Jahren. Der Kabelbereich ist zwar in unseren branchenbezogenen Daten nicht isoliert vom Gesamt-Telekommunikationssektor aufgeführt (die GICS-Klassifizierung existiert erst seit Anfang der 1990er Jahre), aber es lässt sich daraus doch ableiten, dass sich die Entwicklung nicht allein auf Rohstoffunternehmen eingrenzen lässt. Wahrscheinlicher ist, dass die überdurchschnittliche Entwicklung in den kapitalintensiven Branchen dem langen Wiederbeschaffungszyklus in diesen Sektoren geschuldet ist. So beträgt die bilanzielle Lebensdauer der Sachanlagen eines Öl- oder Chemieunternehmens rund 20 bis 30 Jahre; für ein Telekommunikationsunternehmen können es 12 bis 15 Jahre sein, wohingegen der Wert für ein sehr dynamisches Softwareunternehmen bei weniger als zehn Jahren liegen wird. Nur wenn man die Auswirkungen der Inflation über einen längeren Zeitraum – nämlich über mehr als den gesamten Investitionszyklus – beobachtet, lässt sich wirklich eine unterdurchschnittliche Entwicklung kapitalintensiver Unternehmen feststellen. Mit der fortlaufenden Ersetzung von Vermögenswerten über einen Zeitraum von mehreren Jahrzehnten (1980er und 1990er Jahre) schnitten Energie, Grundstoffe und Industrie sämtlich schlechter ab als der S&P 500. Welche Schlüsse sollte der Anleger von heute daraus ziehen? In einem Szenario mit steigender Inflation ist es sinnvoll, nach Unternehmen mit geringer Kapitalintensität, definiert durch die Inflation und die Bewertung von Aktien49 1 Buffett, W., „How Inflation Swindles the Equity Investor,” Fortune Magazine, Mai 1977 2 „The danger to equities from inflation,” Deutsche Bank Research Report veröffentlicht vom CROCI-Team, 1. April 2011 (allerdings geschätzten) Investitionen in den Kapitalerhalt im Verhältnis zum Umsatz, und mit hoher Rentabilität, gemessen am Free Cashflow/ Umsatz-Verhältnis, Ausschau zu halten. Als das CROCI-Team der Deutschen Bank diese Analyse 2011 durch seine Datenbank laufen ließ, zeigte sich, dass Unternehmen aus Schwellenländern generell eine hohe Kapitalintensität und eine niedrige Rentabilität aufwiesen. Anders die Lage in den Industrieländern: Hier bestanden Unternehmen aus den Bereichen Technologie, Gesundheitswesen und Konsumgüter sowie einige Spezialchemieunternehmen den Test. 2 Unternehmen aus den Bereichen Energie, Versorgung und Telekommunikation sowie viele Unternehmen für Grundstoffe hatten zu kämpfen. Insbesondere einige Softwarehersteller dürften sich als recht inflationsresistent erweisen, wenn man an die geringen Investitionen in den Kapitalerhalt, die hohen Wechselkosten und ein oftmals auf Lizenzen und Registrierungen beruhendes Geschäftsmodell als Quelle für stabile Renditen denkt. Diese Art von Unternehmen waren in den 1970er Jahren noch nicht häufig anzutreffen, aber heutzutage könnten sie diejenigen sein, die bei einem überraschenden Inflationsanstieg prächtig gedeihen. Konzept 50 Betrachten wir ein fiktives Unternehmen, das nicht der Finanzbranche angehört, über einen Zeitraum von acht Jahren, in dem die Inflation kontinuierlich von 1% im ersten Jahr auf einen Höchststand von 50% im achten Jahr steigt. Die Inflationsrate ist hier absichtlich übertrieben hoch angesetzt, um die Auswirkungen auf die Entwicklung des Unternehmens deutlicher herausstellen zu können. Des Weiteren sei angenommen, dass die Umsatzerlöse und die nicht abschreibungsfähigen operativen Kosten des Unternehmens mit der Inflation steigen, sodass die Ebitda-Margen konstant bei 80% liegen. Das Unternehmen investiert in nur eine Sachanlage mit einem Wert von 20% des jährlichen Umsatzes, der vor einem Neukauf über vier Jahre abgeschrieben wird. In dieser Konfiguration steigt die nominale Eigenkapitalrendite trotz stabiler Gewinnmargen zusammen mit der Inflation von 14% im ersten Jahr auf 26% im achten Jahr. Wie die Erfahrung aus den 1970er Jahren nahelegt, kommt die Inflation der Rentabilität der Unternehmen zumindest vordergründig erheblich zugute. Eine tiefergehende Analyse erfordert jedoch zwei Anpassungen. Erstens bei den realen Abschreibungskosten. Die in den Inflationsjahren ausgewiesenen Gewinne sind überzogen, da in den verbuchten Abschreibungskosten nicht die höheren Wiederbeschaffungskosten der Vermögensgegenstände berücksichtigt sind. Daher sind die realen Gewinne in den Jahren, die zwischen zwei Käufen von Sachanlagen liegen, übertrieben. Die Auswirkungen auf die Cash-Position werden jedoch erst in der Zukunft sichtbar, wenn ein Vermögensgegenstand ersetzt wird. Entsprechend erhöht sich durch diese Anpassung auch der Wert des Nettoanlagevermögens in der Bilanz. Unter Einbeziehung beider Anpassungen sinkt die reale Rendite auf das reale Eigenkapital von 12% im ersten Jahr auf 8% im achten Jahr (Höchststand der Inflation). Eine regelmäßige Inflationsbereinigung der Finanzbuchhaltung ist kompliziert, nicht zuletzt wegen der ständigen Korrekturen an Inflationsdaten. Daher könnte der Free Cashflow ein besserer, wenngleich schwankungsanfälligerer Indikator für die zugrundeliegenden Renditen sein. Im obigen Beispiel sinkt der vierjährige gleitende Durchschnitt des Verhältnisses von Free Cashflow zu Umsatz von 14% im vierten Jahr auf 10% im Jahr mit der höchsten Inflation und spiegelt damit den Rückgang der Eigenkapitalrendite wider. Fazit: Je kapitalintensiver ein Unternehmen ist, umso schlechter entwickelt es sich in inflationären Phasen. Nehmen wir ein Unternehmen, in dem der Anteil der Investitionsausgaben am Umsatz bei 40% statt der 20% im obigen Beispiel liegt (man stelle sich beispielsweise ein altes Schienennetz mit erheblichem Investitionsbedarf vor). Der vierjährige gleitende Durchschnitt des Verhältnisses von Free Cashflow zu Umsatz sinkt nun von 9% im vierten Jahr auf 2% im Jahr mit der höchsten Inflation. Gleichermaßen sinkt die reale Eigenkapitalrendite von 7% auf 4%. Als Ausgleich für diesen Anstieg der Kapitalintensität müssen die Gewinnmargen um 10 Prozentpunkte gesteigert werden — eine echte Herausforderung für jedes Unternehmen. Ein Modell für die Auswirkungen von Inflation auf die Bewertung 51 Inflation und die Bewertung von Aktien Konzept 52 Columns 54 Buchrezension—Geborene Anführer 55 Ideas Lab—Konflikte im Team 56 Konferenzberichte—Nichts als Autos im Kopf 57 Infografik—Preise in Olympiastädten 53 Konzept Buchrezension – Geborene Anführer Stuart Kirk Genau wie sich 80% aller Männer für überdurchschnittlich gute Autofahrer halten, sind die meisten Geschäftsleute der Ansicht, sie seien gute Führungskräfte. Und für diejenigen, die keine geborenen Anführer sind (was natürlich nicht auf Sie zutrifft, liebe Angehörige einer Chefetage), kommen jedes Jahr tausende Ratgeber auf den Büchermarkt, wie man Führungsqualitäten entwickelt. Amazon bietet derzeit eine Auswahl von 30.000 Titeln zum Thema gute Unternehmensführung. Jeder, von Donald Trump bis Brad Gilbert, der ehemaligen Nummer... ähm... vier der Tennis-Weltrangliste, kann aus einem Manager einen besseren Chef machen. Im letzten Quartal aber stammte das meistverkaufte Buch von jemand anderem, in diesem Falle von zwei kampferprobten Offizieren der US-Navy SEALs, die einst an der Spitze der höchstdekorierten Spezialeinheit im Irakkrieg standen. „Extreme Ownership“ zeigt, wie sich die starken Führungsprinzipien der SEALs auf die Geschäftswelt übertragen lassen. Eigentlich würde man diesen Satz auf einem Buchumschlag nicht einmal zu Ende lesen, bevor man das Buch zurücklegt und sich aufmacht, um seinen Flug zu erwischen. Das wäre aber ein Fehler für die meisten Führungskräfte von heute. Ihnen würden nicht nur die spannenden Berichte aus erster Hand über die Schlacht um die Stadt Ramadi gegen die Aufständischen entgehen, in der Willink und Babin an der Seite des Scharfschützen Chris Kyle kämpften, der durch den Film „American Sniper“ Bekanntheit erlangte. Ob gewollt oder nicht, das Buch enthält in der Tat auch sinnvolle Lektionen für Manager. Würde nur die Hälfte von ihnen befolgt, wäre es um die Unternehmenswelt besser bestellt. Wann zum Beispiel hat man schon einmal von einem Mitarbeiter der Führungsebene gehört, der aufsteht und verkündet: „Ehrlich gesagt habe ich keinen Plan zu neuen Produkten, Strategien oder Übernahmen, ich werde also einfach etwas gesunden Menschenverstand anwenden und auf bewährte Verfahren setzen“? Dass derartige Ratschläge auch von einem Fünfjährigen stammen könnten, macht das Buch nicht weniger relevant. Es ist erstaunlich, wie sich Unternehmen den Kopf über komplexe Fragen wie Innovationsdruck oder Unternehmenskultur zerbrechen, jedoch an der Grundlagenarbeit scheitern. Was sind also die wichtigsten Lehren aus dem Buch? Kernpunkt ist natürlich, dass Führungskräfte volle oder „extreme“ Verantwortung übernehmen sollen. Wenn etwas schiefgeht, gibt es keine Ausreden – gar keine. Schieben Sie es nicht auf die Konkurrenz, Ihr schwaches Team oder die rekordverdächtig schlechten Wetterverhältnisse in diesem Sommer. Eine hervorragende Führungskraft übernimmt die volle Verantwortung für Erfolg und Misserfolg des Unternehmens. Wie lange würde eine Einheit der SEALs wohl einem Befehlshaber folgen, der nach einer missglückten Mission die Schuld bei allem und jedem, nur nicht bei sich selbst sucht? Anhänger des Determinismus würden über eine derart großspurige Weltanschauung die Nase rümpfen. Erfolg hat eher etwas mit Glück zu tun, oder, wie Tolstoi sagt, mit Millionen von Ereignissen und Entscheidungen, die mit einer Kraft durch das Leben fegen, die kein Mensch kontrollieren kann. Aber das heißt nicht, dass sich Chefs keine Mühe geben müssten. Die zentrale Frage der Autoren ist: Wer, wenn nicht der Anführer, sollte die Verantwortung übernehmen? Beruhigend ist vor allem die These, dass Soldaten und Mitarbeiter in der Regel wissen, ob ihr Anführer zu Unrecht beschuldigt wird, und jenen Respekt entgegenbringen, die sich der Verantwortung stellen. Das Buch handelt verschiedene Kampfberichte ab, fasst die Lehren daraus zusammen und überträgt sie auf die Geschäftswelt. Außerdem lernen wir, dass es gilt, die Dinge einfach zu halten, das Ziel der Mission zu erklären, unser Ego zu kontrollieren, die Führung zu dezentralisieren und entschlossen und diszipliniert zu handeln. All dies leuchtet ein. Doch lässt das Buch einen wichtigen Punkt außer Acht, dass nämlich für die meisten Mitarbeiter in einem Unternehmen, allen voran für Führungskräfte, Prinzipien wie Einfachheit, Klarheit und Verantwortung eher eine Gefahr darstellen. Dies gilt insbesondere für durchschnittliche Führungskräfte, die jede Menge Geld verdienen. An dieser Stelle schlagen wir den Bogen zu den männlichen Autofahrern. Genauso wie diese gerne ihre eigenen Fähigkeiten überschätzen, gehen unsere SEAL-Kommandeure davon aus, dass die meisten Führungskräfte in Unternehmen das Potenzial haben, großartige Anführer zu werden. In Wahrheit trifft das vielleicht auf 5% zu. Der Rest wird weiterhin die volle Verantwortung meiden wie die Pest und sich hinter komplexen Strukturen und Zentralismus verschanzen, um nicht zur Verantwortung gezogen werden zu können. Ein solches Verhalten führte dazu, dass in den Straßen von Ramadi unschuldige Menschen ihr Leben lassen mussten. In der entwickelten Welt steht jedoch weit weniger auf dem Spiel, weshalb die Lehren des Krieges hier kaum auf fruchtbaren Boden fallen dürften. Eine Buchbesprechung zu Extreme Ownership von Jocko Willink und Leif Babin Konzept 54 Es heißt, nur über Konflikte kann Gutes erreicht werden. Manche Konflikte sind jedoch besser als andere. Das war die Botschaft von Professor Peterson von der London Business School in seinem Vortrag, wie man am besten mit Konflikten innerhalb eines Teams umgeht und diese so gut wie möglich für den Teamerfolg nutzen kann. Seine erste überraschende Feststellung war, dass nur ein Zehntel aller Teamkonflikte seine Ursache in tatsächlichen Meinungsverschiedenheiten hat. In allen anderen Fällen wird der Konflikt allein durch den falschen Tonfall ausgelöst. Im Wesentlichen unterscheidet Professor Peterson drei verschiedene Arten von Konflikten. Diese zu verstehen, ist für eine Führungskraft von zentraler Bedeutung. Am schwierigsten sind zwischenmenschliche Konflikte, die von grundlegenden persönlichen Differenzen herrühren, also unterschiedlichen Persönlichkeiten, Wertvorstellungen und Normen innerhalb des Teams. Dies führt zu Misstrauen und wirkt sich nachteilig auf den Informationsaustausch im Team aus. Eine Situation aufzulösen, in der Menschen einander nicht mögen, ist schwer, doch Untersuchungen zeigen, dass der beste Weg der Konfliktbewältigung in diesem Falle darin besteht, einvernehmlich nicht über das Problem zu sprechen und es nach Möglichkeit zu ignorieren. Die zweite Art von Konflikt hängt mit bestimmten Aufgaben zusammen und entsteht durch Uneinigkeit über getroffene Entscheidungen. Solche Konflikte sollten in gewissem Maße in jedem Team vorkommen, doch durch Gespräche innerhalb des Teams wird die Konfliktlösung meist zunehmend leichter. Für die meisten Teams stellt dies keine große Schwierigkeit dar. Die dritte Kategorie ist der prozessbezogene Konflikt, der sich auf die Art der Entscheidungsfindung einer Gruppe bezieht. Liegt die Entscheidungsmacht bei einem Anführer oder gilt das Mehrheitsprinzip? Oder kann vielleicht sogar ein allgemeiner Konsens gefunden werden? Einen wirklichen Konsens zu erreichen ist zwar ein hehres Ziel, häufig jedoch unrealistisch und zeitraubend. Wie die Forschung zeigt, ist die beste Lösung ein qualifizierter Konsens, bei dem jeder mit der Entscheidung „leben kann“ und niemand vollkommen unzufrieden damit ist. Die zweitbeste Lösung besteht darin, dass eine einzelne Führungsperson die Entscheidungen trifft, nachdem alle Argumente vorgebracht wurden. Die schlechteste Lösung für die Entscheidungsfindung in einer kleinen Gruppe ist das Mehrheitsprinzip, da auf diese Weise eine kleine Teilgruppe entsteht, deren Interessen denen der übrigen Teammitglieder diametral entgegenstehen. Eine solche Teilgruppe könnte an Motivation einbüßen und am Ende vielleicht insgeheim sogar hoffen, dass sich die letztlich getroffene Entscheidung als falsch erweist. Professor Peterson sprach zudem über Diversität innerhalb einer Gruppe. Einerseits sorgt Diversität im Team für Informationsvorteile und unterschiedliche Betrachtungsweisen. Dadurch kann die Leistung des gesamten Teams gesteigert werden. Andererseits kann Diversität soziales Schubladendenken und einen schlechten Gruppenzusammenhalt mit sich bringen, was sich wiederum negativ auf die Ergebnisse auswirkt. Den Untersuchungen von Professor Peterson zufolge erreichen stärker diversifizierte Gruppen auch vielfältigere Ergebnisse. Tatsächlich weisen die besten Teams eine hohe Diversität auf. Dasselbe trifft jedoch auch auf die schlechtesten Teams zu. Geringe Diversität schafft konstant durchschnittliche Ergebnisse. Bei der Zusammenstellung eines Teams auf ein hohes Maß an Diversität zu achten, ist also eine sehr riskante Strategie, verspricht aber hohes Erfolgspotenzial. Wenig überraschend ist, dass diversifizierte Teams eher Schwierigkeiten bei der Koordinierung haben. Beim Bau der internationalen Raumstation beispielsweise arbeiteten Russen und Amerikaner die ersten acht Monate lang mit unterschiedlichen Maßeinheiten: die Russen mit metrischen Einheiten, die Amerikaner mit Feet und Inches. Es ist daher entscheidend für einen Teamleiter, seinen Teammitgliedern ein Gefühl dafür zu vermitteln, dass Probleme bei der Projektkoordinierung durchaus normal sind und gelöst werden können. Fehlt dieses Verständnis, kann es vorkommen, dass die Teammitglieder gegeneinander arbeiten und sich gegenseitig Schuld zuweisen. Häufig wird dabei jemand ausgegrenzt, der nicht ins demografische Gesamtbild passt. Leider gibt es nicht unbedingt Deckungsgleichheit zwischen dem Vertrauen in der Wahrnehmung des Managers und dem tatsächlich im Team gelebten Vertrauensverhältnis. In den meisten Fällen kann ein Manager überhaupt nicht einschätzen, ob die Mitglieder eines Teams einander vertrauen oder nicht. Um schädliche Konflikte zu vermeiden, müssen Führungskräfte daher verstehen, welche Arten von Konflikten es gibt und wie man mit ihnen umgeht. Nur so können die nötigen Rahmenbedingungen geschaffen werden, damit ein Team seine konstruktiven Konflikte selbst lösen und destruktive Konflikte bestenfalls gar nicht erst entstehen lassen kann. Ideas Lab – Konflikte im Team Charlotte Leysen Konzept55 Konferenzberichte – Nichts als Autos im Kopf Rod Lache Schauplatz der Konferenzberichte ist diesmal die winterlich kalte Autostadt Detroit, wo im Januar dreißig Autohersteller und -zulieferer auf der von der Deutschen Bank ausgerichteten Global Auto Industry Conference zusammenkamen. Zwar kann die US-Automobilbranche auf ein Rekordjahr 2015 zurückblicken, doch waren in den Gesichtern mancher Branchengrößen durchaus Sorgenfalten zu erkennen, als darüber gesprochen wurde, dass dem Markt auf kurze Sicht eine Wachstumsverlangsamung und im weiteren Verlauf vielleicht sogar ein Rückgang bevorsteht. Vielfach wurde darauf hingewiesen, dass sich die USA inzwischen im siebten Jahr eines Konjunkturaufschwungs befinden. Der Automobilabsatz dürfte angesichts kostspieliger Neuregelungen und somit steigender Neuwagenpreise stagnieren, so die vorherrschende Meinung. Ferner ist mit etwas weniger attraktiven Finanzierungskonditionen zu rechnen, und die Preise für Gebrauchtwagen dürften aufgrund des steigenden Angebots in diesem Segment sinken. So mahnten auch die Geschäftsführer großer Automobilhandelsgruppen wie AutoNation und Asbury Automotive an, die Automobilhersteller müssten ihre Produktion drosseln, um einem verheerenden Preisrückgang am Gebrauchtwagenmarkt entgegenzuwirken. Sie vertraten sogar die These, die „Deflation“ bei Gebrauchtwagen sei aktuell bereits ausgeprägter als gemeinhin angenommen, werde sie doch teilweise durch sinkende Händlermargen absorbiert. Nahezu jede Stellungnahme von Konferenzteilnehmern zu den Aussichten für die kommenden fünf bis zehn Jahre enthielt den Begriff „disruptiv“. Elektrifizierung, Konnektivität von Fahrzeugen und vor allem Automatisierung sind die Themen, die die Branche von Grund auf verändern könnten. Dadurch könnten auch altbewährte Eigentümerstrukturen und Transportkonzepte ins Wanken geraten. Besonders viel wurde über autonomes Fahren geredet. Bis Ende des Jahrzehnts dürften die großen Automobilhersteller die ersten Modelle präsentieren, die komplett selbstständig und ohne menschliches Zutun fahren. Die Meinungen, inwieweit sich diese Neuerung durchsetzen wird, gehen indes deutlich auseinander. Laut Ford sollen führerlose Fahrzeuge anfangs nur in Gebieten mit so genanntem Geofencing (Kleinstädten) eingesetzt werden, wo die ständige Aktualisierung äußerst detaillierter 3D-Karten relativ einfach möglich ist. General Motors, Volkswagen und Mobileye kündigten hingegen eine revolutionäre Kombination aus künstlicher Intelligenz und modernster Mapping-Technologie an, die die Voraussetzungen für autonomes Fahren so gut wie überall und ohne nennenswerte Einschränkungen schaffen soll. Der überraschendste Kommentar zu dem Thema kam ausgerechnet von Dr. Mark Rosekind, dem Leiter der wichtigen US-Verkehrsaufsicht National Highway Transportation Safety Administration. Er wies nachdrücklich darauf hin, dass die US-Behörden planten, die Weiterentwicklung der Technologie für autonomes Fahren zu fördern und voranzutreiben. Durch aktive Sicherheitssysteme und Technologien für führerloses Fahren soll nach Einschätzung der Aufsichtsbehörden in den USA die Zahl der Todesfälle im Straßenverkehr, die derzeit bei 34.000 pro Jahr liegt, drastisch zurückgehen. Weltweit sind jährlich 1,2 Millionen Todesopfer durch Verkehrsunfälle zu beklagen. Darüber hinaus sieht die Politik in dieser Entwicklung auch eine Chance auf erhebliche gesellschaftliche, ökonomische und ökologische Verbesserungen. Dies betrifft z.B. die höhere Mobilität für ältere Menschen und Menschen mit Behinderung, Produktivitätssteigerungen, geringeres Verkehrsaufkommen, verminderte Treibhausgasemissionen oder eine bessere Flächennutzung. Für die Automobilindustrie verheißt dies jedoch weniger Gutes. Braucht ein Auto keinen Fahrer mehr, fällt die Rechnung, ob es wirtschaftlicher ist, selbst ein Auto zu besitzen oder Mobilitätsdienste zu nutzen, ganz anders aus. Schließlich ist es ohne Zweifel wenig ökonomisch, dass das eigene Auto 95 Prozent der Zeit ungenutzt in der Garage oder auf einem Parkplatz steht. Unternehmen wie Uber, Lyft, Google und andere planen die Bereitstellung von Mobilitätsdiensten zu äußerst attraktiven Preisen. Deren zunehmende Marktpräsenz könnte für etablierte Autohersteller indes neue Risiken bergen, so auch die Gefahr einer Disintermediation bei Automobilmarken. Fast alle Akteure in der Automobilindustrie spüren, dass es in den kommenden Jahren zu einschneidenden Veränderungen und einem tiefgreifenden Umbruch kommen könnte. General Motors prophezeit der Branche für die nächsten fünf Jahre gar einen stärkeren Wandel als in den letzten 50 Jahren. Und offenbar trifft das Unternehmen eifrig Vorbereitungen, um mit dieser Entwicklung Schritt halten zu können. Allein in den vergangenen drei Monaten gab GM bekannt, man habe ein strategisches Investment in Lyft getätigt, geistiges Eigentum von Sidecar erworben, das Carsharing- Unternehmen Maven gegründet und mit Mobileye eine bahnbrechende Innovation im Bereich autonomes Fahren entwickelt. Ford verkündete sogar, man betrachte sich selbst inzwischen als „Mobilitätsunternehmen“. Es kann also gut sein, dass die Konferenzberichte nächstes Jahr die „Mobilitätskonferenz“ zum Gegenstand haben werden. Notizen von der Global Auto Industry Conference der Deutschen Bank Konzept 56 Infografik – Preise in Olympiastädten Veränderung der Preise für einen Herrenhaarschnitt, ein Bier in einer Bar, ein iPhone, ein Kinoticket und eine Mitgliedschaft im Fitnessstudio seit den Olympischen Spielen in London im Jahr 2012 (London 2012=100) PekingLondonRio de JaneiroTokio 25 50 75 100 125 150 175 200 225 250 57 Konzept Disclaimer deutsch: Originalveröffentlichung in englischer Sprache: 24. Februar 2016. Veröffentlichung der deutschen Ausgabe: 3. März 2016. Die vorstehenden Angaben stellen keine Anlage-, Rechts- oder Steuerberatung dar. Alle Meinungsaussagen geben die aktuelle Einschätzung des Verfassers wieder, die nicht notwendigerweise der Meinung der Deutsche Bank AG oder ihrer assoziierten Unternehmen entspricht. Alle Meinungen können ohne vorherige Ankündigung geändert werden. Die Meinungen können von Einschätzungen abweichen, die in anderen von der Deutsche Bank veröffentlichten Dokumenten, einschließlich Research- Veröffentlichungen, vertreten werden. Die Deutsche Bank kann geschäftliche Transaktionen in Wertpapieren, als Eigenhandelsgeschäft oder für Kunden, durchführen, die nicht mit der in diesem Researchbericht dargestellten Sichtweise übereinstimmen. Das Risiko von Verlusten bei Termin- und Optionsgeschäften kann weitgehend sein. Wegen des hohen Ausmaßes einer Fremdmittelfinanzierung der Termin- und Optionsgeschäfte können die auflaufenden Verluste höher sein als die ursprünglich in die Geschäfte investierten Beträge. Die vorstehenden Angaben werden nur zu Informationszwecken und ohne vertragliche oder sonstige Verpflichtung zur Verfügung gestellt. Für die Richtigkeit, Vollständigkeit oder Angemessenheit der vorstehenden Angaben oder Einschätzungen wird keine Gewähr übernommen. In den Vereinigten Staaten von Amerika wird dieser Researchbericht verantwortet und verbreitet von der Deutschen Bank Securities Inc., Mitglied der FINRA. In Deutschland wird dieser Bericht von Deutsche Bank AG Frankfurt genehmigt und/oder verbreitet, die über eine Erlaubnis zur Erbringung von Bankgeschäften und Finanzdienstleistungen verfügt und unter der Aufsicht der Europäischen Zentralbank (EZB) und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) steht. Im Vereinigten Königreich wird dieser Bericht durch Deutsche Bank AG, Filiale London, Mitglied der London Stock Exchange, genehmigt und/oder verbreitet, die von der UK Prudential Regulation Authority (PRA) zugelassen wurde und der eingeschränkten Aufsicht der Financial Conduct Authority (FCA) (unter der Nummer 150018) sowie der PRA unterliegt. In Hongkong wird dieser Bericht durch Deutsche Bank AG, Hong Kong Branch, in Korea durch Deutsche Securities Korea Co. und in Singapur durch Deutsche Bank AG, Singapore Branch, verbreitet. In Japan wird dieser Bericht durch Deutsche Securities Inc. genehmigt und/oder verbreitet. In Australien sollten Privatkunden eine Kopie der betreffenden Produktinformation (Product Disclosure Statement oder PDS) zu jeglichem in diesem Bericht erwähnten Finanzinstrument beziehen und dieses PDS berücksichtigen, bevor sie eine Anlageentscheidung treffen. Dieser Resarchbericht darf nicht ohne vorherige Erlaubnis der Deutsche Bank AG vervielfältigt, verbreitet und/oder veröffentlicht werden. Bei Zitaten wird um Quellenangabe “Deutsche Bank Research” gebeten. English disclaimer: Publication of the English version: February 24, 2016. Publication date of the German translation: March 3, 2016. The above information does not constitute the provision of investment, legal or tax advice. Any views expressed reflect the current views of the author, which do not necessarily correspond to the opinions of Deutsche Bank AG or its affiliates. Opinions expressed may change without notice and may differ from views set out in other materials, including research, published by Deutsche Bank. Deutsche Bank may engage in securities transactions, on a proprietary basis or otherwise, in a manner inconsistent with the view taken in this research report. The risk of loss in futures trading and options, foreign or domestic, can be substantial. As a result of the high degree of leverage obtainable in futures and options trading, losses may be incurred that are greater than the amount of funds initially deposited. The above information is provided for informational purposes only and without any obligation, whether contractual or otherwise. No warranty or representation is made as to the correctness, completeness and accuracy of the information given or the assessments made. In the U.S. this report is approved and/or distributed by Deutsche Bank Securities Inc., a member of FINRA. In Germany this information is approved and/or communicated by Deutsche Bank AG Frankfurt, licensed to carry on banking business and to provide financial services under the supervision of the European Central Bank (ECB) and the German Federal Financial Supervisory Authority (BaFin). In the United Kingdom this information is approved and/or communicated by Deutsche Bank AG, London Branch, a member of the London Stock Exchange, authorized by UK’s Prudential Regulation Authority (PRA) and subject to limited regulation by the UK’s Financial Conduct Authority (FCA) (under number 150018) and by the PRA. This information is distributed in Hong Kong by Deutsche Bank AG, Hong Kong Branch, in Korea by Deutsche Securities Korea Co. and in Singapore by Deutsche Bank AG, Singapore Branch. In Japan this information is approved and/or distributed by Deutsche Securities Inc. In Australia, retail clients should obtain a copy of a Product Disclosure Statement (PDS) relating to any financial product referred to in this report and consider the PDS before making any decision about whether to acquire the product. This report may not be reproduced, distributed or published by any person for any purpose without Deutsche Bank’s prior written consent. When quoting please cite “Deutsche Bank Research”. Konzept 58