1. Research
  2. Produkte & Themen
  3. Publikationsreihen
  4. Konzept
5. April 2017
In den nächsten Jahrzehnten sollen die globalen CO2-Emissionen halbiert werden. Diese Dekarbonisierungsinitiativen beeinflussen die Produktionstätigkeit verschiedener Branchen. DeCAF – das Deutsche Bank Carbon Alignment Framework – ist ein neuer Investment-Ansatz, der berücksichtigt, dass politische Emissionsziele und Anlageziele der Investoren nicht immer aufeinander ausgerichtet sind. [mehr]
KONZEPT Ausgabe 10 DeCAF – Anlegen im Zeichen des KlimaschutzesApril 2017 In den nächsten Jahrzehnten sollen die globalen CO 2 - Emissionen halbiert werden. Diese Dekarbonisierungsinitiativen beeinflussen die Produktionstätigkeit verschiedener Branchen. DeCAF – das Deutsche Bank Carbon Alignment Framework – ist ein neuer Investment-Ansatz, der berücksichtigt, dass politische Emissionsziele und Anlageziele der Investoren nicht immer aufeinander ausgerichtet sind. Cover story DeCAF – Anlegen im Zeichen des Klimaschutzes Leicht verständlich lotst Accounting Lifeguard Investoren durch den Nebel von Steuer und Bilanzierung. Zahlreiche neue und bewährte Produkte belegen, dass Investment Research kein Auslaufmodell ist, sondern sich bester Gesundheit erfreut – dies haben wir kürzlich bereits mit einem Kommentar in der Financial Times untermauert, der ebenfalls Teil der aktuellen Konzept-Ausgabe ist. Zurück zur Dekarbonisierung: In einem weiteren Sonderbeitrag werfen wir einen genaueren Blick auf die unserer DeCAF-Methodik zugrundeliegenden Volumenannahmen. Ersetzt Gas Kohle oder kommen weltweit gleich die Erneuerbaren? Sind Elektroautos tatsächlich die Feinde der Ölproduzenten? Finden Sie es ab Seite 23 heraus. Außerdem widmet sich Martin Brough gezielt der Frage, ob Deutschland bereit ist für eine ambitionierte Energiewende 2.0, und Eric Heymann betrachtet kritisch deren Effekte auf Investitionen. Haben Sie sich je gefragt, wo die Cloud eigentlich ist? Oder was sich darin befindet? Karl Keirstead, der Internet Software und Services Analyst der Deutsche Bank AG, erklärt es Ihnen. Sogar Zins- und Währungsswaps sind für uns ein Thema. In seinem Beitrag zeigt John Tierney, warum diese Märkte trotz ihres Schattendaseins eine wichtige Rolle spielen. Schließlich sind sie ein Indikator dafür, ob Donald Trumps Reform der Finanzmarktregulierung funktioniert. Natürlich darf auch der Bericht unseres Konferenzspions nicht fehlen, der uns diesmal hinter die Kulissen der Automobil-Konferenz der Deutsche Bank AG unter der Moderation von Rod Lache führt. Schließlich wenden wir uns mit unserer Buchrezension an professionelle Verhandlungsstrategen – und diese Lektüre ist zu guter Letzt ein Muss für uns alle. Stuart Kirk Head of Thematic Research Mit der zehnten Ausgabe unseres Konzept-Magazins sind wir sozusagen an einem Meilenstein angelangt. Wir möchten Ihnen auch mit der aktuellen Ausgabe einen Eindruck vom herausragenden Research der Deutschen Bank vermitteln. Wir hoffen, die Lektüre unserer Artikel hat Ihnen in den letzten beiden Jahren Vergnügen bereitet (oder sogar Geld eingebracht). Den Auftakt bildete damals unser optimistisches Szenario über die Kursentwicklung an den deutschen Finanzmärkten (die Aktien sind seitdem um 30% gestiegen). Vor rund einem Jahr stellten wir dann auf dem Cover von Ausgabe #7 die Frage, ob die Inflation wirklich tot ist (wie sich inzwischen herausgestellt hat, ist sie es nicht). Und im Oktober 2015 konnten wir hoffentlich einige unserer Leser anregen, ihre „Filetstücke“ am Londoner Immobilienmarkt zu verkaufen (bloß nicht hinschauen). Auch diese Ausgabe ist wieder vollgepackt mit ungewöhnlichen Anlageideen. Unter anderem geben wir einen Einblick in drei seit Jahresbeginn erschienene Erstveröffentlichungen. Unser Sonderbeitrag von Martin Brough, Lucas Herrmann und Rineesh Bansal befasst sich mit dem Carbon Alignment Framework der Deutsche Bank AG, das die Dekarbonisierung aus einem neuen Blickwinkel betrachtet. DeCAF stützt sich darauf, dass Volumen und Wertentwicklung nicht unbedingt korrelieren. Ein Bewusstsein für deren Beziehung erleichtert es Investoren, die Gewinner der Dekarbonisierung herauszupicken. In einem unserer Beiträge beleuchten wir einen revolutionären Ansatz, wie Anleger Konsensschätzungen zu makroökonomischen Daten gewinnbringender nutzen können, indem sie verhaltenspsychologische Verzerrungseffekte herausrechnen. Laut Nicholas Weng hätte sich bei Anwendung des sogenannten Persona-Modells auf eine Handelsstrategie für die vergangenen zehn Jahre eine Rendite von 25 Prozent ergeben. Zudem bringen wir etwas Licht in die Rechnungslegung. Luke Templemans Beitrag über Änderungen bei der Leasing-Bilanzierung – die für etliche Sektoren schwerwiegende Folgen haben dürften – basiert auf einer weiteren Neuveröffentlichung. Wenn Sie Feedback geben oder mit den Verfassern in Kontakt treten möchten, wenden Sie sich bitte zunächst an Ihren Kundenberater der Deutschen Bank oder schreiben Sie an stuart.kirk@db.com. Editorial Konzept Articles 06 Energiewende—die nächste Etappe 09 Die Zeiten mögen sich ändern, doch Research ist kein Auslaufmodell 11 Persona—aus Fehlurteilen der Masse Kapital schlagen 14 Ein Blick ins Innere der Cloud 17 Operatives Leasing—kaum eine Bilanz bleibt verschont 20 Trump und der Währungsbasisswap Columns 54 Buchrezension— Never Split the Difference 56 Konferenzberichte—Autohersteller 58 Infografik—Deutsche Carbon Alignment Framework Konzept Features Das koffeinfreie Portfolio – mit DeCAF bei Dekarbonisierung von der Quantität zur Qualität 23 Energiewende belastet Investitionen energieintensiver Unternehmen in Deutschland 42 Die Lage des postkarbonen Landes 32 Supermärkten, sowie den Direktvertrieb von nachhaltiger Energie. Da zudem Investitionen in der Vergangenheit weitgehend amortisiert sind, eröffnet sich durch die schon jetzt hohen Energiepreise zusätzlicher Spielraum für den Ausbau „grüner“ Infrastruktur. Die Unternehmen sind ebenfalls gut gerüstet. Auch sie sind bereit, mehr für erneuerbare Energien zu zahlen. Denn ihre Kunden und Investoren wollen es so. Bei der Automobilindustrie zum Beispiel stand Nachhaltigkeit noch nie so hoch im Kurs. Und die Versorger haben sich in den vergangenen 18 Monaten eine Restrukturierung verordnet: Atom-Altlasten wurden abgebaut, Kapazitäten auf Basis fossiler Brennstoffe reduziert und das Geschäft auf Infrastruktur, Kunden und saubere Energie ausgerichtet. Auch am Anleihemarkt sind die Bedingungen günstig. Zwar sind die Renditen von Bundesanleihen zuletzt wieder gestiegen. Gleichwohl befinden sie sich nach wie vor nahe ihren Rekordtiefständen. Die Finanzierungskosten für die Energiewende 2.0 wären folglich deutlich niedriger als bei der Energiewende 1.0, und das über einen längeren Zeitraum. Staatliche Fördermaßnahmen wären also überflüssig. Die Nachfrage nach nachhaltiger Finanzierung steigt rasant, bei den Institutionen, vor allem aber bei der Bevölkerung, also Investoren, Wählern und Verbrauchern. Rückenwind kommt zudem von den Aktienmärkten. Denn Public Equity feiert ein Comeback in Deutschland. Bei der Platzierung von innogy nahm der Energiekonzern RWE im vergangenen Jahr mehr als 4 Mrd. Euro ein; es war der größte Börsengang in Deutschland seit 16 Jahren. Insgesamt befinden sich deutsche Versorger-Aktien seit Jahresbeginn im Aufwind. Unternehmen, die Investoren attraktive Anlagemöglichkeiten eröffnen, können sich somit Energiewende— die nächste Etappe Martin Brough Die nächste Bundesregierung muss eine neue Vision für die Dekarbonisierung der Wirtschaft auf den Weg bringen. Wahrlich keine leichte Aufgabe. Denn bei der Energiewende 1.0 schossen die Energiepreise auf Rekordniveaus, die CO 2 -Ziele wurden nicht nur, aber auch wegen des Atomausstiegs verfehlt, die Solarindustrie erlebte eine Berg- und Talfahrt und die Energiekonzerne standen am Rand des finanziellen Kollapses. (Für weitere Informationen zu den hohen Energiepreisen in der Industrie und deren Negativeffekte auf die Investitionen siehe unser Feature auf Seite 42). Tatsächlich stehen die Zeichen gar nicht schlecht für die Energiewende 2.0. Verbraucher, Unternehmen, Versorger, Anleihe- und Aktienmärkte sowie die Technologietreiber sind alle bereit für eine „grünere“ Zukunft. Nicht der Staat, sondern der private Sektor könnte dabei die Hauptlast schultern. Dafür bedarf es allerdings der richtigen Preissignale für Verbraucher, Produzenten und Investoren. Warum stehen die Zeichen gut? Zunächst einmal erfreut sich nachhaltige Energie nach wie vor eines großen Zuspruchs in Deutschland, trotz der Belastungen, die den privaten Haushalten im Zuge des vorzeitigen Ausbaus der erneuerbaren Energien entstanden sind. Eine Kehrtwende in der Energiepolitik dürfte daher auf Ablehnung stoßen. Wähler sind auch Verbraucher und als solche bereit, für nachhaltige Produkte einen höheren Preis zu bezahlen, seitdem diese zunehmend den Weg in den Einzelhandel finden. Ein Aufschlag auf „grüne“ Marken könnte die Dekarbonisierung des Konsums vorantreiben, von Telefonen über Autos bis hin zu Konzept 6 über Eigenkapital finanzieren. Ebenfalls erfreulich sieht es bei den Technologietrends aus. Die Kosten für Energie aus Solaranlagen sowie Offshore- und Onshore- Windkraft befinden sich im Sinkflug. Gleichzeitig steigt nachhaltiges Wirtschaften in der Wertschätzung von Kunden und Unternehmen. Für Offshore-Windenergie zahlen die deutschen Verbraucher zurzeit noch bis zu 200 Euro pro Megawattstunde. Bei der Energiewende 2.0 könnte es nur noch die Hälfte sein. Zudem ist die Angebotspalette an sauberen Technologien geradezu explodiert und reicht inzwischen von der Erzeugung über die Speicherung bis zu intelligenten Geräten und Elektrofahrzeugen. Je größer die Diversität und Komplexität und je rapider der Wandel, umso wichtiger sind flexible Preissignale. Eine Top-down-Planung wäre bei der Dekarbonisierung 2.0 eindeutig zum Scheitern verurteilt, angesichts von Kostenmanagement, regionalen Auswirkungen sowie den Verteilungs- und sozialen Effekten der Energiewende. Investitionen müssen effizient eingesetzt werden. Aber können die Preismechanismen am deutschen Energiemarkt das auch leisten? So setzen die neuen dezentralen sauberen Energiesysteme darauf, dass Verbraucher, Erzeuger und Investoren auf Preissignale reagieren, die den tatsächlichen Kostenaufwand und Nutzen widerspiegeln. Energie-Preissysteme hingegen sind ein regulatorisches Konstrukt und unterzeichnen oft die Komplexität des Produktes. In der Folge kommt es bei der Preisbildung zu Vereinfachungen und Verzerrungen, was zu teuren Fehlinvestitionen sowie unwirtschaftlichem Konsum und ineffizienter Produktion führen kann. Hier liegt die Krux beim deutschen Preissystem. In nahezu allen Bereichen der Produktion und des Konsums werden die Kosten nicht entsprechend widergespiegelt. An fünf Stellschrauben des Energiemarktes müsste daher dringend gedreht werden. Erstens, beim Großhandel. Welchen Wert Strom hat, hängt hier davon ab, wo und wann dieser erzeugt wird. Strom, der in der Nähe des Verbrauchers bereitgestellt und unmittelbar nachgefragt wird, hat einen deutlich höheren Wert als Strom, der in der Ferne und zur falschen Zeit erzeugt wird. Dies gilt insbesondere angesichts des hohen Aufwands bei Speicherung und Fernübertragung. In Deutschland hingegen haben die Kommunen weitreichende Mitspracherechte bei der Bereitstellung von Infrastruktur. Dies gilt auch für neue Übertragungskabel. Aus Sicht der Politik ist dies sicher sinnvoll. In der Folge kommt es allerdings zu Engpässen in den Übertragungsnetzen. Zwar nimmt die Zahl der Windkraftanlagen rapide zu. Diese stehen jedoch im Norden, während der Strom vor allem im Süden nachgefragt wird. Im Idealfall würden sich diese physikalischen Gegebenheiten im Grenzpreis niederschlagen. Dies ist aber nicht der Fall. Denn Deutschland ist nach wie vor ein einheitlicher Energiemarkt. Einem zentralisiertem Top-down-System mangelt es einfach an der nötigen Flexibilität, um den richtigen Mix zu finden aus lokaler Erzeugung, nachfrageorientierter kostengünstiger Produktion in der Ferne, neuen Kabeln, Einsatz von Batterien und Speichern und Investitionen in eine flexible Nachfrage. Je höher zum Beispiel der Anteil von Wind- und Solarenergie am Strommix, umso entscheidender ist der Zeitpunkt der Erzeugung für die Preisgestaltung. Denn zu bestimmten Zeiten sind die Preis am Spotmarkt sogar negativ. Um ein Abschalten mit anschließendem Neustart bei fossilen Kraftwerken zu vermeiden, lassen die Betreiber die Anlagen in dieser Zeit auf ihre Konzept 7 Kosten weiterlaufen. Die erneuerbaren Energien hingegen mit ihrem schwankenden Angebot sind diesen kurzfristigen Preissignalen nicht ausgesetzt. Damit sinkt der Anreiz, zusätzlich zu den Erneuerbaren flexible Lösungen oder integrierte Speicher zu entwickeln. Im Vergleich zu den Großhandelspreisen orientieren sich die Endkunden-Preise sogar noch weniger an den Kosten. So erfolgt die Abrechnung der Stromkosten nach wie vor meist auf Basis der verbrauchten Einheiten, obwohl die Kosten für die Infrastruktur mehr oder weniger fix sind. Ohne tages- oder wochenzeitabhängige Tarife wird aber die Bedeutung einer flexiblen Nachfrage für das Energiesystem unterbewertet. Umgekehrt haben private Haushalte und Unternehmen ein übertrieben positives Bild vom wirtschaftlichen Nutzen der Selbstversorgung. Auch vom CO 2 -Preis kommen die falschen Signale. Zwar ist die Externalität von CO 2 - Emissionen bestätigt. Der massive Angebotsüberschuss im EU-Emissionshandel sorgt jedoch für extrem niedrige Preise von gerade mal 5 Euro pro Tonne, verglichen mit 25 Euro in Großbritannien, die zum Teil auf einer Gebühr basieren. An dem gewaltigen Angebotsüberhang dürfte auch die jüngste Reform des ETS vorerst wenig ändern. Ein ausreichend hoher CO 2 -Preis würde zum Beispiel die Debatte erleichtern, ob der Weg zur Dekarbonisierung besser direkt von der Kohle zu den Erneuerbaren oder alternativ über den Übergangsbrennstoff Gas führt. Mit den richtigen Preissignalen könnten die Märkte, statt auf Modelle und Prognosen der Regierung zu setzen, selbst den Weg für einen optimalen Übergang bereiten. Die vierte Stellschraube ist der Verkehrssektor. Zwar könnten die CO 2 -Emissionen durch eine bessere Kraftstoffeffizienz deutlich reduziert werden. Schlüssel zu einer verstärkten Dekarbonisierung ist jedoch die Elektromobilität. Bei einem radikalen Wandel dürfte das derzeitige Preissystem für Straßennutzung und Kraftstoffe aber zum Scheitern verurteilt sein. Zwar erhöht die Mineralölsteuer den Anreiz, ein Elektroauto zu kaufen. Doch was passiert, wenn die Steuereinnahmen in der Folge sinken? Entlasten autonome Autos und Mietfahrzeuge den Verkehr oder führen sie gar zu mehr Staus? Sollen die Preise an den Ladestationen für Elektroautos reguliert werden? Oder sollen die Tarife je nach Tageszeit und Ort gestaffelt sein? Verglichen mit der Stromindustrie ist der Verkehrssektor sogar noch weiter von einer Grenzkostenkalkulation entfernt. Und zu guter Letzt, Wärme. Für ein Land wie Deutschland, in dem die Winter besonders kalt und dunkel sind, könnte die Dekarbonisierung dieses Bereiches zur größten Herausforderung werden. So besteht die Gefahr, dass es aufgrund der derzeitigen Subventionierung effizienter gasbefeuerter Fernwärme im Zuge der Umstellung auf Kraft-Wärme-Kopplung am Strommarkt zu Verzerrungen kommt, wodurch die Wirtschaftlichkeit anderer Gaskraftwerke untergraben würde. Wie beim Strom basieren die Tarife auf den Preisen pro Einheit, die Kosten für die Infrastruktur sind aber mehr oder weniger fix. Private Haushalte, die in der Hoffnung ihre Heizkosten zu senken, hohe Beträge in Wärmepumpen oder Effizienzmaßnahmen investieren, könnten enttäuscht sein, wenn sich die Tarifstrukturen bei Gas in Richtung Fixkostendeckung verschieben und die Abrechnung nicht länger anhand der verbrauchten Einheiten erfolgt. Als ein Vorreiter auf dem Gebiet der „grünen“ Energie, könnte Deutschland zu den Profiteuren gehören. Eine Reform der Preisgestaltung bei Strom, CO 2 , Verkehr und Wärme würde den Märkten das nötige Rüstzeug für eine nachhaltige Zukunft an die Hand geben und könnte als Modell für Europa und den Rest der Welt dienen. Konzept 8 Das Research der Banken steht heute vor der größten Herausforderung seit Eliot Spitzer, damals kampfeslustiger Generalstaatsanwalt von New York, vor 15 Jahren die enge Verbindung zwischen Analysten und Investmentbankern zerschlug. Seit Januar müssen nun Bankkunden direkt für Research bezahlen, anstatt über eine allgemeine Provision. So dürften Analysten wie ich einen bösen Schock erleiden, wenn sie erkennen, was sie wirklich wert sind. Auch sind viele Beobachter der Ansicht, Research sei ohnehin zum Sterben verurteilt. Die sogenannte „Sellside“ teilt diese Untergangsstimmung jedoch nicht – obwohl wir generell als zynisch gelten. Wir sehen einer strahlenden Zukunft entgegen, mit nunmehr „entbündelten“ Inhalten, für die die Kunden nur allzu gerne bezahlen. Außenstehende beurteilen dies zu negativ, da sie nicht über die gleichen Daten verfügen wie wir. Das kann man ihnen nicht vorwerfen. Die Aufsichtsbehörden wollen ja gerade deshalb das Dickicht lichten, weil Research finanziell so eng mit dem Wertpapierhandel (Sales & Trading) verwoben ist. Künftig sollen die Kunden sehen, wofür sie bezahlen. Warum liegen die Schwarzmaler falsch? Nehmen wir unsere Leserschaft. Niedrige Klickraten werden oft als Zeichen von Desinteresse gewertet. Inzwischen werden die Analysten jedoch ermutigt, ihre wichtigsten Die Zeiten mögen sich ändern, doch Research ist kein Auslaufmodell Überlegungen in E-Mails zusammenzufassen, um den Kunden das Herunterladen ganzer Analysen zu ersparen. Im Schnitt wird etwa ein Drittel dieser E-Mails geöffnet – eine erhebliche Ausbeute. Zudem steigt diese Quote deutlich an, wenn eigene Analysen attraktiv verpackt werden. So werden unsere besten Inhalte häufig von mehr Interessenten gelesen als die kostenpflichtige Berichterstattung über die Finanzmärkte. Auch wurde in letzter Zeit häufig behauptet, das Research leide darunter, dass die Zahl der Mitarbeiter seit 2012 um ein Zehntel gesunken ist. Hier sieht das Bild jedoch noch etwas besser aus als im Investmentbanking insgesamt, wo der Personalabbau nach Angaben des Datenanbieters Coalition elf Prozent beträgt. Durch neue Technologien wurden bei Publikation und Vertrieb Mitarbeiter abgebaut; in den wichtigen Bereichen ist die personelle Ausstattung jedoch gesichert. So analysieren die acht großen Research-Häuser weltweit heute die gleiche Anzahl an Unternehmen wie vor zehn Jahren – im Schnitt 3.150 Firmen. Der brüskierende Hinweis, Investment- Research sei wertlos, hält einer genaueren Analyse noch weniger stand. Für Meetings mit unseren besten Analysten stehen die Kunden Schlange, und die Medien erwarten pro Quartal 300 Berichte von uns. Die Prognosen der Sellside fallen nicht schlechter als die anderer Berufsgruppen aus, und die Analysten werden nicht für die Auswahl der analysierten Unternehmen bezahlt. In den späten 90er Jahren, als ich noch als Portfolio-Manager tätig war, haben wir ein Prozent an Verwaltungsgebühren berechnet. Im Vergleich dazu kostet das Sellside- Stuart Kirk Dieser Kommentar zum Thema Investment Research von Stuart Kirk, Head of Thematic Research der Deutsche Bank AG, erschien am 14. Februar 2017 in der Financial Times. Konzept 9 Research nur einen Bruchteil, ca. 0,05-0,1 Prozent, oder im Branchenjargon fünf bis zehn Basispunkte. Angesichts des einzigartigen Know-hows ein ausgesprochenes Schnäppchen – vom Zugang zu Unternehmen, den Konferenzen, Modellen, der Marktpositionierung sowie allen anderen Leistungen ganz zu schweigen. Bei einem gebündelten Angebot wird dies aber kaum deutlich. Von unseren Kunden wissen wir, wie wertvoll unsere Analysen für sie sind, und sie teilen dies auch unabhängigen Beratern mit. In einer jährlichen Umfrage von Greenwich Associates wird die „Buyside“ – Fondsmanager und andere Investoren – gebeten, den erhaltenen Serviceleistungen einen prozentualen Anteil ihrer Provisionszahlungen zuzuordnen. Und in jedem Jahr zeigen die Antworten wieder, dass die Kunden für Research 45 Prozent, Transaktionsausführung 35 Prozent und Vertrieb 20 Prozent ausgeben würden. Natürlich kann das Research noch besser werden. Noch immer liefern wir zu viel Masse zu Lasten der Klasse – so produziert zum Beispiel meine Abteilung etwa 50.000 Analysen pro Jahr. Auch müssen wir die Chancen der Digitalisierung besser nutzen, um unsere Inhalte nutzerfreundlicher darzustellen. Einige unserer Kunden wollten darauf nicht mehr warten und haben stattdessen ihre eigenen Analystenteams etabliert. Tatsächlich ist dies aus unserer Sicht gar nicht so schlecht. Es ist die reinste Ironie: Große Research-Bereiche der Buyside nutzen letztlich oft noch mehr Sellside-Inhalte. Was bringt aber Research für die Bank- Aktionäre? In den vergangenen zehn Jahren haben alle Investmentbanken ihre Geschäftsmodelle auf den Prüfstand gestellt und harte Entscheidungen getroffen – teilweise wurden ganze Sparten geschlossen. Allerdings hat keine einzige ihr Investment-Research eingestellt, da jeder einzelne Bereich einer Bank direkt oder indirekt vom Research profitiert. Händler stellen fest, dass ihre Provisionen doppelt so hoch ausfallen, wenn eine Aktie durch einen Analysten betreut wird. Investmentbanker wissen, dass die Chance auf Abschluss eines Deals mit Unterstützung durch Research fünfmal so hoch ist. Und darüberhinaus erstreckt sich unsere Angebotspalette von Vorträgen auf Wealth Management-Konferenzen bis zu Briefings für die oberste Führungsebene des Unternehmens. Positiv ist auch anzumerken, dass wir kein Kapital benötigen. Research hat schon immer Erträge generiert, nur geschieht dies eher im Hintergrund. Aber das wird sich ändern, und mit etwas Glück werden die Erträge deutlich steigen. Die Statistik zu Leserkreisen, Terminanfragen und Telefonaten zeigt, dass die Nachfrage nach Research- Leistungen in Phasen der Unsicherheit – wie zur Zeit des Brexit-Votums oder des Wahlsiegs Donald Trumps – um mehr als das Doppelte ansteigt. Und ähnlich wie das aktive Fondsmanagement hat auch das Research nach der Krise unter den insgesamt geringen Renditen an den Finanzmärkten gelitten – die Welt war zu langweilig, zu uniform geworden. Nun da die Welt wieder kontroverser wird, spricht alles für eine Renaissance des Researchs. Konzept 10 Konzept 10 Nicholas Weng Hellseherei ist klar überbewertet. Für gute Anlageentscheidungen bedarf es keineswegs hellseherischer Fähigkeiten. Vielmehr kann man sich schon allein dadurch einen Vorteil verschaffen, dass man die allzu offensichtlichen Unzulänglichkeiten in den Prognosen der anderen Marktteilnehmer korrigiert. Betrachten wir zum Beispiel makroökonomische Daten wie die monatlichen Arbeitslosenzahlen für die USA, die Zahlen zur Industrieproduktion in der Eurozone oder die Inflationsrate in Japan. Im Vorfeld der Datenveröffentlichung veröffentlichen Analysten ihre Schätzungen zu den anstehenden Zahlen. Die Kollektivmeinung des Marktes speist sich aus dem Wissen der Masse, was bedeutet, dass die Konsensschätzung am Ende dem Mittelwert all dieser Einzeleinschätzungen von Analysten entspricht. Weichen die tatsächlichen Daten dann von diesem Konsens ab, reagieren die Preise verschiedener Anlagen direkt nach Veröffentlichung der Daten. Allerdings leiden von Analysten abgegebene Schätzungen und somit auch Konsensschätzungen unter systematischen Fehlern und Verzerrungen. Dies bietet Anlegern die Gelegenheit, eine bessere eigene Prognose zu erzielen, indem sie die Konsensschätzungen um diese bekannten Defizite bereinigen. Eine derartige Anpassung von Konsensprognosen ist ein wirkungsvolles Mittel um vorherzusagen, ob Persona—aus Fehlurteilen der Masse Kapital schlagen die tatsächlichen Zahlen im Vergleich zu der Konsensmeinung des Marktes eher positiv oder negativ überraschen werden. Der unlängst veröffentlichte Prognoseansatz Deutsche Bank Persona setzt genau hier an und berücksichtigt drei Erkenntnisse aus der Verhaltensforschung: den Ankereffekt, die rationale Verzerrung und die Aufmerksamkeitsverzerrung. Werfen wir zuerst einen Blick auf den Ankereffekt: Dieser führt dazu, dass Prognosen in Richtung der zuletzt bekannten Werte desselben Indikators tendieren. Angenommen, ein Analyst schafft es, eine vollkommen unverzerrte Schätzung einer zukünftigen Datenveröffentlichung abzugeben. Liegt der für diese Datenvariable vorliegende letzte Wert unter diesem neutralen Schätzwert, wird sich der Analyst vermutlich vor Abgabe seiner Prognose entscheiden, den endgültigen Wert nochmals nach unten zu korrigieren. Die tatsächlich abgegebene Schätzung wird also in der Regel irgendwo zwischen der unverzerrten Schätzung und der letzten Datenveröffentlichung liegen. Bei einigen Umfragen wie dem deutschen ZEW-Index oder dem britischen PMI für das verarbeitende Gewerbe entfalten die zuletzt veröffentlichten Daten eine so starke Ankerwirkung, dass sich die Prognosen der Analysten eher am letzten Wert und weniger an einer unverzerrten Schätzung orientieren. Doch nicht nur bei Umfragen, sondern auch bei Inflationszahlen kommt der Ankereffekt besonders zum Tragen. Ein gutes Beispiel sind die monatlich veröffentlichten Daten zur Verbraucherpreisinflation für die Eurozone und Konzept 11 Japan. Während der vergangenen 20 Jahre führte der Ankereffekt in 93 Fällen zu einer nennenswerten Verzerrung der Konsensschätzungen. Dabei ließ sich in 90 Fällen durch Anpassung um diesen Effekt vorhersagen, in welche Richtung die letztlich veröffentlichten Daten überraschen würden. Wenden wir uns nun dem Aufmerksamkeitsbias zu. Bestimmte miteinander in Zusammenhang stehende Indikatoren werden zeitversetzt veröffentlicht. Logisch wäre, dass der Analyst sämtliche verfügbaren Informationen in seine Prognosen einfließen lässt. Tatsächlich ist es jedoch so, dass er seine Aufmerksamkeit selektiv auf bestimmte Ereignisse richtet und andere, die nützliche Informationen liefern, ignoriert. Die Zahlen zur Industrieproduktion in der gesamten Eurozone werden beispielsweise nur wenige Tage nach den entsprechenden Werten für Italien und Deutschland veröffentlicht. Zwar korrigieren die Analysten ihre Prognosen für die Eurozone meist auf der Grundlage der mit Argusaugen beobachteten Daten für Deutschland, verzichten jedoch in der Regel darauf, ihre Schätzungen genauso sorgfältig an die Zahlen aus Italien anzupassen. Aus diesem Grund dienen Überraschungen bei den Zahlen zur Industrieproduktion in Italien als unerwartet guter Indikator für Überraschungen bei den Zahlen für die gesamte Eurozone. Das dritte Phänomen, das Persona berücksichtigt, ist die rationale Verzerrung, die darin besteht, dass Analysten unter Umständen Schätzungen abgeben, die nicht ihrer unverzerrten Prognose entsprechen. An den Märkten wird oft darauf verwiesen, dass bei Analystenschätzungen eine endlastige Verteilung häufiger ist als eine Normalverteilung, die Analysten also eher dazu neigen, extreme Ergebnisse vorherzusagen. Tatsächlich kommt eine Studie der New York Federal Reserve 1 zu dem Schluss, dass sich selbst dann divergierende Prognosen ergeben können, wenn alle Analysten mit denselben Prognosemodellen und Daten arbeiten. Bei Konsensberechnungen wird standardmäßig der Median aus allen zur Verfügung stehenden Analystenschätzungen herangezogen, ganz gleich, ob sich diese als korrekt erwiesen haben oder nicht. Persona weist den Analystenprognosen in Abhängigkeit ihres Track Record unterschiedliches Gewicht zu und passt die Konsensschätzungen entsprechend an. So wurden zum Beispiel die Konsensschätzungen zur Arbeitslosenquote und zur Verbraucherpreisinflation in den USA in den letzten 20 Jahren in 140 Fällen in nennenswerter Weise korrigiert. Durch Justieren des Verzerrungseffekts konnte mit einer Erfolgsquote von 95 Prozent vorhergesagt werden, ob die Zahlen am Ende negativ oder positiv überraschen. Persona bereinigte die Konsensschätzungen zu 27.000 Datenveröffentlichungen der letzten 20 Jahre für 152 Konjunkturindikatoren auf der ganzen Welt um all diese drei Verzerrungsfaktoren. In mehr als der Hälfte der Konzept 12 Unser ausführlicher Bericht „A Behavioural Approach to Event Forecasting – Introducing the Persona Model” steht unter gmr.db.com oder auf Anfrage zur Verfügung. 1 „Rational bias in macroeconomic forecasts“ von Laster, Bennett und Geoum, 1997, Federal Reserve Bank of New York Research Paper No. 9617. Zeit bzw. in über 15.000 Fällen wichen die angepassten Konsensschätzungen wesentlich von den ursprünglichen Prognosen ab. Und in 70 Prozent dieser 15.000 Fälle lagen die neuen Konsensschätzungen richtig, was die Richtung der Datenüberraschung anbelangt. Kann man sich diese beeindruckende Erfolgsquote bei der Prognostizierung von Überraschungen bei makroökonomischen Daten auch in einer praxistauglichen Handelsstrategie zunutze machen? In einem ersten Schritt gilt es dabei, die Transaktionskosten zu berücksichtigen. Diese fallen meist höher aus, wenn die Veröffentlichung wichtiger makroökonomischer Daten ansteht. Rechnet man mit einer Datenüberraschung und möchte eine bestimmte Anlageklasse dementsprechend handeln, sollte die Geld-Brief- Spanne um den Zeitpunkt der Datenveröffentlichung kleiner sein als die durch die Datenüberraschung ausgelöste Kursbewegung. Beispielsweise beträgt die Veränderung des Euro-Dollar-Wechselkurses durch die Veröffentlichung der Beschäftigungszahlen außerhalb der Landwirtschaft das Neunfache des Geld-Brief- Kurses zur selben Zeit, woraus sich enormer Spielraum für Überraschungen bei den Handelsdaten ergibt. Aus diesem Grund sind die meisten Datenveröffentlichungen zu Schwellenländern hingegen wenig geeignet für Spekulationsgeschäfte. Eine zweite Stolperfalle ist die Gefahr, dass die Persona-Prognose zwar hinreichend von der Konsensschätzung der Analysten abweicht, diese Abweichung jedoch vom Markt bereits eingepreist wurde, zum Beispiel weil eine sogenannte „Flüsterzahl“ (whisper number) kursiert. Dabei handelt es sich um eine deutlich vom Konsens der Analystenprognosen abweichende implizite Markterwartung. Unser Konzept filtert solche Fälle heraus, indem die historische Kursreaktion der Anlage auf von Persona identifizierte Überraschungen analysiert wird. Wie erfolgsversprechend ist dieses Verfahren? Bei Anwendung dieses Konzepts auf eine kurzfristige Multi-Asset-Handelsstrategie hätte sich für die letzten zehn Jahre eine Rendite von 25 Prozent nach Abzug der Transaktionskosten bei einer Sharpe Ratio (risikobereinigte Renditekennzahl) von nur 1,3 ergeben. Es ist ein Mythos zu glauben, dass das Geheimnis für erfolgreiches Anlegen in Zukunftsprognosen schlauer Menschen, die noch schlauere Modelle verwenden, liegt. Vielmehr vertreten wir die These, dass Anleger sich die Konsensschätzungen zu makroökonomischen Daten mit einer Erfolgsquote von 70 Prozent systematisch erfolgreicher zunutze machen können, wenn sie die verhaltenspsychologischen Verzerrungseffekte herausrechnen, die bei der Herausbildung der Marktschätzungen zum Tragen kommen. Die Zukunft ist immer mit Fragezeichen behaftet. Dies sollte Anleger aber nicht davon abhalten, zur Verfügung stehende Informationen gewinnbringend zu nutzen. Konzept 13 Für Menschen ohne besondere Technik- Affinität klingt die „Cloud“ wie ein mysteriöser und amorpher Ort. Die meisten Menschen wissen, dass sie rasant wächst, ihnen ist jedoch vermutlich egal, wo die Software-Systeme laufen oder Daten gespeichert sind – solange alles funktioniert. Zur allgemeinen Unkenntnis kommt die extreme Geheimhaltung durch die großen Cloud-Service-Anbieter. Für diejenigen, die dennoch mehr erfahren möchten, haben wir vor Kurzem einen Bericht über Rechenzentren verfasst. Einige Zahlen und Fakten aus dem Bericht lassen die Cloud hoffentlich etwas weniger nebulös erscheinen. Zunächst einmal können wir festhalten, dass der Hauptsitz der Cloud, wenn sie denn einen hätte, in Seattle wäre. Nicht zuletzt, weil dort die beiden Branchenriesen Amazon und Microsoft und auch Google ihren Sitz haben. Die physische Niederlassung der Cloud würde hingegen im Norden des US-Bundesstaates Virginia liegen. Die Daten sind zwar vage, Berichten zufolge laufen jedoch bis zu 70 Prozent des weltweiten Internet-Datenverkehrs durch Loudoun County in Virginia. Greenpeace hat zudem die Kapazitäten der Rechenzentren von Amazon nach Region geschätzt und ist zu dem Ergebnis gekommen, dass in Virginia bei Weitem die größten Kapazitäten bestehen. Überprüfungen in der Branche deuten darauf hin, dass allein Amazon 25 Rechenzentren in dem Bundesstaat hat und auch Microsoft und Oracle dort Rechenzentren Ein Blick ins Innere der Cloud Karl Keirstead errichtet haben. Der Norden von Virginia trägt inzwischen den Spitznamen „Data Center Alley“. Warum ausgerechnet dort diese Konzentration? Laut unseren Quellen gibt es dafür mehrere Gründe. Ein Grund sind die staatlichen Steuererleichterungen für Immobilien, Ausrüstung und Löhne. Hierzu zählen beispielsweise Steuervergünstigungen, Verkaufssteuerbefreiungen, Einkommensteuergutschriften, Grund- und Lohnsteuerermäßigungen sowie Befreiungen von Zulassungsgebühren. Zudem ist Virginia durch den EQIX Interconnection-Hub mit seinem umfassenden Angebot an Glasfaser-Netzwerken eine zentrale Region für das sogenannte „Internet- Backbone“, den Kern des Internets. Die räumliche Nähe zu US-Regierungsbehörden und zu großen Unternehmen an der Ostküste ist ein dritter Grund. Hinzu kommen günstige Grundstückskosten und niedrige Strom- und Energiepreise. Im Hinblick auf letztere erklärte Google einmal, der Energieverbrauch seiner Rechenzentren und Büros entspreche inzwischen dem Bedarf von ganz San Francisco. Unseren Quellen zufolge kostet der Bau eines durchschnittlichen Rechenzentrums rund USD 300-400 Mio. Im Jahr 2013 gab Amazon bekannt, dass seine Rechenzentren etwa USD 11 je Watt kritischer Leistung (die Spitzenlast für die Versorgung der Server und anderer Geräte) kosten. Diese Bewertung ergibt Sinn, denn die wesentlichen Kostenfaktoren (Fläche, Stromverbrauch, Kühlung) steigen in etwa linear zur Wattzahl. Mehr als die Hälfte der gesamten Baukosten dürfte in Ausrüstung zur Stromversorgung und Kühlung fließen. Aus Wettbewerbsgründen erhalten nur sehr Konzept 14 wenige Menschen Zutritt zu den Rechenzentren von Amazon, Microsoft oder Google. Auf Fotos sind jedoch üblicherweise keine Menschen zu sehen, sondern lediglich lange Regalreihen mit Server-Racks und anderen Gerätschaften, die mit bunten Netzwerkkabeln verbunden sind und von einem aufwändigen Kühlsystem versorgt werden. Microsoft gibt an, in seinem neuesten und größten Cloud-Rechenzentrum im Osten der USA könnten rund eine Million Server untergebracht werden. Falls sich die Anleger je gefragt haben, warum Microsoft auf Investitionsausgaben von mehr als USD 9 Mrd. im Jahr kommt: Das ist einer der Gründe. Amazon verfügt unseren Schätzungen zufolge inzwischen über 84 Rechenzentren in 14 verschiedenen Regionen weltweit – jedes davon ausgestattet mit durchschnittlich ca. 50.000 Servern. Das sind insgesamt mehr als vier Millionen Server! Die Tatsache, dass täglich rund 3.000 neue Server hinzukommen zeigt, dass Amazon und Co. im Hinblick auf Ausrüstung eine unglaubliche Einkaufsmacht besitzen. Auch Microsoft verfügt vermutlich über weit mehr als eine Million Server speziell für Cloud-Dienste (im Gegensatz zu Servern, die eigene Produkte unterstützen); und Google kommt für seine Cloud-Plattform auf eine ähnlich große Zahl. Für die meisten der großen Cloud-Anbieter rechnet es sich aufgrund ihrer Größe, Server nach eigenen Anforderungen zu entwickeln und diese von Auftragsproduzenten herstellen zu lassen. Auch Amazon ist an der Entwicklung seiner eigenen Router, Chips und Netzwerk-Infrastruktur selbst beteiligt. Um wieviel Speicherplatz geht es heutzutage? Bei Amazon, das gerade mit der Produktion seiner modernsten Speicherserver begonnen hat, rechnet man mit 1.110 Festplatten je Server. Daraus ergibt sich eine Gesamtspeicherkapazität von elf Petabyte (bzw. elf Millionen Gigabyte) je Server-Rack. Die Kosten eines Rechenzentrums sind auch eine Frage der Leistung. Amazon gab vor Kurzem an, das Unternehmen baue neue Rechenzentren bevorzugt mit einer Kapazität von 25-32 Megawatt. Gehen wir vom oberen Ende dieser Spanne aus, hätten die drei neuen Amazon- Rechenzentren in Ohio zusammen eine kritische Gesamtleistung von 96 Megawatt, womit sich die Kosten für ihre Errichtung auf USD 1,1 Mrd. belaufen. Einschlägige Überprüfungen haben ergeben, dass Microsoft 2009 USD 500 Mio. für sein Rechenzentrum in Chicago und Google 2015 USD 600 Mio. für ein Rechenzentrum in Oregon ausgegeben hat. Die Kosten für größere neue Cloud-Rechenzentren dürften folglich an eine Milliarde heranreichen. Solch enorme Kosten stellen eine sehr hohe Eintrittsbarriere dar. Zudem deuten diese großen Zahlen darauf hin, dass Kosteneinsparungen in der Cloud die zuletzt stattliche Margenanstiege bei Amazon, Microsoft und Google noch verstärkt haben könnten. Alle drei Unternehmen gaben „interne Effizienzsteigerungen der Rechenzentren“ als Grund dafür an, warum sie ihre Kostenziele übertreffen konnten. Wir haben versucht, einen Blick ins Innere der Cloud zu werfen, um zu sehen, welches die größten Kostenfaktoren sind. Dieses Wissen ist auch für Anleger wichtig, da ein Verständnis für die Entwicklung der Ausgabentrends aufzeigen kann, welche Möglichkeiten sich Drittanbietern eröffnen oder verschließen. Unsere Analyse hat ergeben, dass Serverkosten (einschließlich Motherboard, Chip- und DRAM-Komponenten) den größten Einzelposten ausmachen. Wir können daher davon ausgehen, dass Amazon, Microsoft und Google alles daran setzen werden, diesen Kostenfaktor zu reduzieren. Hierzu bietet sich ihnen die Möglichkeit, effizientere Server und Server-Racks zu entwickeln, verstärkt auf Auftragsproduzenten zu setzen und den Preisdruck auf die Hersteller wichtiger Komponenten, einschließlich Intel, zu erhöhen. Erschreckend war für uns, dass die relativen Kosten für Stromversorgung und Kühlung unsere Erwartungen bei weitem übertroffen haben. Hier bieten sich bisher nicht ausreichend analysierte Möglichkeiten der Kosteneinsparung und Margenverbesserungen. Während die Manager von Cloud-Rechenzentren sich wie besessen mit der Stromversorgung und Kühlung beschäftigen, machen sich die meisten Technologie-Analysten und Anleger kaum Gedanken über Stromtarife, Windenergie und Konzept 15 Techniken zur Kühlung von Hardware. Wir sollten damit anfangen. Dagegen sind die Netzwerkkosten in Relation zu den Kosten für Server und den verbundenen Geräten vergleichsweise gering. Eine Quelle gab an, dass die Investitionsausgaben für Netzwerke nur knapp einem Zehntel der Investitionskosten für Server-Ausrüstungen entsprechen. So erklärte auch Amazon schon vor Jahren, dass der Effekt von Einsparungen bei der Leistungsaufnahme von Netzwerken nur relativ gering ist. Dies ändert sich langsam, denn Amazon, Microsoft und Google richten ihren Fokus zunehmend auf die Netzwerkebene. Die Vorstellung von Cloud-Rechenzentren als menschenleere Räume schließlich trifft ziemlich genau zu. Das Verhältnis von Personal zu Servern ist so ausgelegt, dass in einem Cloud- Rechenzentrum mit 100.000 Servern unter Umständen gerade einmal 20-25 Mitarbeiter tätig sind. Aufgaben wie die Verwaltung der Server laufen in großen Cloud-Rechenzentren, mehr noch als in privaten Rechenzentren für einheitliche Anwendungen, hochautomatisiert ab. Die Personalkosten außerhalb der eigentlichen Rechenzentren können jedoch immens sein. Die großen Cloud-Anbieter beschäftigen eine große Zahl an Support-Mitarbeitern, die Geräte von außerhalb überwachen, neu starten oder reparieren, Mitarbeitern für den Betrieb, die die Leistung von Apps überwachen und Protokolldaten analysieren, sowie Entwicklern, die neue Dienste entwickeln, und Technikern, die die Hardware entwerfen. Eine Quelle teilte uns zudem mit, dass Amazon mittlerweile vermutlich mehr als 3.000 Mitarbeiter in den Bereichen Unser ausführlicher Bericht „Software/Tech – Under the Hood – Inside Cloud Data Centers“ steht unter gmr.db.com oder auf Anfrage zur Verfügung. Vertrieb und Marketing beschäftigt. Denken Sie also nicht, dass diese rasant wachsende Branche Jobs für Millionen von Arbeitern mit Sicherheitsbrille und Laborkittel bietet. Immer mehr Technologie-Zulieferer sehen indes in den riesigen Cloud-Anbietern die neuen Endabnehmer für ihre Produkte. Dadurch dass Amazon, Google, Microsoft und Co. zunehmend auf „interne Daten-Effizienzen“ verweisen, um die Rentabilität ihrer Cloud-Aktivitäten zu erklären, werden einige dieser Zulieferer das große Geschäft machen. Andere hingegen werden leer ausgehen. Eines haben wir jedoch sicher von unserem Ausflug in die Welt der Rechenzentren gelernt: Betrachtet man die Größe, die finanziellen Mittel und technologischen Innovationen, die nötig sind, liegen die Eintrittsbarrieren sehr viel höher, als gemeinhin erwartet wird. Konzept 16 Konzept 16 Operatives Leasing— kaum eine Bilanz bleibt verschont Luke Templeman In weniger als zwei Jahren droht den Unternehmen ein Anstieg der Passivposten in nie dagewesenem Ausmaß. Einer Umfrage unter 1.000 Unternehmen weltweit zufolge sollen die Verbindlichkeiten der Unternehmen sogar schlagartig um ein Viertel bzw. USD 1,5 Bio. steigen, wenn operative Leasingverhältnisse Einzug in die Bilanzen halten. Bei der Berechnung dieses Betrags bewegen sich die meisten Finanzmanager jedoch noch immer auf unsicherem Terrain. Viele orientieren sich an ihren Wettbewerbern. Die Schwierigkeit in der Umsetzung von IFRS 16 (bzw. ASU 2016-02 [topic 842] in den USA) liegt in den Grauzonen, die sich aus dem Wahlrecht in Bezug auf den Abzinsungssatz ergeben. Verständnishilfe leistet hier vielleicht eine kaum beachtete Anekdote von einer der letzten Konferenzen. In einer neuen Mitteilung legte das International Accounting Standards Board offen, dass drei Viertel der bei der Konferenz anwesenden Wirtschaftsprüfer für die Abzinsung zukünftiger Leasingzahlungen den jeweiligen Grenzfremdkapitalzinssatz (incremental borrowing rate) ansetzen möchten. Dass das IASB diese Möglichkeit gutheißt, ist enorm hilfreich, denn auf diese Weise kann der Abzinsungssatz wesentlich genauer veranschlagt werden. Dies gilt auch für die Auswirkungen auf die Unternehmensbilanz und den Fremdkapitalanteil. Wir haben uns zu diesem Zweck die Unternehmen im S&P 500-Index angesehen und für die Ermittlung des Abzinsungssatzes deren gewichtete durchschnittliche Fremdkapitalkosten vor Steuern zugrunde gelegt. Zwar ist eine Abweichung vom theoretischen Grenzfremdkapitalzinssatz eines Unternehmens möglich, da die Leasingobjekte in den meisten Fällen Gebäude oder andere materielle Gegenstände sind. Die Grenzkosten der Fremdmittelaufnahme für diese Objekte decken sich jedoch eher mit den gewichteten durchschnittlichen Fremdkapitalkosten des Unternehmens. Viel entscheidender ist aber, dass Unternehmen diesen Zinssatz gegenüber ihren Rechnungsprüfern besonders leicht als „angemessen“ rechtfertigen können. Im Anhang zum Jahresabschluss können zukünftige Leasingzahlungen abgezinst werden, um die gesamten Leasingverbindlichkeiten eines Unternehmens zu schätzen. Dieser Wert kann dann mit dem Ergebnis der weit verbreiteten Faustregel verglichen werden, bei der die aktuellen Leasingkosten mit acht multipliziert werden. Die Ergebnisse weichen deutlich Konzept 17 voneinander ab. Tatsächlich fallen die aktivierten Leasingverbindlichkeiten des als Median verwendeten Unternehmens bei Rückgriff auf die neue Abzinsungsmethode nur halb so hoch aus wie die anhand der Faustregel geschätzten Ergebnisse. Indes werden die Leasingverbindlichkeiten nur in Einzelfällen steigen. Wichtiger als die absolute Höhe der Leasingverbindlichkeiten eines Unternehmens ist jedoch deren Entwicklung bei sich im Zeitverlauf veränderndem Abzinsungssatz. Zu diesem Phänomen kommt es, da der Abzinsungssatz gemäß den neuen Vorschriften zum Zeitpunkt der Unterzeichnung des Leasingvertrags festgelegt wird. Nimmt die Zentralbank in der Zwischenzeit eine Leitzinsänderung vor, werden später abgeschlossene Leasingverhältnisse also möglicherweise zu einem anderen Satz abgezinst. Dies kann potenziell für Verwirrung unter den Unternehmen sorgen, die ansonsten vergleichbare Leasingverträge in anderen Intervallen verlängern als ihre Wettbewerber. Nehmen wir zum Beispiel zwei Einzelhandelsunternehmen, die ihre Geschäftsräume auf Grundlage identischer Mietverträge mit einer Laufzeit von zehn Jahren anmieten. Der einzige Unterschied besteht darin, dass das eine Unternehmen seinen Vertrag 2007 verlängert hat, als der Basiszinssatz bei fünf Prozent lag, das andere Unternehmen hingegen 2010, als sich die Zinsen in der Nähe der Nullprozentmarke bewegten. Die Leasingverbindlichkeiten des ersten Unternehmens fallen so um ein Viertel geringer aus als die des zweiten. Die niedrigeren Verbindlichkeiten wiederum sorgen dafür, dass andere Kreditgeber dem ersten Unternehmen günstigere Konditionen für zukünftige Kredite anbieten. Mit Blick auf die derzeit offenbar wieder steigenden US-Zinsen lassen sich Schätzungen zu den potenziellen Auswirkungen auf die Unternehmen anstellen. Dabei legen wir die Annahme zugrunde, dass die Laufzeiten der Leasingverträge eines Unternehmens in der Zukunft im Durchschnitt unverändert bleiben, da die verschiedenen Leasingverträge laufend verlängert werden. Gehen wir zudem davon aus, dass die Kosten für Unternehmenskredite analog zum Leitzins der US-Notenbank steigen und fallen, können wir die zukünftigen Fremdkapitalkosten für jedes Unternehmen anhand des Dot Plot, der die Zinserwartungen der Fed abbildet, schätzen. Wir erwarten, dass diese Fremdkapitalkosten in den nächsten drei Jahren entsprechend den aktuellen Schätzungen der Federal Reserve um 200 Basispunkte steigen werden. Ein höherer Abzinsungssatz führt rein rechnerisch natürlich zu niedrigeren Verbindlichkeiten. In vier Jahren werden die Verbindlichkeiten des als Median verwendeten Unternehmens sieben Prozent unter dem aktuellen Wert liegen. Dabei werden die Auswirkungen für die einzelnen Unternehmen jedoch sehr unterschiedlich ausfallen und die Standardabweichung wird allgemein bei acht Prozent liegen. In einigen Fällen werden die Verbindlichkeiten sogar um mehr als 30 Prozent niedriger ausfallen als heute. Der nächste logische Schritt besteht nun darin zu schätzen, wie sich der Fremdkapitalanteil der Unternehmen im Laufe der Zeit verändern wird und inwiefern dieses Ergebnis von der Schätzung anhand der oben Konzept 18 Unser ausführlicher Bericht “Accounting Lifeguard – The unexpected impact of lease accounting” steht unter gmr.db.com oder auf Anfrage zur Verfügung. genannten Faustregel abweicht. Hierfür nehmen wir zunächst die bestehenden langfristigen Verbindlichkeiten eines Unternehmens, addieren die abgezinsten Leasingzahlungen (abzüglich des innerhalb der nächsten zwölf Monate fälligen Anteils) und vergleichen das Ergebnis mit dem Eigenkapital des Unternehmens. Anschließend stellen wir dieselbe Berechnung erneut an, ersetzen jedoch die abgezinsten Leasingzahlungen durch die anhand der Faustregel geschätzten Leasingverbindlichkeiten. Fazit ist, dass der überwiegende Teil der Unternehmen bei Berechnung anhand der Abzinsungsmethode in vier Jahren einen niedrigeren Verschuldungsgrad aufweist als bei Berechnung anhand der Faustregel. Für einige Unternehmen hat dies wesentliche Auswirkungen. 50 der Unternehmen werden in vier Jahren gegenüber den Erwartungen auf Basis der Faustregel sogar einen mehr als 20 Prozent niedrigeren Verschuldungsgrad vorweisen. Eine Handvoll Unternehmen sieht sich hingegen mit einer Verschlechterung des Verschuldungsgrads konfrontiert. Dies lässt sich natürlich leicht als bloße Folge veränderter Rechnungslegung abtun. Tatsächlich bleibt der Cashflow davon unberührt, die Implikationen sind jedoch keineswegs unerheblich. Der vielleicht wichtigste Punkt ist, dass die tatsächlichen Kosten der Fremdkapitalaufnahme voraussichtlich für viele Unternehmen steigen werden. Diesen Punkt haben sogar die Aufsichtsbehörden selbst eingeräumt. Grund hierfür ist, dass die Kreditgeber einen besseren Überblick über die tatsächliche Höhe der Verbindlichkeiten eines Unternehmens erhalten. In einigen Fällen fallen diese unter Umständen niedriger aus als erwartet. Andere hingegen müssen sich der unangenehmen Realität höherer Verbindlichkeiten stellen. Im Rahmen der Verlängerung von Kreditfazilitäten dürften dann sicher auch die neu zutage getretenen Verbindlichkeiten Einfluss auf die Verhandlungen mit den Kreditgebern haben. Und schon bevor die Kreditfazilitäten neu verhandelt werden, wird sich die Veränderung bei vielen Finanzkennzahlen auf die Covenants bestehender Kreditfazilitäten auswirken. Zwar wird es bestimmt Kreditgeber geben, die die Veränderungen ignorieren. Doch spätestens, wenn ein Unternehmen unangenehm überrascht, wird man hart mit ihm ins Gericht gehen. Zum Schluss noch die gute Nachricht. Die Aushandlung eines Leasingvertrags dürfte einfacher werden. Derzeit nehmen Unternehmen mitunter bereitwillig ungünstigere Leasingbedingungen in Kauf, um ein rechtlich als operatives Leasing klassifizierbares Geschäft zu begründen, das nicht in der Bilanz erfasst werden muss. Mit Wegfall dieser Regelung werden auch die ungünstigen Bedingungen hinfällig. Konzept 19 Trump und der Währungsbasisswap John Tierney Jeder, der seit mindestens zehn Jahren an den Finanzmärkten aktiv ist, weiß, dass die Welt nach der Finanzkrise praktisch nichts mehr mit der Welt davor gemein hat. Die Aussicht, dass Donald Trump die alte Weltordnung wieder herstellen könnte, schickte US-Aktien und den US-Dollar auf einen Höhenflug und die Anleihemärkte auf Talfahrt. Das war keine große Überraschung. Unter der Oberfläche haben eher unscheinbare, aber sehr wichtige Märkte bislang jedoch noch keine nennenswerte Reaktion gezeigt. Seit der Krise sind die Notierungen an den Märkten für Währungsswaps, Zinsswaps und den LIBOR stark vom langjährigen Vorkrisenniveau abgedriftet. Und dieser Trend setzt sich weiter fort. Diese Märkte stehen zwar nicht so im Rampenlicht wie die Märkte für Aktien und Staatsanleihen, sind jedoch keineswegs Nischenmärkte. Ganz im Gegenteil: Sie sind tief, liquide und global. Warum haben sie sich dann nie erholt? Kurz gesagt wegen einer Kombination aus Zentralbankpolitik, strikter Finanzmarktregulierung und Bilanzproblemen im Bankensektor. Sollte Trump eine Deregulierung des Finanzsektors betreiben, dürften sich diese Marktverzerrungen allmählich korrigieren. Dann könnte sich der Markt vielleicht sogar wieder seinem Vorkrisenniveau annähern. Weniger Regulierungsdruck für den Finanzsektor würde wiederum zu mehr Wirtschaftswachstum beitragen, dem großen Ziel der US-Regierung. Diese Märkte sollte man daher im Auge behalten. Sie sind ein Barometer für die Skepsis in Bezug auf die Umsetzungsstärke des neuen US-Präsidenten. Die Entwicklung an den Währungsbasisswap-, Zinsswap- und LIBOR- Märkten in den kommenden Monaten und Jahren dürfte viel darüber aussagen, ob Trumps Politik der US- und vielleicht auch der Weltwirtschaft nachhaltig höheres Wachstum bringen und damit für kräftigen Auftrieb bei Aktien, Anleihen und Währungen sorgen wird. Nehmen wir das Beispiel eines Währungsbasisswaps von Euro, Pfund Sterling und japanischem Yen in US-Dollar. Dabei werden die erstgenannten Währungen verliehen und US-Dollar aufgenommen. Vor Ausbruch der Krise notierte dieser Swap in einer engen Spanne nahe null. Während der Krise drehte der Währungsbasisspread (Kosten für die Dollar- Aufnahme) aufgrund eines Mangels an Finanzierungsmitteln in US-Dollar und einer hohen Nachfrage nach US-Dollar deutlich ins Minus. Anstatt sich mit Beruhigung der Märkte jedoch wieder zu normalisieren, verharrte die Währungsbasis im negativen Bereich. Aktuell liegt der Euro-Dollar-Währungsswap bei etwa –45 Basispunkten. Der Yen-Dollar-Basisspread liegt bei rund –85 Basispunkten. Hauptursache des negativen Basisswaps in US-Dollar ist die anhaltend hohe Nachfrage nach Dollar-Finanzierungen von Banken und institutionellen Anlegern in Europa und Japan. Außerdem verfügten die US-Banken vor der Krise noch über Bilanzspielräume, um die Märkte wieder ins Gleichgewicht zu bringen, wenn sich der Basisswap zu weit vom Nullniveau wegbewegte. Nach der Krise leiden die Banken unter Bilanzzwängen und sind nicht in der Lage oder nicht bereit, US-Dollar zu verleihen. Aggressive Programme der quantitativen Lockerung seitens der Europäischen Zentralbank (EZB) und der Bank of Japan haben diese Problematik zusätzlich verschärft. Sowohl die Euro- als auch die Yen-Basisswaps erholten sich deutlich, als die EZB Ende 2012 und 2013 begann, ihr Wertpapierkaufprogramm auslaufen zu lassen. Als die Zentralbank ihre Anleihekäufe Ende 2014 jedoch wieder aufnahm, sanken der Euro- und der Yen-Währungsbasisspread aufgrund der niedrigen Zinsen und der Anleiheknappheit erneut in den negativen Bereich. Das Gleiche gilt für Dollar-Zinsswaps. Sie Konzept 20 notierten fast immer mit einem positiven Spread zu Staatsanleihen vergleichbarer Laufzeit. Dieser Spread spiegelt zu einem bedeutenden Teil ein Kontrahenten- und Bankkreditrisiko wider. Während der Krise stiegen die Swapspreads beträchtlich, was auf Bonitätsängste zurückzuführen war. Als die Zentralbanken mit quantitativen Lockerungsmaßnahmen reagierten, gingen die Spreads wieder deutlich zurück. In den USA sanken die Swapspreads bis ins 10-jährige Laufzeitensegment von knapp 40 Basispunkten auf rund 15–20 Basispunkte, und der 30-Jahres- Swapspread rutschte ins Minus und ist seither negativ. Der 10-Jahres-Swapspread fiel im zweiten Halbjahr 2015 in den negativen Bereich. Die negativen Swapspreads in den USA sind in erster Linie durch die hohe Nachfrage nach Duration in einem Umfeld sinkender Zinsen bedingt. Auch hier sind es Bilanzprobleme, die es den Banken unmöglich machen, bei diesen Geschäften als Kontrahenten aufzutreten wie vor der Krise. Bleibt die Frage, warum die Swapspreads sich im Zuge der jüngsten Verkaufswelle am Anleihemarkt nicht etwas erholen konnten. Ein wichtiger Faktor hierbei ist der Währungsbasisspread. Als die EZB 2013 ihr Wertpapierkaufprogramm auslaufen ließ, stieg der 30-Jahres-Swapspread parallel zum Währungsbasisspread von –40 Basispunkten auf nahe null. Als der Euro- und der Yen- Währungsbasisswap ins Negative drehten, sank der Swapspread weiter in negatives Terrain. Einfache Regressionsanalysen zeigen eine hohe Korrelation zwischen Zentralbankmaßnahmen einerseits und Währungsbasisspreads und Zinsswaps andererseits. Auch der 1-Jahres-LIBOR-Satz spielt insbesondere in den USA eine Rolle. Vor der Krise entwickelten sich 1-Jahres-LIBOR und 1-Jahres- Swaprendite parallel, da beide ein Gradmesser für das Kreditrisiko von Banken waren. Seit der Krise notiert der LIBOR-Satz für USA, Großbritannien, Europa und Japan tendenziell mit einem Aufschlag auf den 1-Jahres-Swapsatz. Im letzten Jahr hat er sich jedoch in den USA erhöht und zuletzt fast 50 Basispunkte erreicht. Eine Erklärung hierfür ist die Tatsache, dass für Zinsswaps seit der Krise striktere Besicherungsanforderungen gelten. Dadurch verringert sich das Adressenausfallrisiko. Der LIBOR repräsentiert als Interbankenzins dagegen die Kosten unbesicherter Darlehen zwischen Banken und somit einen reinen Bankenkreditrisikoaufschlag. Außerdem herrscht weiterhin Zurückhaltung in der Kreditvergabe. Besonders ausgeprägt war dies in den Krisenzeiten. Die jüngste Ausweitung der Differenz zwischen dem LIBOR- und dem Swap-Satz in den USA ist jedoch eine direkte Konsequenz der Geldmarktreformen von Oktober 2016. Konzept 21 Konzept 22 Den neuen Vorschriften zufolge können US- Geldmarktfonds einen Rücknahmepreis von einem US-Dollar nur dann garantieren, wenn sie in Staatsanleihen mit kurzer Laufzeit investieren. Dahinter steckt die Absicht, eine Wiederholung des Ansturms auf US-Geldmarktfonds zu vermeiden, zu dem es kam, als der Nettoinventarwert der Anteile des bedeutenden US-Geldmarktfonds Reserve Primary nach der Lehman-Pleite im Jahr 2008 unter 1,0 Dollar fiel („Break-the-buck“-Effekt). Um die Flut von Anteilsrücknahmen zu stoppen, legte das US-Finanzministerium damals ein befristetes Garantieprogramm für Geldmarktfondsanleger auf. Infolge dieser Reform wurden über eine Billion US-Dollar aus den Prime-Geldmarktfonds (bzw. rund 75 Prozent des Bestands Mitte 2015) in Staatsanleihen umgeschichtet. Bis dahin waren Prime-Geldmarktfonds für Banken stets eine wichtige Finanzierungsquelle gewesen, da sie hauptsächlich in Commercial Paper und Einlagenzertifikate von Banken investiert hatten. Als diese Quelle versiegte, stiegen die Interbankenzinsen (LIBOR-Zinssätze) insbesondere im längeren Laufzeitensegment drastisch an. Darin spiegelte sich die Knappheit an langfristigen Finanzierungsmitteln wider. Die Standarderklärungen für die Verzerrungen an den drei Märkten (Währungsbasisswap, US-Zinsswap und LIBOR) drehen sich – kurz gesagt – allesamt um eine Kombination aus Zentralbankpolitik, Angebots- und Nachfrage-Faktoren und Bilanzproblemen der Banken, die nicht mehr so viel Liquidität bereitstellen können wie noch vor der Krise. Diese schwierigen Marktbedingungen sind jedoch kein Novum, und die Märkte scheinen ihr Gleichgewicht zu finden. Wie also werden potenzielle Regulierungsreformen unter Trump, wie z. B. wesentliche Änderungen bei der Unternehmensbesteuerung und der Handelspolitik, diese Märkte beeinflussen? Solche Reformen würden sich stark auf den US-Dollar und die Währungsbasisspreads auswirken. Zu erwarten ist indes weniger eine Entspannung der Lage als eine Verschärfung. Sollte Trump im Rahmen eines „Tax Repatriation Holiday“ Steuererleichterungen für repatriierte Auslandsgewinne gewähren, könnten über eine Billion US-Dollar, die derzeit auf Konten ausländischer Banken liegen, in die USA zurückfließen. Dadurch würde eine wichtige Quelle von Finanzierungsmitteln in US-Dollar für ausländische Investoren und Banken verloren gehen. Eine restriktivere Handelspolitik, die Unser ausführlicher Bericht „The multi-asset essay: Forget Dow 20,000 – here are the markets to watch“ steht unter gmr.db.com oder auf Anfrage zur Verfügung. 1 Anleger können Währungen auf zwei Arten tauschen. Zum einen können sie Währungen tauschen und vereinbaren, sie zu einem künftigen Zeitpunkt zum aktuellen Terminkurs zurückzutauschen. Diese Geschäfte haben in der Regel eine Laufzeit von unter einem Jahr. Längerfristige Geschäfte erfolgen üblicherweise in der Form eines Währungsbasisswaps. Dabei tauschen Anleger Währungen und vereinbaren, sie zu einem künftigen Zeitpunkt zum aktuellen Kassakurs zurückzutauschen. Sie tauschen jedoch auch laufende Zahlungen auf LIBOR-Basis. Wenn ein Euro-Anleger US-Dollar aufnehmen möchte, zahlt er dem US-Dollar-Geber den Dollar- LIBOR-Satz, während er selbst den Euro-LIBOR-Satz erhält, in der Regel alle drei Monate. Besteht eine hohe Nachfrage nach US-Dollar, erhält derjenige, der Euro aufnimmt und US-Dollar verleiht, unter Umständen eine Prämie – entweder, indem er nur einen Betrag unterhalb des Euribor-Satzes zu zahlen hat oder indem er eine Zahlung in Höhe des Dollar-LIBORS zuzüglich eines Aufschlags erhält. Anm.: Dabei handelt es sich um abgesicherte Geschäfte im Gegensatz zu Outright-Währungskäufen bzw. -verkäufen. Das ist der Währungsbasisspread, der den Absicherungskosten für ein Devisengeschäft entspricht. Eine gute Erklärung für die Preisbildung bei Währungsswaps liefern Borio et al. 2 Siehe Trump tax repatriation: bullish USD, bearish dollar funding, FX Research, Deutsche Bank, November 2016. 3 Siehe Asia Macro in 2017: Year of Fatter Tails, Emerging Markets Research, Deutsche Bank, Januar 2017. darauf abzielt, Importe aus Asien zu verringern, könnte zur Folge haben, dass in viele asiatische Länder weniger US-Dollar fließen. In diesem Fall sähen sich diese Länder gezwungen, am Devisenmarkt US-Dollar aufzunehmen, was den Währungsbasisspread unter Druck setzen würde. Die zentrale Frage lautet nun, ob die US-Regierung die Regulierungsanforderungen an die Banken etwas lockern wird, um ihnen mehr Spielraum für Market Making und Risikomanagement zu geben. Zu diesem Zweck muss der Dodd Frank Act zur Finanzmarktstabilisierung überarbeitet und insbesondere die Volcker Rule, die den Eigenhandel beschränkt, abgeschafft werden. Da die Währungsswap-, Zinsswap- und LIBOR- Märkte seit der Wahl praktisch auf der Stelle treten, scheinen Anleger an diesen Märkten offenbar nicht mit baldigen Veränderungen zu rechnen. Anleger sollten diese Märkte im Auge behalten und dort zum einen nach Anhaltspunkten zum möglichen Umfang von Regulierungsänderungen (da Faktoren, die diese Märkte beeinflussen, eine hohe Relevanz haben) und zum anderen nach möglichen Convergence Trades Ausschau halten. Konzept 22 Martin Brough, Lucas Herrmann, Rineesh Bansal Das koffeinfreie Portfolio— mit DeCAF bei Dekarbonisierung von der Quantität zur Qualität Man stelle sich einen Investor vor, der in der Lage ist, mithilfe einer Kristallkugel korrekt die Warenmengen vorherzusagen, die jede Branche zukünftig verkaufen wird. Wie wäre es diesem Hellseher in den letzten beiden Jahrzehnten ergangen, wenn er sich bei seinen Anlageentscheidungen allein auf dieses bemerkenswerte Talent verlassen hätte? 23 23 Konzept Überraschenderweise lautet die Antwort, dass es seine Portfoliorendite dezimiert hätte. Das liegt daran, dass Investoren in den letzten zwanzig Jahren besser beraten waren, sich auf Sektoren mit fallenden statt mit ansteigenden Absatzvolumen zu konzentrieren. So hat beispielsweise die Tabakindustrie seit 1997 trotz des beständigen Rückgangs des weltweiten Tabakkonsums annualisiert eine beachtliche absolute Rendite von 13 Prozent erzielt. Das stellt nicht nur die vom Gesamtmarkt erzielten 4,5 Prozent in den Schatten, sondern liegt auch weit über den 2,3 Prozent des Telekommunikationssektors, obgleich dieser über alle G7-Länder hinweg von einem Rückenwind in Form einer Verdreifachung des Absatzes profitierte. Natürlich ist Korrelation nicht gleich Kausalität. Doch Investoren sollten sich die Wertentwicklungsstrukturen der letzten zwanzig Jahre eine Warnung hinsichtlich der Gefahr sein lassen, Quantität mit Qualität zu verwechseln. Das ist ganz besonders heute relevant, wenn Investoren gebannt in die Zukunft starren, um abzuschätzen, welche Auswirkungen die bevorstehende Dekarbonisierung der Weltwirtschaft über die nächsten zwanzig Jahre auf ihre Anlagenportfolios haben wird. Jetzt ist der richtige Zeitpunkt für Investoren, um sich mit der Frage der Dekarbonisierung auseinanderzusetzen. Über viele Jahre hinweg fand die Debatte über Klimawechsel zum Großteil unter Wissenschaftlern statt, die an ihren Klimamodellen tüftelten und über Erwärmungsgrade diskutierten. Durch die zunehmende Akzeptanz des zugrundeliegenden Arguments – dass der anthropogene Klimawandel Realität ist und eine Bedrohung darstellt – verschob sich jedoch die Debatte von der Wissenschaft in die Domäne der politischen Entscheidungsträger, mit dem Schwerpunkt auf praktischen Maßnahmen. Das Pariser Abkommen, in dem sich die politischen Entscheidungsträger letztes Jahr verpflichteten, die Erderwärmung in diesem Jahrhundert auf weniger als zwei Grad Celsius zu beschränken, stellte einen wesentlichen Durchbruch dar. Dafür wäre eine Einschränkung der jährlichen globalen CO 2 -Emissionen auf weniger als 20 Gigatonnen bis 2040 erforderlich, mehr als ein Drittel weniger als heute und die Hälfte des voraussichtlichen Wertes basierend auf den gegenwärtigen Trends. Das sind hochgesteckte Ziele, und es wird nicht einfach sein, sie zu erreichen. Auf dem Weg dorthin gibt es sicherlich Hindernisse, zum Beispiel die neue US-Regierung, die dem Klimawandel eher skeptisch gegenübersteht. Wir sind jedoch überzeugt, dass sich der Trend zur Dekarbonisierung im Nachgang des Pariser Abkommens fest etabliert hat und von Dauer ist. Was würde eine Halbierung der CO 2 -Emissionen bis 2040 Konzept 24 Konzept 24 bedeuten? Sie bedeutet einen Rückgang der globalen Erdölförderung auf 70 Mio. Barrel pro Tag, ein Viertel weniger als gegenwärtig. Sie bedeutet eine Halbierung des Einsatzes von Kohle, wobei 20 Prozent der chinesischen Kohleförderungskapazität vorzeitig aufgegeben würden müssten. Sie bedeutet eine Erhöhung der zusätzlichen gegenwärtigen Solar- und Windkraftkapazität von 140 Gigawatt pro Jahr um fünfzig Prozent. Und sie bedeutet eine massive Expansion der Verwendung von Elektrofahrzeugen – auf ca. 700 Mio., bzw. ein Drittel des gesamten Bestands an Pkw und leichten Nutzfahrzeugen , bis 2040. [Vgl. den nächsten Beitrag ab Seite 32 mit dem Titel „Die Lage des postkarbonen Landes“ für unsere detaillierte Analyse der verschiedenen quantitativen Auswirkungen der Dekarbonisierung] Für Investoren stellt das Pariser Abkommen somit eine Roadmap dar, die andeutet, wohin der quantitative Trend verschiedener Sektoren in den nächsten 25 Jahren gehen könnte. Allerdings sollten sich selbst mit dieser theoretischen Kristallkugel ausgestattete Investoren die Lehren der letzten zwei Jahrzehnte zu Herzen nehmen und nicht davon ausgehen, dass Volumen und Rendite unbedingt immer korrelieren. Anders als bei der klassischen CO 2 -Risikoanalyse zielt DeCAF – das Carbon Alignment Framework der Deutschen Bank – explizit auf die Beziehung zwischen Volumen und Wertentwicklung ab. Dabei ist zu beachten, dass diese nicht unbedingt korrelieren. So führen beispielsweise Mengenrückgänge bei fossilen Energieträgern nicht unbedingt zu „gestrandeten“ CO 2 - Beständen und Anlegerverlusten. Traditionelle Energieunternehmen können unter Umständen glänzende Erträge abwerfen, indem sie sich in sogenannte „Cash Cows“ verwandeln. Ebenso garantiert der Trend in die steigende Erzeugung von Energie aus erneuerbaren Quellen kein uneingeschränktes grünes Wachstum für Anlegerportfolios. Es ist möglich, dass das Gerangel um Volumensteigerung zum Risiko einer grünen Blasenbildung bei Unternehmen des Sektors erneuerbare Energien führt. [Für eine visuelle Darstellung von DeCAF sehen Sie bitte die Infografik auf Seite 58/59. ] Es ist daher für Investoren kritisch zu erkennen, ob die quantitativen Änderungen aufgrund von Dekarbonisierung mit entsprechenden Wertänderungen korrelieren. Aber wie? Drei Faktoren sind ausschlaggebend für die Ermittlung der Korrelation zwischen Volumen und Wertentwicklung: politische Instrumente, Maßnahmen des Unternehmens und das Tempo der technologischen Innovation. Nachfolgend erläutern wir alle drei im Detail, mit konkreten Beispielen. 25 25 Mit DeCAF bei Dekarbonisierung von der Quantität zur Qualität Zunächst die politischen Instrumente. Bei Änderungen der Fördermenge fossiler Energieträger kommt es für Investoren nicht nur darauf an, um „wie viel“, sondern auch „wie“ sich die Menge ändert. Das Pariser Abkommen gibt vor, um wie viel sich die Quantitäten ändern müssen, aber nicht, wie diese Änderungen zu erreichen sind. Wenn es jedoch um die Beurteilung der Auswirkungen auf die Wertentwicklung eines Unternehmens geht, können die verwendeten politischen Instrumente genauso wichtig sein wie das damit letztendlich verfolgte Ziel. Ganz konkret liegt der entscheidende Unterschied darin, ob die politischen Entscheidungsträger ihre quantitativen Ziele durch die Beeinflussung der Angebots- oder der Nachfrageseite des Marktes verfolgen. Diese beiden Ansätze haben gegenteilige Implikationen für den Markträumungspreis des zugrundeliegenden Gutes und daher auch einen gegensätzlichen Effekt auf den Wert der betroffenen Produzenten. Nehmen wir als Beispiel das politische Ziel, die Menge fossiler Energieträger zu drosseln, mit einem besonderen Augenmerk auf Kohle. Eine Möglichkeit wäre die Verhängung von absoluten Angebotsbeschränkungen, beispielsweise durch die Zwangsstilllegung von gewissen Kohleförderungskapazitäten seitens der Regierung. Dadurch verschiebt sich die Angebotskurve für Kohle nach links, was nicht nur die verfügbaren Mengen verringert, sondern auch den Markträumungspreis für Kohle steigen lässt. Demzufolge ergeben sich für den Rest des operativen Kohleangebots bei unveränderten Produktionsgrenzkosten bessere Gewinnspannen. Die verringerte Menge führt so zu einer Wertsteigerung für bestimmte Akteure – das bedeutet letztlich eine Diskrepanz zwischen Volumen und Wertentwicklung. Ein alternativer Ansatz zur Erreichung desselben Ziels – die Verwendung von Kohle zu drosseln – ist eine Reduzierung der Nachfrage, beispielsweise durch Erhebung einer deftigen CO 2 - Steuer auf den Verbrauch. So geht beispielsweise der IEA-Pfad zur Halbierung der Emissionen bis 2040 von einem stetigen Anstieg der Kohlenstoffsteuern aus, bis 2040 auf annähernd 140 Dollar pro Tonne CO 2 . Das entspricht 300 Dollar pro Tonne Kohle. Dadurch fällt die Nachfragekurve entsprechend ab, was zu geringeren nachgefragten Mengen, aber auch zu einem niedrigeren Markträumungspreis führt. In diesem Ansatz ist der gesamte Umfang der Kohleproduzenten negativ betroffen und leidet sowohl unter geringeren Absatzmengen wie auch unter geringeren Gewinnspannen – in diesem Fall korrelieren also der Rückgang von Volumen und Wertentwicklung. Der Unterschied zwischen Ansätzen, die auf Angebot bzw. Konzept 26 Nachfrage aufbauen, ist genauso relevant für die „grüne“ Industrie, wo statt Volumenrückgang ein Anstieg zu erwarten ist. Ein auf vermehrter Nachfrage beruhender Volumenanstieg, der zum Beispiel durch Subventionen für die Nutzung erneuerbarer Energien durch Privathaushalte ausgelöst wird, würde sowohl zu steigenden Preisen wie auch zu erhöhten Absatzmengen führen; der Anstieg von Volumen und Wertentwicklung würde also korrelieren. Andererseits würde eine auf der Angebotsseite ansetzende Volumensteigerung, z. B. ein auf Auktionen basierender Einsatz erneuerbarer Kapazitäten, mit der Gefahr verbunden sein, eine Diskrepanz von Volumen und Wertentwicklung zu verursachen, da zukünftige Erträge unter die Kapitalkosten gedrückt werden könnten. Ziel der politischen Entscheidungsträger ist es, die Emissionen zu verringern. Aber die Art und Weise, wie sie dieses Ziel erreichen, hat Konsequenzen für die Rendite von privaten Investitionen. Unkluge politische Entscheidungen könnten die Rendite von Unternehmen des fossilen Energieträgerbereichs verbessern und so das Kapital in den betroffenen Sektoren unbeweglicher machen. Gleichzeitig könnte es sich als widersinnig erweisen, Emissionen zu senken, jedoch dabei die Rendite „grüner“ Unternehmen zu untergraben. Die Dekarbonisierung ist ein ausgesprochen kapitalintensiver Prozess, und es ist unerlässlich, das Erzielen einer Rendite zu ermöglichen, die über die Kapitalkosten hinausgeht, um das benötigte Kapital anziehen zu können. Politische Entscheidungsträger müssen sich deshalb des Gegensatzes zwischen Mengen- und Wertentwicklung bewusst sein und Mechanismen wählen, die eine Korrelation beider Aspekte zur Folge haben. Der zweite Faktor nach den politischen Instrumenten, der bestimmt, ob der Wert eines Unternehmens mit seinem vorhersehbaren Volumenprofil korreliert, ist das Tempo der Veränderung. Es ist nicht nur wichtig, um wie viel sich die Volumen verändern werden, sondern auch wie schnell. Beispiel Erdgas: Der IEA-Pfad zur Halbierung der CO 2 - Emissionen bis 2040 geht davon aus, dass der Verbrauch von Erdgas steigt und im Jahr 2030 seinen Höchststand erreichen wird, der ca. 20 Prozent über den gegenwärtigen Volumen liegt. Das liegt daran, dass Erdgas in diesem Pfad als Übergangsenergieträger dient, nachdem die Kohle frühzeitig schnell heruntergefahren wird, und bevor die erneuerbaren Kapazitäten vollständig in Gang kommen. Jedoch könnte Erdgas selbst unter Druck geraten, falls der Niedergang der Kohle sich hinziehen sollte, bzw. falls sich die erneuerbaren Energien schneller als erwartet durchsetzen. 27 Mit DeCAF bei Dekarbonisierung von der Quantität zur Qualität In diesem hypothetischen Szenario – Erdgas unter Druck – bleiben die übergeordneten Kriterien zur Emissionsreduzierung bis 2040 durchaus erreichbar, aber statt anzusteigen, verläuft der Erdgasverbrauch hier eher flach, und erreicht sein Maximum im Jahr 2025, nur zehn Prozent über dem heutigen Stand. Die implizierte Umsatzverschiebung zwischen den zwei Szenarien beträgt zwei Billionen Dollar. Während Investoren ein Risiko gestrandeter Anlagen normalerweise mit Unternehmen des fossilen Energieträgerbereichs verbinden, sind selbst kohlenstoffarme Firmen nicht gegen dieses Risiko gefeit. Das rasante Wachstum von erneuerbaren Kapazitäten, in Verbindung mit der langen Lebensdauer dieser Anlagen, macht bereits erfolgte Investitionen anfällig gegenüber dem raschen technologischen Fortschritt und verschiebt somit die Kostenkurve nach unten. Ein solches Szenario würde eine gravierende Diskrepanz zwischen Volumensteigerung und Wertentwicklung darstellen. Politische Instrumente und Innovationstempo, die ersten beiden Faktoren, die sich auf die Korrelation von Volumen und Wertentwicklung auswirken, liegen außerhalb des Einflussbereichs des Unternehmens selbst. Die dritte und letzte Bestimmungsgröße jedoch ist die Reaktion der Unternehmensführung auf mögliche bevorstehende Änderungen der Absatzmenge. Kohlenstoffintensive Unternehmen mit rückläufigem Absatz müssen sich auf das Erzielen von Gewinnspannen aus der bestehenden Produktion konzentrieren, anstatt zu versuchen, Wertzuwachs durch Neuinvestitionen zu schaffen. Die Schreckensvision schlechthin wäre es, wenn diese Unternehmen ihr Kapital nur zögernd umschichten würden, da sie mit Fremdfinanzierung belastet sind, während die niedrigeren Grenzkosten gleichzeitig die Marktpreise beständig nach unten treiben. Das würde bedeuten, dass durch Volumenrückgänge tatsächlich Wert zerstört wird. Im Gegensatz dazu steht die Perspektive eines „Carbon Cash Cow“-Szenarios, in dem sich diese Unternehmen an eine Welt der Produktionsverminderung dadurch anpassen, dass sie sowohl Angebots- als auch Kapitaldisziplin durchsetzen. Dabei müssen Geschäftsführer ihr Augenmerk von Neuninvestitionen abwenden, und verstehen, dass gebundenes Kapital u. U. mehr Wert enthält. Die Folge sind hohe Ausschüttungsquoten und Unternehmen, die trotz Volumenrückgängen Anlegerwert liefern. Andererseits ist es für „grüne“ Unternehmen, die sich in einem Umfeld des starken Wachstums befinden, von entscheidender Bedeutung, sicherzustellen, dass die Rendite Konzept 28 Konzept 28 für Neuinvestitionen ihre Kapitalkosten übertrifft. Das klingt wie ein ganz einfaches und offensichtliches Rezept, jedoch kann man in der historischen Betrachtung jede Menge Beispiele von Unternehmen finden, die von einer Wachstumseuphorie in ihrem Sektor mitgerissen werden und ganz auf die Volumensteigerung setzen, zuungunsten des Aktionärsnutzens. In einer grünen Blase käme es durch Überoptimismus zu einem rapiden Aufbau überschüssiger Kapazität, mit geringeren Gewinnspannen und gleichzeitig weiter ansteigenden Volumen. Das Fazit lautet: Das Ergreifen von Maßnahmen gegen den Klimawandel ist eindeutig eine „Volumensache“, d. h. der Erfolg hängt davon ab, ob es möglich ist, die in die Atmosphäre freigesetzten CO 2 -Mengen drastisch zu reduzieren. Dabei geht die klassische Risikoanalyse für CO 2 jedoch normalerweise implizit von einer Korrelation von abgesetztem Volumen und Wertentwicklung der Unternehmen aus. Wir stellen hier ein explizites Rahmenkonzept zur Erläuterung der Beziehung zwischen Volumen und Wertschöpfung dar, das wichtige Implikationen für Investoren, Unternehmensführung und politische Entscheidungsträger aufzeigt. Gerade Anleger sind nicht an Volumen sondern an der Wertentwicklung interessiert. Es ist an der Zeit, dass sich ihr Beitrag zur Diskussion um den Klimawechsel weniger auf Grad Celsius und Gigatonnen von CO 2 und mehr auf Prozentpunkte der Anlageentwicklung konzentriert. Das Pariser Abkommen zur Einschränkung von Emissionen gibt in seiner Roadmap für die nächsten 25 Jahre drastische quantitative Änderungen in Schlüsselindustrien vor. Die Investoren müssen diese bevorstehenden Änderungen zur Kenntnis nehmen, doch noch wichtiger ist es, dass sie das hier beschriebene Rahmenkonzept nutzen, um festzustellen, ob Volumen und Wertentwicklung korrelieren. Es ist an der Zeit, aufzuwachen und den DeCAF zu schnuppern. 29 29 Mit DeCAF bei Dekarbonisierung von der Quantität zur Qualität Von Seiten der Politik mehren sich Forderungen nach einer Zusammenarbeit zwischen institutionellen Anlegern und Unternehmen. Gleichzeitig drängt die Umweltlobby darauf, dass Unternehmen die Energiewende vorantreiben und institutionelle Anleger in bestimmten Sektoren ihre Beteiligungen zurückfahren. So kommt es zu einer Lücke zwischen Volumen und Wertentwicklung. Denn die Interessen von Politikern und Lobbyisten werden per Definition nicht vom Wohl der Aktionäre geleitet. Ob die quantitativen Änderungen mit entsprechenden Wertänderungen korrelieren und die Unternehmen folglich in der Lage sind, den Aktionärsnutzen zu steigern, können Unternehmen nur im Gespräch mit der Unternehmensführung herausfinden. Ganz oben auf der Liste stehen dabei die folgenden Fragen: • Was sind Ihre Erwartungen für Energienachfrage und -angebot in den nächsten 10 bis 15 Jahren? Inwieweit unterscheiden sich diese von den IEA-Benchmarks? • Welche Rolle spielt die Energiewende bei Ihren Investitionsentscheidungen? Wer ist auf Vorstandsebene verantwortlich für die Energiewende? • Wo sehen Sie Ihr Unternehmen in Zukunft? Welche Produkte und Dienstleistungen wollen Sie anbieten? Welche Produkte und Regionen werden Sie nun meiden? • Inwieweit ist Ihr Unternehmen bereit, anstelle von Ersatzinvestitionen Wachstumskapital für innovative Technologien bereitzustellen? • Wie beurteilen Sie die Renditeaussichten? Wie schnell sollte die Reallokation erfolgen? Welchen Einfluss hat dies auf Ihre Ausschüttungspolitik? • Inwieweit verändern sich Ihre Zielmärkte und -unternehmen? Zeigt sich bei Ihren Hauptkunden eine zunehmende Fragmentierung? • Wohin geht angesichts der Energiewende in den nächsten zehn Jahren die Entwicklung bei den Energiepreisen? Was bedeutet das für die Margen? Gemeinsam mit den Unternehmen zur Dekarbonisierung Konzept 30 • Inwieweit werden Sie Finanzdaten aus den neuen Geschäftsbereichen offenlegen? Werden Sie eine “Energiewende”-Abteilung einrichten, um Investoren einen Einblick in Kapital und Erträge zu ermöglichen? • Legen Sie die Emission von direkten Treibhausgasen offen? Veröffentlichen Sie Informationen zu den indirekten Emissionen, die durch den Einsatz Ihrer Produkte beim Endverbraucher entstehen? • Erstellen Sie eine Prognose für den Kohlendioxidpreis oder eine CO 2 -Steuer? Wie kommt sie zur Anwendung? Deckt sie sowohl indirekte als direkte Emissionen ab? Wäre ein globales Kohlendioxid-Preissystem aus Ihrer Sicht positiv? • Was sind Ihre Annahmen bezüglich der Stilllegung und Sanierung von Produktionsstandorten? Welche Rückstellungen nehmen Sie hierfür vor? • Wie beurteilen Sie die Wahrscheinlichkeit, dass die von Ihrem Unternehmen verursachten CO 2 -Emissionen zu Sachschäden an einem Ihrer Standorte oder zu einer Schadensersatzpflicht gegenüber Dritten führen? • Worauf legen Sie besonderen Wert bei Gesprächen mit den Aufsichtsbehörden? Was würden Sie ändern, wo fehlt es Ihrer Meinung nach an Transparenz? 31 Mit DeCAF bei Dekarbonisierung von der Quantität zur Qualität Die Lage des postkarbonen Landes Caroline Cook, Rineesh Bansal Konzept 32 „Nach Öl bohren? Sie meinen, Löcher in die Erde bohren und hoffen, dass Öl rauskommt? Sie sind verrückt“. Das war die Antwort, die Edwin Drake – der amerikanische Pionier für Ölbohrungen – in den 1850er Jahren angeblich zu hören bekam, als er seinen Partnern eben diese innovative Geschäftsidee vorstellte. Ein halbes Jahrhundert später wurde der Präsident einer Bank berühmt- berüchtigt mit der Aussage „das Pferd wird es immer geben, das Automobil hingegen ist nur ein Novum – eine Modeerscheinung“. Solch historische Fehlprognosen bilden den Stoff für allerlei Anekdoten. Ist unsere heutige Einschätzung der Energielandschaft kommender Jahrzehnte etwa auch blind gegenüber den Veränderungen, die der Klimaschutz mit sich bringt? Konzept 33 Wie wichtig es ist, den Klimawandel unter Kontrolle zu bringen, wird von Jahr zu Jahr deutlicher. Mit alarmierender Regelmäßigkeit wird das heißeste Jahr seit Beginn der Aufzeichnungen ausgerufen. Erst kürzlich war es wieder soweit. Tatsächlich war 2016 das dritte Jahr in Folge, in dem ein neuer Wärmerekord aufgestellt wurde. Und die 15 heißesten Jahre der vergangenen anderthalb Jahrhunderte fielen alle in die letzten beiden Dekaden. Dass ein Zusammenhang zwischen anthropogenen Kohlendioxidemissionen und Erderwärmung besteht, ist angesichts der sich mehrenden wissenschaftlichen Belege inzwischen absolut unstrittig. Im Vergleich zur vorindustriellen Zeit hat sich unser Planet bereits um mehr als 1 Grad Celsius erwärmt. Bei einem unkontrollierten weiteren Anstieg der Kohlendioxidemissionen könnte dieser Wert auf mehr als 5 Grad steigen. Ähnliche Temperaturen wurden zuletzt vor 250 Millionen Jahren erreicht. Damals starben 95% aller Arten aus 1 . Ein „Weiter so“ bei den Kohlendioxidemission ist also sicherlich keine erstrebenswerte Option. Im Dezember 2015 einigten sich daher die Vertreter der Länder in Paris auf ein internationales Klimaschutz-Abkommen, mit dem die Erderwärmung auf unter 2 Grad Celsius begrenzt werden soll 2 . Wissenschaftler haben dies in ein CO 2 -Emissionsziel umgerechnet. Im Verlauf der vergangenen 25 Jahre ist der Ausstoß von Kohlendioxid von 20 auf 32 Gigatonnen pro Jahr gestiegen und dürfte in den kommenden 25 Jahren 40 Gigatonnen erreichen. Will die Staatengemeinschaft ihr in Paris vereinbartes Ziel von 2 Grad erreichen, müssten die Emissionen bis 2040 unter 20 Gigatonnen sinken. Dies entspricht einer Halbierung gegenüber dem aktuellen Trend. Aber schon bei einer Erwärmung von 2 Grad drohen schwere Folgen. Bei der Überprüfung des Pariser Abkommens im kommenden Jahr wird daher ein strikteres Ziel von 1,5 Grad auf der Agenda stehen. Zwar gab es zuletzt Befürchtungen, die neue klimaskeptische Regierung in den USA könnte den gesamten Prozess zum Stillstand bringen. Auch wenn Politik, Wirtschaft und Märkte den Kurs in der Klimapolitik kurzfristig beeinflussen könnten, an dem langfristigen Trend zur angestrebten Reduzierung der CO 2 -Emissionen ändert dies nichts 3 . Jede Permutation in der Emissionsreduzierung – und die Geschwindigkeit, mit der diese jeweils erreicht wird – führt zu einem neuen potenziellen Dekarbonisierungspfad. So wurden in einem vor zwei Jahren in der Fachzeitschrift Nature veröffentlichten Artikel 1.089 verschiedene Szenarien für CO 2 -Emissionen in der 1 In seinem 2007 veröffentlichen Buch “Six degrees: our future on a hotter planet” zeigt Mark Lynas im Detail auf, welche Folgen jedes weitere Grad Celsius an Erderwärmung in der Praxis hätte. 2 Genau genommen sieht das Abkommen vor, die Wahrscheinlichkeit einer globalen Erwärmung von über 2 Grad gegenüber dem Niveau vor der Industrialisierung auf unter 50% zu begrenzen. 3 Zu einer ähnlichen Einschätzung kamen zuletzt auch andere Kommentatoren – „There are reasons to be sceptical about US climate sceptics“ Jeremy Grantham und Lucas White, Financial Times vom 12. März 2017. Konzept 34 Zukunft identifiziert und jeweils den Folgen für die Erderwärmung bis Ende des Jahrhunderts gegenübergestellt. Statt mit einem weiteren Szenario zusätzlich zu verwirren, untersuchen wir an dieser Stelle, wie laut der Internationalen Energieagentur das in Paris vereinbarte Ziel einer Halbierung der Emissionen bis 2040 erreicht werden könnte, und beleuchten die Implikationen des von ihr skizzierten Benchmark-Szenarios. Das ist nicht das zentrale Szenario der IEA, sondern eine anspruchsvolle Projektion in Richtung einer CO 2 -freien Welt. Untermauert durch die Empfehlungen der von den G20 geförderten Taskforce on Climate-related Financial Disclosure dürfte dieses sehr wahrscheinlich standardmäßig in Szenarios und Risikoanalysen der Finanzbranche und Industrie zur Anwendung kommen. Das Wichtigste zuerst: Eine Reduzierung der CO 2 -Emissionen wäre nicht zwangsläufig mit einer Wachstumsverlangsamung verbunden. So ist der Kohlendioxidausstoß in den Industrieländern gegenüber den 1990er Jahren unverändert, die Wirtschaftsleistung seither aber merklich gestiegen. Das Benchmark-Szenario der IEA unterstellt bis 2040 ein kräftiges globales Wachstum von durchschnittlich 3,4%, und das bei gleichzeitig schwächerem Bevölkerungswachstum. Als Basis dienen die Prognosen der Vereinten Nationen, wonach die Weltbevölkerung bis 2040 um weniger als 1%, und damit um ein Drittel weniger als in den vergangenen 25 Jahren wächst. Pro Kopf würde die Wirtschaftsleistung um 2,5% steigen, doppelt so kräftig wie seit den 1990er Jahren. Auch wenn die Weltbevölkerung um weitere 2 Milliarden wächst und der Lebensstandard weltweit merklich besser wird, so das überraschende Ergebnis des IEA-Szenarios, könnten also die pro Jahr ausgestoßenen Kohlendioxidemissionen in den kommenden 25 Jahren halbiert werden. Wie kann das sein? Unter der Annahme, dass Wirtschaftswachstum und Dekarbonisierung Hand in Hand gehen, muss der Anpassungsprozess über eine Verringerung des CO 2 -Ausstoßes pro Einheit BIP erfolgen. Im Zeitraum von 1990 bis 2015 war dieser um mehr als ein Viertel rückläufig. Um die im Pariser Abkommen vereinbarten Ziele bei gleichzeitiger Verdopplung der Wirtschaftsleistung zu erreichen, wäre bis 2040 allerdings ein Rückgang um weitere drei Viertel erforderlich. Gemäß dem IEA-Szenario müssten zu diesem Zweck sowohl die Energieintensität der Wirtschaft als auch die Kohlendioxidintensität der Energie um die Hälfte gesenkt werden. Was bedeutet das praktisch? Wie realistisch sind diese Annahmen? An welchen Stellschrauben könnte die Politik drehen, um diese Ziele zu erreichen? In den vergangenen 25 Jahren ist die Energieintensität 35 Die Lage des postkarbonen Landes Das Klimaschutz-Abkommen von Paris sieht vor, dass die jährlichen Kohlendioxidemissionen bis zum Jahr 2040 halbiert werden. Um dieses Ziel zu erreichen, muss der Anteil der fossilen Brennstoffe an der gesamten Energieversorgung von heute 80% auf unter 60% fallen. Konzept 36 Konzept 36 der Weltwirtschaft um fast ein Drittel gesunken. Allerdings ist das je Energieeinheit produzierte Bruttoinlandsprodukt in den Ländern mit der größten Energieeffizienz rund 16mal so hoch wie das in den Ländern mit der geringsten Effizienz. Es besteht also durchaus noch Luft nach oben. Demzufolge geht die IEA davon aus, dass sich die Verringerung der Energieintensität im Verlauf der kommenden 25 Jahre nicht nur fortsetzt, sondern sogar auf 50% beschleunigt. Wie energieintensiv eine Wirtschaft ist, hängt vor allem von zwei Faktoren ab: den strukturellen Veränderungen in der Wirtschaft und den Verbesserungen der Effizienz. So hat die Verlagerung von der industriellen Fertigung zu Dienstleistungen in den Industrieländern zu einer Reduzierung der Energieintensität in den letzten 25 Jahren geführt. Auch in China findet, wie die Daten zeigen, inzwischen ein solcher Wandel statt, weshalb auch hier die Energieintensität im Verlauf der nächsten Jahre weiter sinken wird. Offen ist hingegen, wohin in den kommenden Jahrzehnten die Reise in Indien und Afrika geht. Schätzungen der IEA zufolge hat sich der weltweite Verbrauch von Energie, der Effizienzstandards unterliegt, seit 2005 auf mittlerweile ein Drittel verdoppelt. Da sich dieser Trend fortsetzen dürfte und gleichzeitig neue Effizienzstandards im Schwerlastverkehr oder bei der Regelung der Luft- und Wassertemperatur eingeführt werden dürften, ist mit zusätzlichen Verbesserungen der Energieeffizienz zu rechnen. Auch die Einführung moderner Energietechnologien von intelligenten Netzen über Dimmerschalter bis hin zu LED-Birnen und drehzahlgeregelten Antriebssystemen dürfte in den kommenden Jahren für einen Schub sorgen. Während die Reduzierung der Energieintensität in der Wirtschaft bereits auf den Weg gebracht wurde, ist bei der Verringerung der Kohlenstoffintensität in der Energieerzeugung noch viel zu tun. Der Anteil der fossilen Brennstoffe an der gesamten Energieversorgung liegt heute wie vor 25 Jahren bei 80%. Trotz des Pariser Abkommens, das eine Reduktion auf weit unter 60% vorsieht, prognostizieren die meisten Ölkonzerne bis 2040 nach wie vor einen Anteil von 75–80%. Der Weg zur Dekarbonisierung führt vor allem über den Transport- und Stromsektor, wobei der Schlüssel in der Elektrifizierung und den Erneuerbaren liegt. So ist der Transport, wo als Energiequelle vor allem Öl zum Einsatz kommt, für ein Viertel der weltweiten Emissionen verantwortlich. Voraussetzung für das Erreichen der in Paris vereinbarten Ziele ist laut der IEA die Reduzierung des Ausstoßes um ein Viertel bis 2040. In diesem Szenario erreicht 37 Die Lage des postkarbonen Landes die Energienachfrage im Transportsektor um das Jahr 2030 herum ihren Höhepunkt und liegt 2040 ungefähr wieder auf dem heutigen Niveau. Unter der Annahme, dass die Energienachfrage in den nächsten 25 Jahren unverändert ist, müsste der Anteil von nichtfossilen Brennstoffen von derzeit 5% auf ein Drittel zunehmen. Die Hälfte der gesamten Energienachfrage im Transportsektor entfällt auf Personenkraftwagen und leichte Nutzfahrzeuge. Seit Beginn des Jahrtausends konnte die Effizienz von Verbrennungsmotoren jährlich bereits um mindestens 1% gesteigert werden. In den OECD-Ländern liegt der Verbrauch von Neufahrzeugen schon jetzt im Schnitt bei nur noch 7–8 Liter pro 100 km. Bis 2040 wäre laut der IEA eine weitere Reduktion auf 4 Liter pro 100 km erforderlich. Auch wenn diese Ziele durchaus realistisch erscheinen, die geringen Effizienzsteigerungen sind mit hohem technischen Aufwand und steigenden Kosten verbunden. Bis 2025 könnte der Elektromotor daher die kostengünstigere Variante sein. Zudem ist der Elektroantrieb technisch gesehen deutlich weniger aufwändig als der moderne Verbrennungsmotor. Hersteller weltweit könnten daher ihre Produktion schnell umstellen. Bis 2040, so die IEA, müssten 700 Millionen Elektrofahrzeuge in Betrieb sein, um die Ziele des Pariser Abkommens zu realisieren. Dies entspricht einem Drittel des prognostizierten weltweiten Bestands an Personenkraftwagen und leichten Nutzfahrzeugen. Was bedeutet das für die zukünftige Ölnachfrage? Unter der Annahme, dass der Verbrauch tatsächlich auf 4 Liter pro 100 km sinkt und der Bestand an Elektroautos auf 700 Millionen steigt, würde die von Personenkraftwagen und leichten Nutzfahrzeugen ausgehende Ölnachfrage im Verlauf des kommenden Jahrzehnts ihren Höhepunkt erreichen. Für den gesamten Transportsektor hingegen rechnet die IEA aufgrund der gleichzeitig in Schiff- und Luftfahrt, Schwerlastverkehr und anderen Bereichen des Transportsektors resultierenden Verbesserungen damit, dass die Ölnachfrage sogar schon 2020 bei 50 Millionen Barrel pro Tag den höchsten Wert erreicht und bis 2040 unter 40 Millionen Barrel fällt. Insgesamt wird ein Rückgang von derzeit 95 Millionen auf 70 Millionen im Jahr 2040 prognostiziert – zu aktuellen Preisen entspricht dies einer jährlichen Umsatzeinbuße von einer halben Billion US-Dollar für die Ölindustrie. Die zweite zentrale Säule für eine erfolgreiche Dekarbonisierung ist der Stromsektor. Laut IEA stehen dabei zwei Ziele im Fokus. Erstens, der Stromanteil am gesamten Endenergieverbrauch muss weiter steigen. In den vergangenen 40 Jahren hat sich dieser auf 18% verdoppelt. Ziel für 2040 sind 24%. Zu diesem Zweck müssten allerdings die weltweiten Konzept 38 Erzeugungskapazitäten nahezu verdoppelt werden. Zweitens, der Anteil kohlenstoffarmer Energiequellen an der gesamten Stromerzeugung müsste von derzeit einem Drittel auf drei Viertel im Jahr 2040 um mehr als das Doppelte steigen. Somit wäre der gesamte Nettoanstieg der weltweiten Erzeugungskapazitäten in den nächsten 25 Jahren auf nicht-fossile Energieträger zurückzuführen. Die deutlichsten Zuwächse werden bei Solar- und Windenergie erwartet. Zusammen würden diese dann 30% der gesamten Stromerzeugung ausmachen, gegenüber weniger als 5% heute. Als Treiber im Bereich kohlenstoffarmer Energien gelten vor allem China, Indien und der Nahe Osten. Übertrieben optimistisch sind auch diese Prognosen nicht. Tatsächlich prognostiziert die IEA für die Solarenergie ein geringeres Plus in den nächsten fünf Jahren als die Analysten der Deutschen Bank. Eine weitere Voraussetzung für eine Halbierung der Emissionen bis 2040 wäre laut der IEA eine Verdopplung der Kernkraftkapazitäten. Während für China und Indien ein Ausbau der Kapazitäten erwartet wird, unterstellt die IEA für die USA und Europa den Ersatz alter Kernkraftwerke durch Neubauten. Tatsächlich zeigen private Investoren in den Industrieländern aber wenig Neigung, in Kernkraft zu investieren. Die weitaus größte Herausforderung ist allerdings der zügige Ersatz von billiger Kohle im heimischen Energiemix. So müssten die Kohlekapazitäten um rund ein Drittel sinken, bei gleichzeitigem Rückgang des Anteils am Strommix von 40% auf unter 10%. Realisieren lässt sich dieses Ziel zum Teil dadurch, dass alte Kraftwerke nicht ersetzt werden. Dies gilt insbesondere für die USA und Europa. Anders in China, wo bis zu ein Fünftel der Kohlekraftwerke vorzeitig geschlossen werden müsste, darunter auch solche, die erst kürzlich den Betrieb aufgenommen haben. Im Endeffekt wäre deutlich mehr als ein Drittel der Kohleminen bis 2030 von einer vorzeitigen Stilllegung bedroht. Während Öl und Kohle eindeutig zu den Verlierern der Dekarbonisierung gehören, zeigt sich bei Erdgas ein differenziertes Bild. Laut der IEA gehört Gas als Übergangslösung zwischen der zügigen Schließung von Kohlekraftwerken und der vollständigen Erschließung der Erneuerbaren zu den Profiteuren. So geht die IEA davon aus, dass die Nachfrage nach Gas in den kommenden beiden Dekaden um 15% zunimmt. Tatsächlich könnte Gas aber unter Druck geraten. Fällt der Rückgang bei den Kohlekapazitäten geringer und der Anstieg bei den nicht-fossilen Kapazitäten kräftiger als erwartet aus, würde statt Wachstum eine Stagnation drohen. Dies impliziert eine Umsatzeinbuße von 2 Billionen US-Dollar. 39 Die Lage des postkarbonen Landes Um das angestrebte Dekarbonisierungsziel zu erreichen, bedarf es eines grundlegenden Wandels bei der Produktion von fossilen Brennstoffen. Hierfür müsste die Politik entsprechende Anreize setzen. Derzeit fließen weltweit jedes Jahr fast eine halbe Billion US-Dollar in die Förderung fossiler Energieträger. Die Annahmen der IEA basieren auf deren völligem Abbau bis 2040. Einzige Ausnahme wäre der Nahe Osten. Eine größere Rolle spielt allerdings die CO 2 -Steuer. Heute unterliegen gerade mal knapp 15% der weltweiten Emissionen irgendeiner Form von Steuer. Pro Tonne Kohlendioxid werden dabei im Schnitt lediglich 7 US-Dollar fällig. Angesichts des Rufs in der Politik nach einer Erhöhung und Ausweitung unterstellen inzwischen immer mehr Unternehmen für die Zukunft einen Anstieg der CO 2 -Steuern auf rund 40 US-Dollar pro Tonne. Für eine Halbierung der Emissionen müsste der IEA zufolge aber ab Ende 2020 in fast allen Ländern weltweit der CO 2 -Ausstoß kräftig besteuert werden. Bis 2040 unterstellt sie einen Anstieg auf 140 US-Dollar pro Tonne (in 2015 US-Dollar gerechnet). Dies entspricht 45 US-Dollar für ein Barrel Öl und 300 US-Dollar für eine Tonne Kohle. Natürlich steigt damit der Anreiz, auf alternative Energieträger auszuweichen. Aber wäre dies politisch auch machbar? Oder ist ein grundsätzliches Verbot von fossilen Brennstoffen resp. eine Wende hin zu anderen Energieträgern die wahrscheinlichere Option in zehn Jahren? Eine weitere Herausforderung im Dekarbonisierungs- Szenario besteht in den erforderlichen Verschiebungen bei den Anlageinvestitionen. Eine verringerte Kohlenstoffintensität der Energieerzeugung obliegt der Angebotsseite, was massive Kapitalumschichtungen bedeuten würde. Schätzungen der IEA zufolge müssten für das Erreichen des 2-Grad-Ziels bis 2040 im Energiesektor Gesamtinvestitionen in Höhe von 75 Billionen US- Dollar (in 2015 US-Dollar gerechnet) fließen – 10 Billionen mehr als auf dem 5-Grad-Pfad. Des Weiteren unterstellt die IEA eine massive Verschiebung bei den Ausrüstungsinvestitionen. So sind im Verlauf der nächsten 25 Jahre die Investitionen in die Produktion von fossilen Brennstoffen und Stromerzeugungskapazitäten um 15 Billionen US-Dollar rückläufig. Demgegenüber steht ein Anstieg von 5 Billionen US-Dollar bei kohlenstoffarmen Energieträgern und 20 Billionen US-Dollar bei Endenergieeffizienz. Der Löwenanteil entfällt dabei auf den Transportsektor im Allgemeinen und die Effizienzverbesserung von Verbrennungsmotoren und den Vormarsch des Elektroautos im Besonderen. Während bei fossilen Brennstoffen eine Halbierung des Investitionsbedarfs auf 700 Milliarden US-Dollar p.a. anstehen würde, stünde bei Konzept 40 kohlenstoffarmen Energieträgern und Netzen ein Anstieg auf 800 Mrd. US-Dollar zu Buche. In der Theorie lassen sich Verschiebungen in dieser Größenordnung durch den Einsatz des bestehenden Systems, Know-hows und Personals bei der Reinvestition von freien Cashflows bewältigen. In der Realität hingegen stehen enorme institutionelle Hürden im Weg – nicht zuletzt die Annahme, den Unternehmen fehle es an der nötigen Kompetenz für diese Aufgabe und es könne daher auf kurze Sicht eine starke Verwässerung der Renditen drohen. Die praktischen Aspekte von Besteuerung und Investitionen sind die eine Seite der Medaille. Die andere Seite ist der größte Wegbereiter des Energiewandels und womöglich auch die größte Gefahr. Das Internet der Dinge, intelligente Steuerung, Big Data- Analyse sind Schlüsselfaktoren bei der Steigerung der Effizienz und der optimalen Marktdurchdringung neuer Energieträger. Könnte diese Revolution durch einen massiven Cyberausfall oder einen Übergriff künstlicher Intelligenz ins Wanken geraten? Wer ist verantwortlich für die Analyse und Bekämpfung dieser Risiken? Ohne Zweifel sind die kommenden beiden Dekaden eine kritische Phase für den Klimaschutz. Zwar gibt es Möglichkeiten, die Erderwärmung zu reduzieren. Doch auf dem Weg dorthin werden die Energiebranche und andere Sektoren einen radikalen Wandel durchlaufen müssen. Investoren sollten sich bewusst sein, was die Annahmen hinter den politischen Zielen für die Geschäftsentwicklung in den einzelnen Sektoren bedeuten. Denn Ignoranz oder Fehleinschätzungen könnten bei kommenden Generationen für Kopfschütteln sorgen. 41 Die Lage des postkarbonen Landes Energiewende belastet Investitionen energieintensiver Unternehmen in Deutschland Eric Heymann Konzept 42 Die deutsche Energiewende ist ein Jahrhundertprojekt. Sowohl der Ausgang dieses Projekts als auch der Weg dorthin sind hinsichtlich der politischen Maßnahmen und Instrumente, der wirtschaftlichen Folgen für private Haushalte und Unternehmen und des technischen Fortschritts unsicher. Dies hat schon heute erheblichen Einfluss auf das Investitionsverhalten von Unternehmen in Deutschland, vor allem in der Industrie. Konzept 43 Die Energiewende in Deutschland hat in den letzten Jahren zu steigenden Strompreisen geführt. Dies gilt für private Haushalte und gewerbliche Kunden. In Deutschland übertrafen im 1. Halbjahr 2016 die Strompreise für industrielle Kunden mit einem Stromverbrauch von 500 bis 2.000 MWh pro Jahr – inklusive aller Steuern und Gebühren – den EU-Durchschnitt um knapp 36%. Lässt man dagegen Steuern und Gebühren außen vor, lagen die deutschen Strompreise für die gleiche Kundengruppe Anfang 2016 sogar um 6% unter dem durchschnittlichen EU-Niveau. Interessant ist ferner, dass die deutschen Strompreise inklusive Steuern und Gebühren im Jahr 2000 nur um 3% über dem damaligen Mittelwert der EU lagen. Es ist also offenkundig, dass der überdurchschnittlich starke Anstieg der Strompreise für industrielle Endkunden in Deutschland maßgeblich mit staatlichen Maßnahmen zu erklären ist; ein ähnliches Bild ergibt sich beim Blick auf private Stromkunden. Die EEG-Umlage auf den Strompreis, über die der Ausbau der erneuerbaren Energien im Stromsektor finanziert wird, ist ein wesentlicher Grund für den Anstieg der Strompreise in den letzten Jahren. 2016 machte sie bei privaten Haushalten gut 40% aller Steuern, Abgaben und Umlagen auf den Strompreis aus; 2005 waren es erst etwa 9%. Die EEG-Umlage stieg Anfang 2017 auf 6,88 Cent pro kWh. Sie liegt damit allein deutlich über dem durchschnittlichen Börsenstrompreis der letzten Jahre, der im Wesentlichen die Kosten für die reine Stromerzeugung der Kraftwerksbetreiber widerspiegelt. Inklusive Steuern und Gebühren ist der Strompreis für industrielle Kunden in der oben genannten Abgrenzung zwischen 2000 und dem 1. Halbjahr 2016 in Deutschland um mehr als 140% gestiegen. In der EU lag der Zuwachs „nur“ bei rd. 83%. Der Anstieg hat sich zuletzt zwar verlangsamt, u.a. weil die Preise für Energierohstoffe, die zur Stromerzeugung eingesetzt werden (Kohle und Gas), ebenfalls gesunken sind. Letztlich ist aber festzuhalten, dass die schwankenden Preise für Öl, Kohle oder Gas die Unternehmen in der EU ähnlich betreffen. Der Endkundenpreis für Strom (oder auch Kraftstoffe) wird dagegen maßgeblich von fiskalischen Maßnahmen beeinflusst. Ein derart starker Anstieg der Strompreise hat Einfluss auf die internationale Wettbewerbsfähigkeit der Unternehmen in Deutschland und deren Investitionsverhalten. Um besonders energieintensive Betriebe (z.B. aus der Chemieindustrie oder der Metallerzeugung) im internationalen Wettbewerb nicht zu stark zu belasten, sah der Gesetzgeber daher von Beginn an großzügige Ausnahmeregelungen für solche Unternehmen vor. Sie profitieren z.B. davon, dass sie eine deutlich niedrigere EEG-Umlage oder Konzept 44 geringere Netzentgelte zahlen müssen. Als Konsequenz dieser Ausnahmeregelungen dürfte das absolute Niveau der Strompreise in Deutschland für die begünstigten Unternehmen im internationalen Wettbewerb keine Beeinträchtigung darstellen. Diese Schlussfolgerung ist jedoch unvollständig, denn sie vernachlässigt den Aspekt der Unsicherheit: Tatsächlich ist es unsicher, wie lange die genannten Ausnahmeregelungen in Kraft bleiben. Sowohl von Seiten der EU als auch aus politischen Kreisen sowie von Teilen der Wissenschaft werden die Vergünstigungen in unregelmäßigen Abständen oder permanent kritisiert; dies geschieht aus verschiedenen Gründen. Es wird u.a. argumentiert, die Kosten der Energiewende z.B. in Form der EEG-Umlage müssten lediglich „gerechter“ von allen Unternehmen, also auch den besonders energieintensiven Betrieben, getragen werden, um den Anstieg der Strompreise bzw. der EEG-Umlage zu verringern. Befürworter einer solchen Argumentation haben offenkundig wenig Interesse an einem langfristigen Erhalt energieintensiver Industrieunternehmen in Deutschland. Bestimmte Produktionsprozesse würden nämlich über kurz oder lang aus Deutschland verschwinden, wenn die betreffenden Unternehmen z.B. die volle EEG-Umlage zahlen müssten; diese wäre schon allein (deutlich) höher als der Strompreis, den entsprechende Unternehmen derzeit im Ausland zahlen müssen. Anzunehmen, eine solche Kostendifferenz habe keinen Einfluss auf Investitionsentscheidungen, ist absurd. Die Lebensdauer von Anlagen gerade im Bereich der energieintensiven Sektoren kann mehrere Jahrzehnte umfassen. Die skizzierten Unsicherheiten, die sich in der politischen Diskussion um die Ausnahmeregelungen zeigen, sind daher Gift für Investitionsentscheidungen, zumal in vielen Sektoren auf globaler Ebene die Kapazitäten derzeit ohnehin schlecht ausgelastet sind (z.B. Stahlindustrie), was auf die durchschnittlichen Renditen drückt. Bezüglich der EEG-Umlage ist schließlich festzuhalten, dass 96% aller Industriebetriebe die volle Umlage zahlen. Selbst bei nicht-energieintensiven Unternehmen haben sich diese Kosten bereits zu einem negativen Wettbewerbsfaktor mit unsicherer Perspektive entwickelt. Die mit der Energiewende verbundenen Kosten und Unsicherheiten spiegeln sich seit Jahren im Investitionsverhalten bzw. in der Entwicklung des Kapitalstocks energieintensiver Branchen wider. Dieser Trend hat sich bis zuletzt fortgesetzt: Das reale Nettoanlagevermögen – quasi das Ergebnis früherer Investitionstätigkeit – ist in allen energieintensiven Sektoren (Papier-, Chemie-, Baustoffindustrie, Metallerzeugung) in den 45 Energiewende belastet Investitionen energieintensiver Unternehmen in Deutschland In Deutschland übertrafen im 1. Halbjahr 2016 die Srompreise für industrielle Kunden – inklusive aller Steuern und Gebühren – den EU- Durchschnitt um knapp 36%. Die Investitionen in energieintensiven Branchen in Deutschland liegen seit Jahren unter den Abschreibungen. Konzept 46 letzten Jahren (fast) stetig gesunken. In der gesamten Industrie sowie bei den Dienstleistungen war dagegen ein kleiner Zuwachs zu verzeichnen. Die Entwicklung ist insofern alarmierend, als das Nettoanlagevermögen auch die aktivierten F&E-Ausgaben der jeweiligen Branchen enthält. Das nominale Nettoanlagevermögen (erneut inklusive aktivierter F&E-Ausgaben) lag 2014 (neuere Zahlen liegen noch vor) nur um knapp 3% über dem Niveau von 1995. Bei den nicht- energieintensiven Sektoren ist dagegen ein Zuwachs von gut 31% zu verzeichnen. Der Modernitätsgrad als Anteil des nominalen Nettoanlagevermögens am Bruttoanlagevermögen lag in den energieintensiven Sektoren 2014 um knapp 3%-Punkte unter dem Wert der nicht-energieintensiven Branchen. Die nominalen Nettoanlageinvestitionen waren 2014 bei den energieintensiven Sektoren zum sechsten Mal in Folge negativ. Das heißt, es wurde in den betreffenden Sektoren erneut mehr abgeschrieben als investiert. Seit 1995 waren die Nettoanlageinvestitionen bei energieintensiven Branchen nur in fünf Jahren positiv. Die skizzierte Entwicklung ist natürlich nicht monokausal auf die Kosten und Unsicherheiten rund um die Energiewende zurückzuführen. Die deutliche Diskrepanz bei der Investitionstätigkeit zwischen den energieintensiven und den nicht-energieintensiven Sektoren sowie die überwiegend negative Beurteilung der Energiewende durch Industrieunternehmen deuten jedoch darauf hin, dass Investitionen der betreffenden Sektoren in Deutschland auch aufgrund der energiepolitischen Unsicherheiten ausbleiben. Dieser Trend ist nicht neu; eine Trendwende ist unter den aktuellen Rahmenbedingungen nicht in Sicht. Gleichzeitig haben diese Branchen in den letzten Jahren Investitionen im Ausland getätigt, die explizit mit niedrigen Energiepreisen und guten (sicheren) energiepolitischen Rahmenbedingungen begründet wurden. Das dargestellte Investitionsverhalten ist für Deutschland besorgniserregend. Deutschland zeichnet sich durch eine vertikal integrierte industrielle Wertschöpfungskette aus. Energieintensive Unternehmen stehen häufig am Anfang dieser Kette. Sie liefern Vorprodukte z.B. an die Automobilindustrie, den Maschinenbau oder die Elektrotechnik, die selbst nicht energieintensiv produzieren, aber die Basis der deutschen Exportwirtschaft bilden. Vorteilhaft sind häufig der geringe räumliche Abstand zwischen den Unternehmen sowie ein enger Forschungsverbund, der durch die Einbindung von Universitäten und anderen Forschungseinrichtungen ergänzt wird. Diese integrierte 47 Energiewende belastet Investitionen energieintensiver Unternehmen in Deutschland Wertschöpfungskette ist ein wesentlicher Erfolgsfaktor des hiesigen Industriestandorts. Wird ein Teil der Kette geschwächt, wirkt dies belastend auf die anderen Glieder. Sinken z.B. die Investitionen energieintensiver Unternehmen am Standort, kann mittelfristig deren Innovationskraft leiden, was letztlich auch negative Folgen für die Abnehmer hätte. Einfache Lösungen sind nicht in Sicht. Die deutsche Politik sollte die Energiewende daher zumindest europäischer denken und gestalten und nationale Sonderwege hinsichtlich ihrer wirtschaftlichen Effizienz und ökologischen Wirksamkeit überprüfen. Konzept 48 Der Anteil von Elektro- und Hybridautos an den gesamten Pkw- Neuzulassungen in Deutschland lag 2016 bei 1,8%. Es ist damit immer noch ein Nischenmarkt – trotz der seit letztem Jahr gewährten Subventionen. Hohe Anschaffungskosten, Unsicherheiten über den Wiederverkaufswert oder die Haltbarkeit der Batterie, beschränkte Reichweiten, eine unzureichende Ladeinfrastruktur oder lange Ladezeiten lassen den durchschnittlichen Autokäufer einen Bogen um Elektroautos machen. Die Kaufzurückhaltung stellt Automobilindustrie und Staat vor ein Dilemma: Strenge CO 2 - Grenzwerte für Neufahrzeuge erfordern hohe Investitionen der Branche in die Elektromobilität, denen auf absehbare Zeit keine entsprechenden Erlöse gegenüberstehen. Für den Staat kann es zu einer Wahl zwischen kostspieligen Subventionen auf der einen oder einem Verfehlen klimapolitischer Ziele auf der anderen Seite kommen. In Deutschland wurden 2016 nach Angaben des Kraftfahrt-Bundesamtes exakt 11.410 rein elektrisch angetriebene Pkw neu zugelassen. Dies bedeutet einen Rückgang um 7,8% gegenüber 2015. Der Großteil der Zulassungen dürfte auf gewerbliche und öffentliche Halter entfallen. Angesichts der im Frühjahr 2016 eingeführten Kaufprämie für Elektroautos in Höhe von EUR 4.000 pro batterieelektrisches Fahrzeug, die sich Staat und Automobilindustrie zur Hälfte teilen, ist dies mehr als enttäuschend. Besser sieht die Situation bei Hybridautos aus: Hier wurden im letzten Jahr 47.996 Pkw neu zugelassen (inklusive Plug- in-Hybride), was einem Plus von 42,7% gegenüber 2015 entspricht. Plug-in-Hybride werden seit letztem Jahr in Höhe von EUR 3.000 bezuschusst. Dass die Elektromobilität in Deutschland nach wie vor ein Nischenmarkt ist, zeigt sich am Anteil von Elektro- und Hybridautos an den gesamten Pkw-Neuzulassungen. Dieser stieg in den letzten Jahren zwar stetig an, er lag 2016 aber erst bei 1,8%. Nur am fehlenden Angebot kann diese Kaufzurückhaltung nicht liegen. Denn sehr viele Autohersteller haben in den letzten Jahren Elektroautos und Plug-in-Hybride auf den Markt gebracht. Inzwischen wird ein recht breites Produktspektrum angeboten. Die Apologeten der Elektromobilität in Teilen von Politik, Industrie, Wissenschaft, NGOs und Medien können jedoch noch so sehr die tatsächlichen oder vermeintlichen Vorteile des elektrischen Fahrens betonen, der durchschnittliche (private) Autokäufer ist (noch) nicht überzeugt. Verschiedene Gründe sind Elektroautos legen Fehlstart hin – Dilemma für Autoindustrie und Staat 49 Energiewende belastet Investitionen energieintensiver Unternehmen in Deutschland hierfür maßgeblich: die immer noch hohen Anschaffungspreise im Vergleich zu Fahrzeugen mit Verbrennungsmotor gerade im Volumensegment, Befürchtungen und fehlende Erfahrungswerte bezüglich der Wiederverkaufswerte der Autos oder der Haltbarkeit der Batterie, die geringe Reichweite der meisten rein batterieelektrischen Fahrzeuge, eine unzureichende Ladeinfrastruktur oder lange Ladezeiten. Diese Kaufzurückhaltung ist übrigens kein allein deutsches Phänomen. Zwar kommt die Elektromobilität in einigen anderen Automärkten auf deutlich höhere und/oder schneller steigende Marktanteile (z.B. Norwegen, Niederlande, China). Dies ist jedoch in den allermeisten Fällen darauf zurückzuführen, dass der Staat deutlich höhere Subventionen für den Kauf von Elektroautos gewährt als in Deutschland. Zum Teil spielen zudem ordnungsrechtliche Benachteiligungen von Autos mit Verbrennungsmotor eine Rolle (z.B. regional limitierte Vergabe von Lizenzen für den Kauf von Neuwagen mit Verbrennungsmotor in China). In keinem Automarkt der Welt setzen sich Elektrofahrzeuge derzeit ohne staatliche Förderung durch. Dies sollte aber nicht als Argument für noch höhere deutsche Subventionen dienen! Ohne (wesentliche) staatliche Einflussnahme würde das Angebot von Elektroautos auf die geringe Nachfrage mit Preissenkungen und wohl auch mit einem reduzierten Angebot reagieren. Letztere Option steht der Automobilindustrie jedoch faktisch nicht zur Verfügung. Denn sie dürfte die CO 2 -Grenzwerte für Neufahrzeuge in der EU und in anderen Automärkten ohne eine steigende Elektrifizierung ihrer Neuwagenflotte nicht erreichen. Hinzu kommen Diskussionen über regionale Fahrverbote für Autos mit (bestimmten) Verbrennungsmotoren oder über Mindestquoten für Elektrofahrzeuge, die von den Autoherstellern zu erfüllen sind (China). Insofern ist es nachvollziehbar, dass die Autohersteller weiter in die Elektromobilität investieren, um die Technologie zu verbessern und die Kosten zu senken. Dies erfordert einen enormen Einsatz finanzieller Ressourcen, dem auf absehbare Zeit keine entsprechenden Erlöse bzw. geringe Renditen pro verkauftes Auto gegenüberstehen. Aber nicht nur die Automobilindustrie befindet sich in einem Dilemma, sondern auch der Staat. Viele Länder haben sich klimapolitische Ziele gesetzt, die direkt oder indirekt den Verkehrssektor einschließen; die Elektromobilität wird als wichtiger Baustein auf dem Weg in einen weitgehend klimaneutralen Verkehrssektor angesehen. Dabei wird implizit unterstellt, dass der notwendige Strom perspektivisch auf Basis erneuerbarer Energien erzeugt wird (was für sich genommen schon ein anspruchsvolles Ziel ist). Letztlich sind die Subventionen für Elektrofahrzeuge in vielen Ländern klimapolitisch motiviert, wobei die geringen Konzept 50 lokalen Schadstoffemissionen von Elektroautos ebenfalls ein wichtiges Argument sind. Das Dilemma zeigt sich wie folgt: Wenn die Subventionen für die Elektromobilität üppig ausfallen, um die Marktdurchdringung kurzfristig zu beschleunigen, wird es für den Staat recht schnell teuer. Ist das staatliche Förderregime für den durchschnittlichen Autokäufer dagegen nicht attraktiv genug (wie derzeit offensichtlich in Deutschland), dürften die anspruchsvollen Klimaziele verfehlt werden. Letztlich zeigt sich hier ein Problem, das viele klimafreundliche Technologien haben: Sie sind für den durchschnittlichen privaten Kunden oder gewerblichen Investor wirtschaftlich häufig nicht attraktiv genug, als dass sie ganz ohne staatliche Zuschüsse im politisch gewünschten Umfang nachgefragt würden. Im Fall der Elektromobilität kommt hinzu, dass dies eine besonders teure Technologie ist, um CO 2 - Emissionen zu vermeiden. Für den Klimaschutz wäre also mehr gewonnen, wenn die finanziellen Ressourcen, die derzeit in die Elektromobilität fließen, für andere CO 2 -arme Technologien eingesetzt würden. Mit einer Trendwende bei der politischen Regulierung der CO 2 -Emissionen im Straßenverkehr ist kurzfristig jedoch nicht zu rechnen. So bleibt vorerst die Hoffnung, dass der technische Fortschritt im Bereich der Elektromobilität so schnell voranschreitet, dass die Autokäufer nicht mehr zu ihrem Glück gezwungen werden müssen, sondern aus freien Stücken und ohne staatliche Förderung Elektroautos nachfragen. 51 Energiewende belastet Investitionen energieintensiver Unternehmen in Deutschland Konzept 52 Columns 54 Buchrezension—Never Split the Difference 56 Konferenzberichte—Autohersteller 58 Infografik—Deutsche Carbon Alignment Framework 53 Konzept Buchrezension— Never Split the Difference Luke Templeman Autor Chris Voss, ehemaliger FBI- Unterhändler bei Geiselnahmen und inzwischen als Berater tätig, verfügt über einen enormen Fundus an Geschichten über Verhandlungen, deren Ausgang über Leben oder Tod entscheidet. Jedes Kapitel seines neuen Buches knüpft an eine solche Geschichte an. Einige finden ein glückliches Ende, andere enden mit Blutvergießen. Beim Lesen beschleicht einen das Gefühl, als wären diese Geschichten selbst eine Verhandlungsstrategie, um den Leser am Ball zu halten. Wie dem auch sei – es funktioniert. Die Tatsache, dass Voss kompromisslos um Menschenleben verhandelt hat, verleiht dem Werk die nötige Ernsthaftigkeit, und seine Anwendbarkeit auf die Geschäftswelt ist offensichtlich. Denn wie Voss bemerkt: „Entführer sind nichts anderes als Geschäftsleute, die versuchen, sich den besten Preis zu sichern.“ Zunächst gilt es festzuhalten, dass Voss mit Vorliebe häufig gepredigte Verhandlungstheorien demontiert, insbesondere hochtrabende Akronyme wie BATNA (Best Alternative to a Negotiated Agreement, also die beste Alternativoption, falls es nicht zu einer Einigung kommt) oder ZOPA (Zone of Possible Agreement, das heißt die Überlappung von Verhandlungspositionen). Konzept-Leser würden sicherlich zustimmen, sich jedoch gleichzeitig fragen, ob sich aus Verhandlungen mit Terroristen und Entführern tatsächlich sinnvolle Lehren für die Geschäftswelt ziehen lassen. Betrachten wir also dieses Spiel, das der Autor mit einem neuen Publikum spielt. Es funktioniert besonders gut mit BWL-Studenten, deren Fokus auf Gewinnmaximierung liegt. Eingangs bilden die Teilnehmer Paare. In jedem Paar erhält eine Person 10 Dollar. Diese Person unterbreitet der anderen daraufhin ein einziges Angebot über einen Teil des Geldes. Nimmt die andere Person das Angebot an, erhält jeder seinen Teil des Geldes. Lehnt die andere Person ab, verlieren beide das Geld. Im Durchschnitt, so stellt Voss fest, kommt es nur dann zu einer Einigung, wenn die erste Person die Hälfte des Geldes anbietet. Liegt das Angebot darunter, lehnt die zweite Person das „ungerechte“ Angebot ab. Das ist jedoch ganz klar dumm. Logisch gedacht sollte die zweite Person selbst ein Angebot von nur einem Cent annehmen und der ersten Person die 9,99 Dollar überlassen. Immerhin ist ein Cent besser als gar nichts. Und dennoch tritt dieser Fall fast nie ein. Fakt ist nämlich, dass die Menschen selbst in einem harmlosen, aber dennoch wettbewerbsorientierten Spiel Gefangene ihrer eigenen Gefühle sind. Man stelle sich nur vor, wie irrational diese Menschen wohl im echten Leben handeln. Die Grundlage für eine erfolgreiche Verhandlung, sei es mit Entführern oder mit Bankern, ist daher in jedem Fall einfühlsames Zuhören. Ziel ist es, das Vertrauen Ihres Verhandlungspartners (betrachten Sie ihn nicht als Gegner) zu gewinnen und ihn wissen zu lassen, dass Sie seine Beweggründe verstehen. Durch offene Fragen, die mit „wie“ oder „was“ beginnen, können Sie dann weitere Informationen sammeln. Haben Sie keine Angst davor, auch mal ein „Nein“ zu hören. Voss empfiehlt sogar, Fragen so zu formulieren, dass sie der Gegenpartei die Möglichkeit eines „Nein“ einräumen. So zwingen Sie Ihr Gegenüber zum Dialog und geben ihm ein Gefühl von Kontrolle. Das ist der Ausgangspunkt einer erfolgreichen Verhandlung. Im Hinblick auf Preisverhandlungen widerspricht Voss der allgemein gängigen Theorie (z. B. der These, dass man selbst zuerst einen Preis festlegen sollte). Laut Voss sollte man nie das erste Gebot abgeben. Auch dem Angebot der Gegenpartei sollten Sie nicht direkt mit einem Gegenangebot begegnen. Stattdessen empfiehlt Voss, kalibrierte, offene Fragen zu stellen. Redefreudige Menschen neigen dazu zu denken, sie hätten die Kontrolle. Stattdessen geben sie jedoch nur Informationen preis. Verlegt man sich indes weniger aufs Reden und mehr aufs Zuhören, sitzt man am längeren Hebel und stärkt Konzept 54 seine Verhandlungsmacht. Muss Voss schließlich auf ein inakzeptables Angebot reagieren, fragt er gerne: „Wie stellen Sie sich das vor?“ Auf diese Weise ist die Gegenpartei in der Pflicht, eine Lösung vorzuschlagen. Dies schafft einen neuen Anknüpfungspunkt und lenkt das Gespräch bei geschickter Führung in eine Richtung, in der das Gegenüber schließlich gegen sich selbst argumentiert. Wenn Sie zu viel feilschen müssen, bedeutet das, Sie haben die Oberhand verloren. Voss hat zudem einige Tipps auf Lager, u. a. das Vorschlagen unrunder Summen und das Unterbreiten nicht monetärer Angebote. Auf diese Weise verhandelte er erfolgreich um die Freilassung einer in Haiti verschleppten Frau. Die Entführer forderten ursprünglich 5 Millionen Dollar und akzeptierten schließlich ein Lösegeld von 4.751 Dollar und eine Stereoanlage. Der „sorgfältig kalkulierte“ endgültige Preis und das nicht finanzielle Zusatzangebot suggerierten, dass die Familie der Frau ihre Möglichkeiten vollständig ausgeschöpft hatten. Die Entführer, die der Meinung waren, sie hätten das Letzte aus der Familie herausgepresst, ließen sich bereitwillig auf den Tausch ein. Der Titel des Buches zieht sich wie ein roter Faden durch das gesamte Werk. Er macht klar, dass Voss kein Freund von halben Sachen ist. Kompromisse bedeuten in seinem Job zuzulassen, dass ein Terrorist die Hälfte der Geiseln tötet. Vor einem anderen Hintergrund würde das Credo, dass Scheitern keine Option ist, vielleicht anmaßend wirken, doch hier hat es seine Berechtigung: Ginge es für Ihre Familie um Leben und Tod, wäre Voss ganz klar Ihr Mann. 55 Konzept Konferenzberichte— Autohersteller Die Spione meisterten auch diesmal die Herausforderung, das Sicherheitspersonal zu überlisten, und konnten sich so unter das Publikum der Global Auto Industry Conference der Deutschen Bank in Detroit mischen. Im Folgenden übermitteln wir den Konzept-Lesern die interessantesten Informationen der Teilnehmer und Hersteller und geben einen Überblick über unsere Favoriten: Vielen Dank an Rod Lache und sein Team für die Bestätigung unserer Infos. Allgemeine Stimmungslage: Entsprechend der weltweit zu beobachtenden allgemeinen Stimmungsaufhellung fielen die Branchenerwartungen für dieses Jahr besser aus als angenommen. Beispielsweise wird für die USA ein dyamischerer Markt erwartet, der von einer verstärkten Vergabe günstiger Kredite, gestützt durch eine insgesamt stärkere Konjunktur, profitiert. Zulieferer weisen indes einen ausgesprochen hohen Auftragsbestand auf. Bezüglich der Margen der Autohersteller selbst haben wir zudem festgestellt, dass die Kosteneffizienz die Anleger dieses Jahr positiv beeindrucken dürfte. Von Sorgen bezüglich Grenzabgaben und Protektionismus war weniger zu merken als vermutet, was entweder darauf zurückzuführen ist, dass die Teilnehmer über ein beachtliches US-Exportgeschäft verfügen, das mögliche Einfuhrkontrollen ausgleichen würde, oder dass ein anhaltender operativer Nettoverlust die Autobauer schützen würde. General Motors: Wir waren bei zahlreichen Präsentationen anwesend und haben bei vielen Gesprächen mit Herstellern mitgehört. Die Präsentation von General Motors war eine der optimistischsten. Das Unternehmen lieferte für dieses Jahr einen soliden Gewinnausblick mit einem stagnierenden bis steigenden Ergebnis vor Zinsen und Steuern (was deutlich über dem Konsens liegt). GM deutete angesichts der zahlreichen neuen Produkte (hauptsächlich SUVs) und der Kosteneinsparungen ein sogar noch größeres Aufwärtspotenzial an. Am stärksten beeindruckten uns GMs Kapitaleinsatz und Ausgabendisziplin, die es dem Unternehmen zunehmend ermöglichen, Technologieausgaben auch künftig tragen zu können. Das Managementteam scheint unschlagbar zu sein. Fiat Chrysler: Angesichts des kalten Wetters war es eine Freude, dem „Kamingespräch“ mit Sergio Marchionne, dem Chef von Fiat Chrysler, beizuwohnen. Er richtete das Augenmerk auf das Potenzial einer erheblichen Steigerung des Gewinns/Free Cashflow in den nächsten Jahren. Bei Fiat trägt der nordamerikanische Markt 85 Prozent zum Ergebnis vor Zinsen und Steuern bei. Marchionne erklärte zudem, dass der stabile Ausblick für diesen Markt dem Unternehmen bei dem offensiven Vorhaben helfen werde, eine PKW-Kapazität von 600.000 Einheiten in Lastwagen- und SUV-Kapazitäten umzuwandeln (was bis 2018 zu einem Anstieg des Ergebnisses vor Zinsen und Steuern in Höhe von ca. USD 2 Mrd. führen könnte). Des Weiteren erläuterte er, dass Fiat beabsichtige, sein Jeep-Volumen in China um 350.000 Einheiten zu erhöhen und dass sich die Ergebnisse in Europa, im Nahen Osten und in Afrika ebenfalls verbessern dürften. Ford: Bei Ford, dem Dritten der drei großen Detroiter Autobauer, war die Stimmung weniger optimistisch. Wie erwartet, gab das Unternehmen an, dass der Vorsteuergewinn, der 2016 bei USD 10,2 Mrd. lag, 2017 im Jahresvergleich geringer ausfallen dürfte. Dies ist darauf zurückzuführen, dass Ford viel Geld für Wachstumschancen durch moderne Technologien ausgibt, diese Kosten im Gegensatz zu den anderen Autobauern aber nicht so gut ausgleichen kann. Dennoch geht Ford davon aus, dass sich die Ertragslage 2018 erholen wird, da für bisher hinter den Erwartungen zurückgebliebene Geschäftsbereiche eine Trendwende erwartet wird (Kleinwagen, Schwellenmärkte und Luxusautos). Die Analysten der Deutschen Bank nehmen jedoch weiterhin eine etwas vorsichtigere Haltung ein. Zulieferer: Von den diversen Zulieferern, die sich auf der Konferenz präsentierten, waren im Notizen von der Gobal Auto Industry Conference der Deutschen Bank 56 Konzept Allgemeinen positive Töne zu hören. American Axle schrieb 2016 solide Zahlen und rechnet auch für 2017 mit einem starken Jahr. Dies wird mit Blick auf die erhebliche Präsenz in Mexiko und den Abschluss der Übernahme der Metalydne Performance Group in diesem Jahr interessant zu beobachten sein. Der Ausblick für das Geschäft in den Bereichen Fahrzeugelektrifizierung und aktive Sicherheit des Zulieferers Delphi, der eine Marktkapitalisierung von USD 20 Mrd. aufweist, dürfte stabil ausfallen, auch wenn das Management bemüht war, die Erwartungen bei der Konferenz zu dämpfen. Demgegenüber haben die Geschäftsführer von Magna, Visteon und Tenneco mit ihrem Optimismus nicht hinter dem Berg gehalten. Zu guter Letzt dürfte laut den Reifenherstellern Goodyear und Cooper Tire die zweite Jahreshälfte ausschlaggebend sein. Sie bestätigten, dass die Rohstoffkosten mit einem Anstieg um 20 Prozent gegenüber dem Vorjahr stark gestiegen sind. In Nordamerika sind die Verkaufspreise bereits um acht Prozent gestiegen, und aufgrund von Verzögerungen wird mit weiteren Preissteigerungen in der zweiten Jahreshälfte gerechnet, mit denen die höheren Kosten an die Kunden weitergereicht werden. Anleger sollten dies aufmerksam beobachten. 57 Konzept Steigende Wertentwicklung Steigendes VolumenFallendes Volumen Fallende Wertentwicklung Steigende Wertentwicklung Steigendes VolumenFallendes Volumen Fallende Wertentwicklung Stranded Assets (CO 2 ) • Kapazitätsüberhang • hohe Sunk Costs • niedrige Grenzkosten • Nachfragebeschränkungen • Langsame Kapitalumschichtung • Verschlechterung der steuerlichen / politischen Rahmenbedingungen • Probleme mit Überschuldung DeCaf – Volumen und Wertentwicklung in einer Welt ohne Diskrepanz Infografik—Deutsche Carbon Alignment Framework Grünes Wachstum • Angebotsbeschränkungen • Nachfrageüberhang • Festpreis mit Kostendeflation • Eintrittsbarrieren • Verbesserung der steuerlichen / politischen Rahmenbedingungen • Erweiterung des Fremdfinanzierungsspielraums Konzept 58 Konzept 58 Steigende Wertentwicklung Steigendes VolumenFallendes Volumen Fallende Wertentwicklung Grüne Blase • Wachstumseuphorie • Über-Ausbau • Stranded-Asset-Problematik durch steigende Kosten für Technologie und fallende Preise • Niedrige Eintrittsbarrieren • Fluch des Gewinners bei Auktionen • Überschuldung Cash Cow CO 2 • Angebotsdisziplin • Investitionskürzungen • Hohe Ausschüttungsquoten • Produktionsbeschränkungen (z. B. Beschränkung bei Kohle in China, OPEC-Abkommen) • Kompensationen für Kapazitätsabbau • Gratis-Emissionszertifikate DeCaf – Volumen und Wertentwicklung in einer Welt mit Diskrepanz 59 Konzept English disclaimer: Publication of the English version: March 30, 2017. Publication date of the German translation: April 5, 2017. The above information does not constitute the provision of investment, legal or tax advice. Any views expressed reflect the current views of the author, which do not necessarily correspond to the opinions of Deutsche Bank AG or its affiliates. Opinions expressed may change without notice and may differ from views set out in other materials, including research, published by Deutsche Bank. Deutsche Bank may engage in securities transactions, on a proprietary basis or otherwise, in a manner inconsistent with the view taken in this research report. The risk of loss in futures trading and options, foreign or domestic, can be substantial. As a result of the high degree of leverage obtainable in futures and options trading, losses may be incurred that are greater than the amount of funds initially deposited. The above information is provided for informational purposes only and without any obligation, whether contractual or otherwise. No warranty or representation is made as to the correctness, completeness and accuracy of the information given or the assessments made. In the U.S. this report is approved and/or distributed by Deutsche Bank Securities Inc., a member of FINRA. In Germany this information is approved and/or communicated by Deutsche Bank AG Frankfurt, licensed to carry on banking business and to provide financial services under the supervision of the European Central Bank (ECB) and the German Federal Financial Supervisory Authority (BaFin). In the United Kingdom this information is approved and/or communicated by Deutsche Bank AG, London Branch, a member of the London Stock Exchange, authorized by UK’s Prudential Regulation Authority (PRA) and subject to limited regulation by the UK’s Financial Conduct Authority (FCA) (under number 150018) and by the PRA. This information is distributed in Hong Kong by Deutsche Bank AG, Hong Kong Branch, in Korea by Deutsche Securities Korea Co. and in Singapore by Deutsche Bank AG, Singapore Branch. In Japan this information is approved and/or distributed by Deutsche Securities Inc. In Australia, retail clients should obtain a copy of a Product Disclosure Statement (PDS) relating to any financial product referred to in this report and consider the PDS before making any decision about whether to acquire the product. This report may not be reproduced, distributed or published by any person for any purpose without Deutsche Bank’s prior written consent. When quoting please cite “Deutsche Bank Research”. Disclaimer deutsch: Originalveröffentlichung in englischer Sprache: 30. März 2017. Veröffentlichung der deutschen Ausgabe: 5. April 2017. Die vorstehenden Angaben stellen keine Anlage-, Rechts- oder Steuerberatung dar. Alle Meinungsaussagen geben die aktuelle Einschätzung des Verfassers wieder, die nicht notwendigerweise der Meinung der Deutsche Bank AG oder ihrer assoziierten Unternehmen entspricht. Alle Meinungen können ohne vorherige Ankündigung geändert werden. Die Meinungen können von Einschätzungen abweichen, die in anderen von der Deutsche Bank veröffentlichten Dokumenten, einschließlich Research- Veröffentlichungen, vertreten werden. Die Deutsche Bank kann geschäftliche Transaktionen in Wertpapieren, als Eigenhandelsgeschäft oder für Kunden, durchführen, die nicht mit der in diesem Researchbericht dargestellten Sichtweise übereinstimmen. Das Risiko von Verlusten bei Termin- und Optionsgeschäften kann weitgehend sein. Wegen des hohen Ausmaßes einer Fremdmittelfinanzierung der Termin- und Optionsgeschäfte können die auflaufenden Verluste höher sein als die ursprünglich in die Geschäfte investierten Beträge. Die vorstehenden Angaben werden nur zu Informationszwecken und ohne vertragliche oder sonstige Verpflichtung zur Verfügung gestellt. Für die Richtigkeit, Vollständigkeit oder Angemessenheit der vorstehenden Angaben oder Einschätzungen wird keine Gewähr übernommen. In den Vereinigten Staaten von Amerika wird dieser Researchbericht verantwortet und verbreitet von der Deutschen Bank Securities Inc., Mitglied der FINRA. In Deutschland wird dieser Bericht von Deutsche Bank AG Frankfurt genehmigt und/oder verbreitet, die über eine Erlaubnis zur Erbringung von Bankgeschäften und Finanzdienstleistungen verfügt und unter der Aufsicht der Europäischen Zentralbank (EZB) und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) steht. Im Vereinigten Königreich wird dieser Bericht durch Deutsche Bank AG, Filiale London, Mitglied der London Stock Exchange, genehmigt und/oder verbreitet, die von der UK Prudential Regulation Authority (PRA) zugelassen wurde und der eingeschränkten Aufsicht der Financial Conduct Authority (FCA) (unter der Nummer 150018) sowie der PRA unterliegt. In Hongkong wird dieser Bericht durch Deutsche Bank AG, Hong Kong Branch, in Korea durch Deutsche Securities Korea Co. und in Singapur durch Deutsche Bank AG, Singapore Branch, verbreitet. In Japan wird dieser Bericht durch Deutsche Securities Inc. genehmigt und/oder verbreitet. In Australien sollten Privatkunden eine Kopie der betreffenden Produktinformation (Product Disclosure Statement oder PDS) zu jeglichem in diesem Bericht erwähnten Finanzinstrument beziehen und dieses PDS berücksichtigen, bevor sie eine Anlageentscheidung treffen. Dieser Resarchbericht darf nicht ohne vorherige Erlaubnis der Deutsche Bank AG vervielfältigt, verbreitet und/oder veröffentlicht werden. Bei Zitaten wird um Quellenangabe „Deutsche Bank Research“ gebeten. Konzept 60