1. Research
  2. Produkte & Themen
  3. Publikationsreihen
  4. Konzept
27. Januar 2015
Liquidität ist wichtig für Märkte und Volkswirtschaften. Bei Rohöl, Marktvolatilität, aber auch bei Unternehmensanleihen hat die Krise die Liquiditätsverhältnisse enorm verändert. In dieser Ausgabe von Konzept behandeln vier Features die Mythen, Mysterien, Realitäten und Implikationen des Wandels der Liquidität für Investoren, Regulatoren und Emittenten. [mehr]
KONZEPT Ausgabe 02 Liquidität im Wandel Januar 2015 Liquidität ist wichtig für Märkte und Volkswirtschaften. Bei Rohöl, Marktvolatilität, aber auch bei Unternehmensanleihen hat die Krise die Liquiditätsverhältnisse enorm verändert. In dieser Ausgabe von Konzept behandeln vier Features die Mythen, Mysterien, Realitäten und Implikationen des Wandels der Liquidität für Investoren, Regulatoren und Emittenten. Titelthema Liquidität im Wandel Haben Sie Anregungen zur aktuellen Ausgabe oder möchten Sie einzelne Autoren kontaktieren? Sprechen Sie Ihren Kundenberater an oder schreiben Sie uns eine E-Mail an research.haus@db.com Editorial In der zweiten Ausgabe des Magazins Konzept werfen die Makroökonomen, Strategen und Analysten von Deutsche Bank Research einen näheren Blick auf langfristige Fundamentaldaten des Rohölmarkts und untersuchen die Auswirkungen der zuletzt vereinbarten Klimaziele. Zudem analysieren wir frühere Deflationsphasen und diskutieren, ob die scheinbar große Angst vor Deflation tatsächlich gerechtfertigt ist. Die Beiträge zu Marktliquidität und Volatilität bieten realistische und zugleich faszinierende Einblicke in die zugrunde liegenden Marktkräfte und deren Auswirkungen. Unser Beitrag zum Markt für Nassrasierer zeigt, was sich aus veränderten männlichen Rasiergewohnheiten lernen lässt. Und auch, wenn es zunächst als etwas zu weit hergeholt erscheint, gibt es möglicherweise eine Verbindung zu Kreditausfallquoten. Auch die veränderten Strukturen von Kapitalströmen sind ein spannendes Thema, ebenso wie die Folgen der neuen globalen Ungleichgewichte. Einen weniger offensichtlichen Zusammenhang haben die äußerst interessanten Artikel zur Zukunft des Hypothekenmarkts in Europa, die Risiken und regulatorischen Entwicklungen in der Welt der Schattenbanken sowie die einzigartigen Einblicke in die kundenindividuelle Massenproduktion durch die Brille der „Maker- Szene”: Sollten Sie nicht wissen, was ein „Raspberry Pi” ist, werden Sie es spätestens in dieser Ausgabe erfahren. Investoren, Aufsichtsbehörden und Regierungen weltweit stehen vor großen Herausforderungen: Deflation, sinkende Ölpreise, veränderte globale Kapitalströme, Ukraine-Krise, Risiken im Schattenbankensystem, Liquiditätsengpässe und geringe Marktvolatilität. Jedes einzelne dieser Themen verdient es, ernst genommen zu werden. Doch erst in ihrer Gesamtheit ziehen sie unsere ganze Aufmerksamkeit auf sich, da sie im Jahr 2015 grundlegende Auswirkungen auf die Entwicklung der Volkswirtschaften der Welt und der Märkte haben werden. Wir hoffen, dass diese Ausgabe von Konzept Ihnen Klarheit verschafft, neue Einblicke ermöglicht und gelegentlich auch etwas zum Schmunzeln bieten wird. Konzept Artikel 08 In freudiger Erwartung einer Deflation 10Chinas Kapital in Bewegung 12 Die Vereinigten Immobilien-Staaten von Europa 16 Kluge individuelle Produktion und der Raspberry Pi 20Im Dunkeln ist gut munkeln: Das Schattenbankensystem 24 Makroprudenzielle Aufsicht—kein Wundermittel Kolumnen 82 Buchempfehlungen 2014 83 Ideas Lab—Schlaf 84 Konferenzberichte—Contingent Convertible Bonds 85 Infografik—Was in Davos geredet wird Konzept Klimaziele—Paradigmenwechsel für die Ölindustrie 27 Die Ukraine—Flügelschlag eines Schmetterlings 64 Ein Portfolio ohne Kreditausfälle— Keine Magie 70 Volatilität— Ein Balanceakt 56 Features Unternehmensanleihen— Untiefen der Liquidität 36 Rasierklingen—Eine scharfe Lektion für die Konsumgüterindustrie 48 einer solchen Entwicklung. Deflationsphasen in Ländern wie Japan haben jedoch gezeigt, dass Arbeitnehmer in der realen Welt durchaus bereit sind, Lohnkürzungen in Kauf zu nehmen, wenn ihnen der Verlust des Arbeitsplatzes droht. Die mögliche Kehrseite der Medaille besteht darin, dass die Schuldenlast hoch verschuldeter Personen – oftmals junge und arme Menschen – bei einem Preisverfall steigt. Denn wenn die Löhne parallel zu den Preisen sinken, wird es schwieriger, festverzinsliche Darlehen oder Hypotheken zu tilgen. Dahingegen sinkt bei einer höheren Inflation die Verschuldung, was sich wiederum negativ auf Sparer und Kreditgeber auswirkt. Die Entscheidung zwischen Inflation und Deflation führt daher auch immer zu gesellschaftlichen Fragen der Umverteilung. Meistens artet die Debatte in einen Stellungskrieg der Vertreter unterschiedlicher ökonomischer Theorien aus, wobei ein Lager sich auf das Gedankengut von Keynes beruft und die Gegenseite Hayek oder andere Vertreter der Österreichischen Schule zitiert. Wäre es stattdessen nicht zielführender, einen Blick auf die historischen Daten zur Wirtschaftsentwicklung in Zeiten von Inflation und Deflation zu werfen? Dank der akribischen Arbeit von Wirtschaftshistorikern wie Angus Maddison oder Jan Luiten Van Zanden 1 , ist ein umfangreicher Datensatz verfügbar, anhand dessen das Wirtschaftswachstum pro Kopf und die Inflation in 30 Ländern bis zum Beginn des Volkswirte lieben Preise. Sie sorgen für ein Gleichgewicht zwischen Angebot und Nachfrage und setzen Signale für die Umschichtung von Ressourcen. Und solange die Preisbildung an freien Märkten reibungslos funktioniert, sollte man eigentlich annehmen, dass auch ein sinkendes gesamtwirtschaftliches Preisniveau rational denkende Ökonomen nicht aus der Fassung bringen sollte. Allerdings: Wird diese Spezies aus ihrem natürlichen Lebensraum, den Universitäten, vertrieben und in Zentralbanken umgesiedelt, wollen die Experten plötzlich geradezu obsessiv den Preisverfall verhindern. Ihre Abneigung gegen die Deflation scheint umso sonderbarer, als die breite Öffentlichkeit doch über Preisrückgänge in den Geschäften hocherfreut ist. Woher rührt diese Obsession? Ökonomen führen häufig das Argument ins Feld, dass Arbeitnehmer selbst bei sinkenden Preisen und der daraus resultierenden stärkeren Kaufkraft nur ungern Kürzungen ihrer Nominallöhne hinnehmen. Dieses starre Festhalten an den Löhnen in Zeiten der Deflation hat zur Folge, dass die realen Lohnkosten der Arbeitgeber zunehmen und somit tendenziell auch die Arbeitslosigkeit steigt – die Große Depression der 1930er Jahre dient als abschreckendes Beispiel für die Folgen In freudiger Erwartung einer Deflation Bilal Hafeez Konzept 8 19. Jahrhunderts zurückverfolgt werden kann. 2 Mit über 10.000 Datenpunkten allein zu Indonesien und Peru kann man sich nur allzu leicht in Fragen zur Genauigkeit der Daten verlieren. Aus der Gesamtbetrachtung verschiedener Datenquellen, die mehr als zwei Jahrhunderte abdecken, ergibt sich jedoch ein faszinierendes Muster. So lag die durchschnittliche Preisveränderung in Jahren fallender Preise bei -4,4 %, in Jahren einer Inflation hingegen bei 5,1 %. Wenn jährliche Preisveränderungen oberhalb oder unterhalb dieses Mittelwertes als Zeichen einer Deflation bzw. Inflation eingestuft werden, lässt sich für jede Teilstichprobe das durchschnittliche Pro-Kopf-Wachstum bestimmen. Unter dem Strich kommt man zu dem Ergebnis, dass das Wachstum in inflationären und deflationären Zeiten genau gleich bei 1,6 % lag. Die globalen Daten der letzten zwei Jahrhunderte geben demnach keinen Anlass, die Inflation aus Wachstumsgründen der Deflation vorzuziehen. Bei regionaler Betrachtung ergeben sich noch aufschlussreichere Muster. Sowohl in Nordamerika als auch in Asien wurde in Inflationsphasen ein stärkeres Wachstum verzeichnet als in Zeiten einer Deflation. Im Laufe eines Jahres mit Deflation ging das Wachstum in Nordamerika durchschnittlich um 1,3 % zurück, während in Inflationsjahren ein Wachstum von 1,5 % verzeichnet wurde. In Asien zeichnet sich das gleiche Bild ab, mit einem Minus von 0,6 % gegenüber einem Plus von 2,4 %. Das geringere Wachstum in den USA war hauptsächlich auf die Große Depression zurückzuführen. Ganz anders in Europa: Hier wurde in deflationären Phasen ein höheres Wachstum verzeichnet als in Zeiten einer Inflation (1,7 % ggü. 1,4 %). In Deutschland ist diese negative Korrelation zwischen der Preis- und der Wachstumsentwicklung besonders ausgeprägt. Die Differenz fällt hier mit einem Wachstum von 2,6 % in deflationären Zeiten gegenüber kläglichen 0,6 % während einer Inflation nicht nur europaweit am größten aus – sie erwies sich im 19. und 20. Jahrhundert auch als äußerst stabil. Darüber hinaus zeigen Belgien, Finnland, Griechenland, Schweden und Spanien sowie ganz Lateinamerika in den letzten zwei Jahrzehnten durchweg ähnliche positive Entwicklungen in Zeiten der Deflation. Dies soll nicht heißen, dass Menschen, die deflationäre oder inflationäre Zeiten erlebt haben, in dieser Hinsicht nur positive Erfahrungen gemacht haben. Gleichwohl ist aus gesamtwirtschaftlicher Sicht noch nicht geklärt, welches der beiden Szenarien das größere Übel ist. Gibt es tatsächlich so etwas wie eine „gute“ Deflation? Es kommt – wie immer – darauf an. Die Grundlagen der Wirtschaftswissenschaften lehren uns, dass Preise durch zwei Faktoren sinken können: ein wachsendes Angebot oder eine rückläufige Nachfrage. Ersteres könnte eine „gute“ Deflation zur Folge haben, wenn Effizienzsteigerungen in der Produktion, höhere Reallöhne und eine stärkere Nachfrage nach rentablen Vermögenswerten die Ursache sind. Ein negativer Nachfrageschock würde ebenfalls zu sinkenden Preisen führen. In diesem Fall würde es sich aber voraussichtlich um eine „schlechte“ Deflation handeln, im Zuge derer sich Schuldenprobleme verschlimmern und die Vermögenspreise vor dem Hintergrund von Gewinneinbrüchen und hohen Insolvenzquoten zurückgehen würden. Daher ist es entscheidend, die Ursachen der Deflation zu verstehen. Der Deflation um jeden Preis entgegenzuwirken – offensichtlich der Leitgedanke der Zentralbanker in den letzten Jahrzehnten – ist indes nicht immer die klügste Strategie. Vielmehr könnte eine Überkompensierung in Form einer allzu expansiven Geldpolitik eine Vermögenspreisinflation auslösen. Ein Blick auf die frühen 2000er Jahre in den USA und Europa zeigt, dass dies letztendlich die Finanzstabilität aufs Spiel setzen kann. Der darauffolgende Zusammenbruch im Jahr 2008 hat nun zu einer möglichen Deflation geführt – die von den Zentralbankern mit aller Kraft gerade noch verhindert werden konnte. Wir erkennen hier eine erschreckende Parallele zwischen den Goldenen Zwanzigern in den USA und der anschließenden Großen Depression in den 1930er Jahren. In den USA, in China und im Vereinigten Königreich ist die Inflation zuletzt unter 2% gefallen, in Deutschland, Frankreich und der Eurozone unter 1%. All dies lässt zunächst befürchten, dass das Wachstum aufgrund eines Abgleitens in die Deflation schwächer werden könnte. Doch ein Blick in die Vergangenheit zeigt, dass Schwarzmalerei möglicherweise fehl am Platz ist. Vielmehr wird es darauf ankommen, wie Europa die Altlasten früherer Krisen beseitigen wird, und dass sich in Großbritannien, den USA und insbesondere China keine neuen Exzesse entwickeln. 1 Vgl. The First Update of the Maddison Project; Re- Estimating Growth Before 1820. Maddison Project Working Paper 4 von Bolt, J und J.L. van Zanden, (2013). 2 Siehe www.reinhartandrogoff.com für einen ausgezeichneten Bestand an langfristigen Datenserien zu Wirtschaftsindikatoren. Konzept9 Chinas Inlandsinvestitionen machen derzeit einen überverhältnismäßig hohen Anteil von 26% des globalen Investitionsvolumens aus. Im Jahr 1995 lag dieser Wert bei gerade einmal 4,3%. Im Gegensatz dazu erreichten die USA ihren Höchstwert im Jahr 1985 mit einem Anteil von 36%. Mittlerweile ist der Anteil der USA auf weniger als 18% zurückgegangen. Noch ausgeprägter ist der Rückgang bei den japanischen Inlandsinvestitionen: Von seinem Höchststand von 22% im Jahr 1993 fiel der Wert bis 2013 auf spärliche 5,7%. Deutschland muss sich aktuell mit einem Anteil von 3,5% der Investitionen weltweit begnügen und liegt damit ungefähr gleichauf mit Indien. Die Übermacht Chinas ergibt sich daraus, dass das Land fast die Hälfte seines Bruttoinlandsprodukts von 10,5 Billionen US-Dollar spart und investiert. Doch wo soll ein Land 5 Billionen US-Dollar sinnvoll einsetzen, wenn es bereits über eine brandneue Infrastruktur verfügt, in vielen Industriezweigen überschüssige Produktionskapazitäten aufweist und seinen Dienstleistungssektor stärken will, der per se weniger investitionsintensiv ist? Hinzu kommen die rasche Alterung und ein bereits sinkender Anteil der Bevölkerung im erwerbsfähigen Alter. Es liegt daher nahe, dass die inländische Investitionsquote in China im nächsten Jahrzehnt stark zurückgehen dürfte. Die Leistungsbilanz bildet den Saldo zwischen Investitionen und der Ersparnis ab. Daher führt ein Rückgang der Investitionen stets zu einem Leistungsbilanzüberschuss, sofern die Sparquote nicht ebenfalls sinkt. In Ländern, deren Bevölkerung überaltert, gehen die Investitionsquoten erfahrungsgemäß schneller zurück als die Sparquoten. Dies zeigen Deutschland und Japan besonders deutlich: Beide Volkswirtschaften haben hohe Leistungsbilanzüberschüsse angehäuft, die von Dauer sein dürften. Im Falle Chinas droht jedoch noch eine weitere Entwicklung: Angesichts der schieren Größe des Landes könnten die Kapitalabflüsse so hoch ausfallen, dass das Überangebot an Kapital die langfristigen Kapitalkosten rund um den Globus drückt – und zwar selbst dann, wenn sämtliche großen Zentralbanken einen strafferen geldpolitischen Kurs einschlagen würden. Auch der Wechselkurs könnte als Ausgleichsventil ausfallen – dies zeigt zumindest die Aufwertung des japanischen Yen, die nun schon über drei Jahrzehnte währt: So muss ein stärkerer chinesischer Renminbi nicht zwangsläufig zu einer Korrektur des Leistungsbilanzüberschusses führen, sondern könnte diesen paradoxerweise noch steigen lassen. Schließlich hemmt eine stärkere Währung die Investitionen im Bereich China ist die „Werkbank der Welt“. Diese Erkenntnis hat sich längst durchgesetzt. Dass das Land demnächst aber auch zum „Anleger Nr. 1“ weltweit avancieren könnte, muss erst noch in unseren Köpfen ankommen. Denn das chinesische Wirtschaftsmodell dürfte sich in den nächsten fünf bis zehn Jahren grundlegend wandeln. Ob und wie die anderen Länder mit der chinesischen Kapitalflut umgehen können, wird entscheidend für den nächsten Konjunkturzyklus sein. Wir haben die Wahl: Entweder müssen wir uns mit neuen globalen Ungleichgewichten abfinden oder uns auf einen längeren Zeitraum mäßigen Wachstums einstellen. Sanjeev Sanyal Chinas Kapital in Bewegung Konzept 10 handelbarer Güter zusätzlich. Können sich nun die Schwellenländer das billige Geld zunutze machen? In den letzten Monaten wurden viele Stimmen laut, die weltweit deutlich höhere Investitionen, insbesondere in die Infrastruktur, forderten. So erschien in der Financial Times ein Artikel des ehemaligen US-Finanzministers Larry Summers unter dem Titel „Why public investment really is a free lunch“, und IWF-Chefin Christine Lagarde sprach sich für eine Investitionsoffensive aus, um der schwächelnden Weltwirtschaft neue Dynamik zu verleihen. Ein möglicher Gewinner im Zeitalter niedriger Zinsen ist Indien. Premierminister Modi hat das Ziel, die Erfolgsgeschichte Ostasiens in seinem Land zu wiederholen und möchte massiv in die Infrastruktur und das verarbeitende Gewerbe investieren. Mit Blick auf die weltweiten Kräfteverhältnisse dürfte das Land jedoch kaum in der Lage sein, einen nennenswerten Teil der überschüssigen Ersparnisse Chinas aufzufangen. So liegt der Anteil Indiens am globalen Investitionsvolumen bei nur 3,4%, und selbst eine massive Ausweitung der indischen Investitionen könnte einen leichten Investitionsrückgang in China kaum kompensieren. Zudem hat die Erfahrung gezeigt, dass der Erfolg des ostasiatischen Wachstumsmodells letztlich nur möglich war, weil die inländischen Ersparnisse gesteigert und die Exportaktivitäten massiv ausgeweitet wurden. Daraus folgt, dass Indien zunächst sicherlich ein gewisses Maß an internationalen Kapitalflüssen absorbieren könnte. Auf lange Sicht dürfte das Land aber eher ein geringes Defizit oder gar einen Überschuss anstreben, um Währungsreserven aufzubauen. Auch andere Schwellenländer in Afrika und Lateinamerika könnten von dem billigen Geld profitieren. Dass sie im großen Stil chinesisches Kapital aufsaugen, ist allerdings auch hier kaum zu erwarten. Studien zeigen, dass bei einem plötzlichen Anstieg der öffentlichen Investitionen in Schwellenländern deren wachstumsfördernde Wirkung tendenziell verpufft und am Ende eher höhere Schulden stehen. Der jüngste Aufruf des IWF und weiterer Akteure, verstärkt in die öffentliche Infrastruktur zu investieren, richtet sich somit eigentlich an die Industrieländer. Denn selbst wenn Deutschland verstärkt im Inland investieren würde, wäre die Differenz zwischen Investitionen und Ersparnissen dort immer noch so groß, dass wir uns schon glücklich schätzen können, wenn Europa die globale Ersparnisschwemme nicht noch weiter verschärft. Mit anderen Worten: Eine nachhaltige globale Konjunkturbelebung ist nur durch verstärkte Infrastrukturinvestitionen in den USA zu erreichen. Allein durch seine Größe ist das Land prädestiniert, die Überschüsse Chinas aufzufangen, und der schlechte Zustand der amerikanischen Infrastruktur bietet mehr als genug sinnvolle Investitionsmöglichkeiten. Ironischerweise dürfte also gerade das neue Mantra des IWF wieder zurück zu hohen globalen Ungleichgewichten führen. Dies nun aber einer gescheiterten Koordination der Wirtschaftspolitik auf internationaler Ebene zuzuschreiben wäre weit gefehlt. Vielmehr sollten Volkswirte Ungleichgewichte als naturgegeben hinnehmen und sich bemühen, die daraus folgenden Verzerrungen in den Griff zu bekommen. In der Vergangenheit ging praktisch jede neue Stufe der Globalisierung und jede Phase der Wohlstandsmehrung mit symbiotischen Ungleichgewichten einher, die jedes Mal wirtschaftliche Verwerfungen und Unmut hervorriefen. Und doch konnten sie sich über erstaunlich lange Zeiträume halten. So war die Weltwirtschaft im ersten und zweiten Jahrhundert n. Chr. maßgeblich geprägt vom indisch-römischen Handel. Während Indien in dieser Zeit einen Leistungsbilanzüberschuss auswies, beklagten die Römer Goldverluste und werteten ihr Münzgeld immer weiter ab – doch das System blieb bestehen. Gleiches gilt für die Ungleichgewichte des ursprünglichen Bretton- Woods-Systems, das bis Anfang der 1970er Jahre von Kapitalzuflüssen aus Europa gestützt wurde. Bretton-Woods-II war bis 2007 mit asiatischem Kapital unterlegt, während sich auf Seiten der USA jeweils die Defizite anhäuften. Wenn also das globale Wachstum wieder in Schwung kommen soll, benötigen wir ein Bretton-Woods-III mit China als Geldgeber und den USA als Zielland für das Kapital. Sollte diese Neuauflage von Bretton-Woods – aus welchem Grund auch immer – nicht die gewünschten Ergebnisse liefern, müssen wir uns wohl mit einem langfristig mittelmäßigen Wachstum abfinden. In diesem Falle dürfte billiges Geld den Vermögenspreisen weiter Auftrieb verleihen und die Renditen drücken. Die Geschichte lehrt uns, dass ein Teil dieses billigen Geldes zwangsläufig in Luxusartikel und Spekulationsblasen fließen wird. Besser aufgehoben wäre es in amerikanischer Infrastruktur. Konzept11 Die Nahtoderfahrungen des Euro in den letzten Jahren haben den Ruf laut werden lassen, die Währungsunion des Kontinents besser abzusichern und enger zu verzahnen: Mit einer Bankenunion, einer Fiskalunion, einer Kapitalmarktunion, einer politischen Union – die Liste der Initiativen ließe sich beliebig fortsetzen. Es gibt jedoch ein Feld, in dem unserer Ansicht nach eine größere Harmonisierung von erheblichem Vorteil für die gemeinsame Geldpolitik wäre: der europäische Hypothekenmarkt. Unterschiedliche Konjunkturzyklen sind die größte Herausforderung für die Europäische Zentralbank (EZB) bei der Gestaltung der Geldpolitik für 18 verschiedene Länder. Die derzeitige Nullzinspolitik ist für den deutschen Immobilienmarkt offenbar zu locker, für Länder in Südeuropa dagegen immer noch zu restriktiv. Und selbst für einzelne Länder ist ein einheitlicher Zinssatz nicht unproblematisch, da sich die Konjunkturzyklen zwischen Nord und Süd oder zwischen Stadt und Land unterscheiden können. So sind London und Nordengland genauso wenig ein optimaler Währungsraum wie Deutschland und Spanien. Und offen gesagt ist weder die EZB noch irgendjemand sonst in der Lage, die Konjunkturzyklen der europäischen Länder aneinander anzugleichen. Die EZB steht allerdings bei der Ausgestaltung ihrer Geldpolitik noch vor einem weiteren Problem, nämlich den Die Vereinigten Immobilien— Staaten von Europa Jochen Möbert, Nicolaus Heinen Konzept 12 strukturellen Unterschieden der geldpolitischen Transmissionsmechanismen. Dem Hypothekenmarkt kommt hierbei eine besonders wichtige Rolle zu. So wirken sich Zinsänderungen auf die Kosten für Immobilienkredite aus und werden so an die Privathaushalte weitergegeben. Wie effektiv und stark dieser Mechanismus wirkt, hängt jedoch von den Gegebenheiten an den Hypothekenmärkten der einzelnen Länder ab. Und hier bestehen innerhalb der Eurozone erhebliche Unterschiede. Nachfolgend ein Vergleich der wichtigsten Merkmale in den fünf großen europäischen Ländern: Der Immobilienkäufern maximal gewährte Beleihungsauslauf (Loan-to-Value, LTV) reicht in der Regel von 70% bis hin zu 90% und unterliegt im Zeitverlauf zudem erheblichen Schwankungen. Der LTV für bestehende Hypothekendarlehen als Prozentsatz des aktuellen Wertes der damit finanzierten Immobilien driftet somit sogar noch weiter auseinander. Deutschland hat zwar den größten Hypothekensektor (Wert: 1 Billion Euro), aber gemessen am Bruttoinlandsprodukt (BIP) beträgt er gerade mal 35% , Tendenz – im Gegensatz zu allen anderen europäischen Ländern – trotz Wohnimmobilienboom fallend. Im Vergleich dazu liegt der Wert der Hypothekarkredite im Verhältnis zur Wirtschaftsleistung in Italien bei einem Viertel, in Spanien bei 60% und in den Niederlanden bei über 100%. Auch bestehen erhebliche Unterschiede hinsichtlich der durchschnittlichen Laufzeiten der Darlehen in den einzelnen Ländern der Eurozone. In den Niederlanden gelten in der Regel lange Laufzeiten von 30 Jahren, in Deutschland sind es 25 Jahre und in Spanien 22 Jahre, während die durchschnittliche Laufzeit in Frankreich und Italien lediglich rund 15 Jahre beträgt. Die Hypothekendarlehen deutscher und französischer Haushalte sind in den meisten Fällen festverzinst. In beiden Ländern waren im vergangenen Jahr nur 15% der neu vergebenen Darlehen mit variablen Zinssätzen ausgestattet. Im Gegensatz dazu weisen in Spanien 90% der neuen Darlehen flexible Zinssätze auf, und jüngste Daten zeigen, dass dieser Prozentsatz während der Eurokrise noch gestiegen ist. Makroökonomische Instrumente sind schon in den besten Zeiten schwerfällig, aber diese Unterschiede machen die Aufgabe der EZB doppelt schwer. So wirkt sich eine Zinsänderung in Ländern mit großem Hypothekenmarkt, variablen Zinssätzen und hohen LTVs völlig anders aus als in Ländern mit kleinem Hypothekenmarkt, niedrigen LTVs und festen Zinssätzen. Dieser fragmentierte Transmissionskanal der Geldpolitik in die Wirtschaft macht die Auswirkungen von geldpolitischen Entscheidungen unkalkulierbar. Eine Harmonisierung des europäischen Hypothekenmarktes wäre eine mögliche Lösung für die Zukunft. Auf der politischen Agenda steht dieses Thema schon lange, und seit 2001 bestehen Koordinationsbemühungen auf freiwilliger Basis. In Gesetzesform wurde dieses Vorhaben aber erst im Februar 2014 gegossen, als die EU-Richtlinie über Wohnimmobilienkreditverträge angenommen wurde, die die Schaffung eines harmonisierten EU-Hypothekenmarktes zum Ziel hat. Die Richtlinie muss bis März 2016 in nationales Recht umgesetzt werden – Verzögerungen sind jedoch nicht auszuschließen. Das neue Regelwerk wird in einigen wichtigen Aspekten direkte Auswirkungen auf das Hypothekengeschäft haben. Der Schwerpunkt der Neuerungen liegt auf Transparenz und Wettbewerb. So gibt die Richtlinie beispielsweise vor, dass spezifische Hinweise vor den Risiken von Produkten wie variabel verzinslichen Darlehen und Fremdwährungskrediten warnen. Auch die Beziehung zwischen Kreditgebern und Kreditvermittlern muss offengelegt werden; daher müssen Banken und Kreditvermittler ein neues Kreditvergabeverfahren einführen, das wahrscheinlich langwieriger und detaillierter ausfallen wird. Zudem soll mit der verbindlichen Einführung eines standardisierten Merkblatts die Vergleichbarkeit von Kreditangeboten verbessert und der Wettbewerb zwischen Banken gefördert werden. Die Richtlinie sieht darüber hinaus das Recht der Darlehensnehmer Konzept13 auf eine vorzeitige Tilgung ihrer Darlehen vor. Und schließlich dürfen Kreditvermittler ihre Aktivitäten innerhalb des gesamten Europäischen Binnenmarktes ausweiten, sofern sie die Mindeststandards einhalten – ein weiterer Impuls für grenzüberschreitenden Wettbewerb. Die Richtlinie ist zwar ein erster wichtiger Schritt, lässt jedoch die wesentlichen strukturellen Unterschiede, die oben erörtert wurden, außer Acht. Vereinbarungen zu nebensächlicheren Aspekten wie Kopplungsgeschäften und Qualitätsstandards werden nicht zu einer Harmonisierung des Marktes führen. Und so wird die EZB weiterhin mit einem komplexen und schwer abschätzbaren Transmissionsmechanismus für ihre Geldpolitik zu kämpfen haben. Was also tun? Eine „Immobilienunion“ würde sich harmonisch in das Gesamtbild aus Währungsunion, Bankenunion und die anhaltende Debatte über eine Fiskal- und Kapitalmarktunion einfügen. Dahinter steht die Idee einer Angleichung aller einschlägigen Regelungen und Gesetze in der gesamten Eurozone, um so einen gemeinsamen Markt für Immobilienkredite zu schaffen. Dies ist freilich leichter gesagt als getan. So zeigt die Erfahrung mit der Richtlinie zu Wohnimmobilienkreditverträgen, dass es praktisch unmöglich ist, innerhalb kurzer Zeit eine Harmonisierung über alle Länder hinweg zu erreichen. Klüger erscheint es daher, dem Tempo der Umsetzung größere Bedeutung beizumessen als der Anzahl der teilnehmenden Länder. Ein machbarer zweistufiger Ansatz könnte darin bestehen, zunächst eine politische Übereinkunft hinsichtlich einer langfristigen und systematischen Harmonisierung zu erzielen, die sich auf die Schaffung einer gemeinsamen Struktur am Hypothekenmarkt konzentrieren würde. Für den gesamten Prozess müssten etwa 20 Jahre veranschlagt werden. Innerhalb der durch diesen ersten Schritt abgesteckten Grenzen könnte dann ein schnellerer vollumfänglicher Harmonisierungsprozess begonnen werden, der im Rahmen der sogenannten „verstärkten Zusammenarbeit“ nur eine Auswahl von Ländern einbinden und ca. fünf Jahre in Anspruch nehmen würde. Diese kleinere Gruppe von Ländern könnte eine starke regulatorische Gravitation entfalten, die wiederum andere Länder zur freiwilligen Übernahme der entsprechenden Standards motivieren könnte. Diese Schritte könnten schließlich einen einheitlichen Transmissionskanal im europäischen Hypothekenmarkt schaffen, über den geldpolitische Maßnahmen effektiver wirken könnten. Das Problem unterschiedlicher Konjunkturzyklen bliebe zwar nach wie vor ungelöst. Doch der Umfang der Herausforderungen für die EZB würde sich erheblich verkleinern. Konzept 14 Konzept15 Kluge individuelle Produktion und der Raspberry Pi Alexander Düring Auf dem jüngsten Natogipfel in Wales erhielten die Delegierten unter anderem einen Raspberry Pi als Abschiedsgeschenk. Dieser in England entwickelte und in Wales hergestellte Computer in der Größe einer Kreditkarte ist äußerst kostengünstig (ca. 30 US-Dollar) und dient der Nutzung von Computertechnologie und deren Anpassung an individuelle Bedürfnisse. Fast vier Millionen Raspberry Pi-Computer sind bislang verkauft worden. Doch hier geht es um mehr als eine kleine spaßige Erfolgsstory. Schaut man sich an, wer den Raspberry Pi gekauft hat und warum, so sagt dies einiges über die wirtschaftliche Zukunft Europas aus. Der natürliche Lebensraum des Raspberry Pi ist eine Subkultur, die manchmal als „Maker-Szene“ bezeichnet wird. „Maker“, also Technologieenthusiasten, nutzen alle möglichen Bausteine, um Dinge wie sprechende Elchköpfe, Vogelkästen mit Infrarottechnologie und Ballons, die Fotos aus der Stratosphäre machen, herzustellen. Was diese Bastler verbindet, ist ihre technologische Neugier, wenig Geld und Zeit und ihre Kreativität. Genauso wie Arbeiter ihren Lohn nach Hause tragen, den sie später als Verbraucher ausgeben, tragen sie auch Wissen nach Hause, das sie dann bei der Auswahl ihrer Produkte anwenden. Konzept 16 Maker sind zwar Individualisten, sie hängen aber dennoch von der Massenproduktion ab. Der Raspberry Pi hat beispielsweise das gleiche CPU-Design wie der Kindle von Amazon und die älteren iPhones von Apple. So sind etwa AVR-Mikrocontroller, die als Chips oft in Maker- Produkten verbaut sind, in Abermillionen von massenproduzierten Verbraucherprodukten zu finden. Die Software-Toolkette für diese Chips basiert in der Regel auf der GNU Compiler-Sammlung, die auch in PCs und Workstations häufig zum Einsatz kommt. Die weite Verbreitung bedeutet geringe Kosten, und genau deshalb werden diese Tools auch für Amateure zugänglich. Mit anderen Worten: Die Maker-Szene steht auf den breiten Schultern der Giganten aus der Telekommunikations-, Computer- und Haushaltsproduktebranche. Die Nutzung von Skaleneffekten und Technologie zur Entwicklung maßgeschneiderter Produkte für einzelne Kunden wird als kundenindividuelle Massenproduktion bezeichnet. Das Geschäftsmodell lebt von Kunden, die bereit sind, einen höheren Preis für ein maßgeschneidertes Produkt zu zahlen. Bei kundenindividueller Massenproduktion handelt es sich im Wesentlichen um ein Angebotskonzept, bei dem sich die Branche selbst fragt, was sie für den Kunden tun kann. Betrachtet man die Nachfrageseite, dann bewegen sich die Maker im Bereich völlig neuartiger, noch wenig erprobter Produkte in der individualisierten Massenproduktion, denn die von ihnen nachgefragten Produkte sind einzigartig. Gleichzeitig steht die Maker-Szene für den Massenbesitz komplexer Teilbereiche des Produktionsprozesses. Eine Schlussfolgerung aus dem Verkauf von vier Millionen Raspberry Pis lautet, dass der Markt für individualisierte Massenfertigung groß ist, denn ein Pi ist in der Regel der Anfang eines individuellen Produkts – nicht jedoch das fertige Produkt selbst. Eine zweite Folgerung ist, dass das Maß an elektronischem Know-how oder der Wille, ein solches zu erwerben, mitnichten auf die Mitarbeiter in den Forschungslaboren der Unternehmen beschränkt ist. Der Raspberry Pi kostet nur 30 US-Dollar $30 Der Raspberry Pi misst lediglich 86 x 56 x 21mm 86 mm Fast vier Millionen Raspberry Pis wurde bereits verkauft 4Mio Konzept17 Beide Schlussfolgerungen haben wesentliche Auswirkungen auf die Zukunft der Produktion in Europa. Die lineare Extrapolation sozialer Entwicklungen im 19. Jahrhundert bedeutete, dass eine immer größer werdende Lücke zwischen einem Proletariat mit geringer Bildung auf der einen Seite und einer Elite von Kapitalisten und innovativen Köpfen auf der anderen Seite entstehen würde. Im Gegensatz zu dieser Vorstellung ist bei kundenindividueller Massenproduktion ein hohes Maß an Mitarbeiterkompetenz erforderlich, da die Mitarbeiter in der Lage sein müssen, mit häufigen Änderungen im Produktionsprozess umzugehen. Die Entfremdung von Kapital und Arbeit ist keine Option für eine auf individualisierte Massenfertigung ausgerichtete Industriegesellschaft. So tappt der jüngste Trend zur Auslagerung auf Basis von Arbeitskosten beispielsweise in die Falle der alten Denkschule, dass die Ausbildung der Arbeitskräfte zweitrangig sei. Das Bildungssystem in einer Wirtschaft, die auf Basis von kundenspezifischer Massenproduktion operiert, muss eine weitaus breitere Palette an Schulungs- und Qualifikationsmöglichkeiten bieten. Es reicht nicht, einige wenige Eliteinstitutionen zu haben, die am laufenden Band kluge Köpfe hervorbringen, während der Rest der Bevölkerung dem Segment der gering qualifizierten Arbeitskräfte angehört. Sofern sich diese Vorstellung jemals gehalten hat, so ist sie spätestens jetzt in einer industriellen Landschaft mit kundenspezifischer Produktion unhaltbar geworden. Deutschland und Japan, beides Länder mit starken hochmargigen Produkten, stehen für eine Bildungsstruktur mit einem breiten Spektrum an Einrichtungen zwischen erstklassiger akademischer Ausbildung und reiner Berufsausbildung. Der mittlere Bildungsbereich dazwischen ist von erheblicher Bedeutung, und zwar nicht nur im Hinblick auf die Wettbewerbsfähigkeit der jeweiligen Branchen, sondern auch für die Nachfrage. Gewerkschaften argumentieren oft, dass auch die Kunden ausbleiben, wenn Arbeit nicht angemessen bezahlt wird. Was aber vielleicht wichtiger ist: Die fehlende Ausbildung von Arbeitskräften bedeutet gleichzeitig das Ausbleiben von Kunden für hochmargige Produkte. Genauso wie Arbeiter ihren Lohn nach Hause tragen, den sie später als Verbraucher ausgeben, tragen sie auch Wissen nach Hause, das sie dann bei der Auswahl ihrer Produkte anwenden. Wenn Unternehmen auf der Basis geführt werden, das nächste beliebige Produkt in großer Zahl möglichst noch billiger irgendwo weit weg herzustellen, wird die Rechnung nicht nur ohne die Arbeitskräfte gemacht, sondern auch ohne die Kunden. Diese zweite Schlussfolgerung ist für die Industrie Europas von großer Bedeutung. Europa ist ein wohlhabender Markt, der für kundenindividuelle Massenproduktion zahlen kann und wird, und Europa verfügt über entsprechend qualifizierte Arbeitskräfte, um diese Produkte herzustellen. Diese Verbindung ist eine Lektion, die Nicht-Nerds vom Raspberry Pi lernen können. Konzept 18 Konzept19 Die Schlagzeilen häufen sich: „KKR leiht spanischem Bauunternehmen Uralita 320 Millionen Euro“, „Anleger investieren Rekordsummen in fremdfinanzierte Fonds”, „Hedgefonds ersetzen Banken als Kreditgeber in Europa“, „Peer-to-Peer-Kreditbranche boomt: Zopa vergibt innerhalb eines Jahres Kredite in Höhe von 250 Millionen Pfund“. Im vergangenen Jahr berichtete die Financial Times , dass Kreditgeschäfte im Portfolio des Hedgefonds Apollo Global Management die Unternehmensbeteiligungen überholt hätten und dass das Unternehmen „seine Tätigkeit zunehmend auf traditionelle Bankgeschäfte, wie die Finanzierung von Bergbau-, Energie-, Logistik-, Infrastruktur- und Luftfahrtprojekten ausweiten“ werde. Zudem glaubten „alle großen Buy-Out-Unternehmen, dass die Bereitstellung von Krediten hervorragende Wachstumschancen“ biete. Willkommen in der Welt des Schattenbankensystems: Sie birgt zahlreiche Vorteile, bringt aber auch Risiken mit sich. Michal Jezek Im Dunkeln ist gut munkeln: Das Schattenbankensystem Konzept 20 Seit der Finanzkrise haben die Regulierungs- und Aufsichtsbehörden bei den Banken die Daumenschrauben angezogen. Die regulatorischen Auflagen hinsichtlich der Qualität von Vermögenswerten, Kapitalaustattung, Verschuldungsgrad und Liquidität wurden verschärft, und die Bewegungsfreiheit der Banken wurde durch direkte und indirekte Maßnahmen eingeschränkt. Aufgrund des wirtschaftlichen und regulatorischen Drucks haben Banken ihren Verschuldungsgrad stark reduziert oder sich ganz aus ihren traditionellen Geschäftsfeldern zurückgezogen. Dadurch ist im Finanzsystem ein Vakuum entstanden, das zunehmend durch andere Akteure gefüllt wird – die Schattenbanken. Schattenbanken sind Unternehmen, die Finanzintermediation ausüben und eine Fristentransformation betreiben, indem sie kurzfristige Kredite aufnehmen und langfristige vergeben – genau wie traditionelle Banken. Der Sektor umfasst Finanzinstitute wie Geldmarkt-Investmentfonds, Hedgefonds, strukturierte Finanzinstrumente, Kreditfonds, Peer-to-Peer-Kreditgeber, Händler, Immobilien- Investmenttrusts und Private-Equity- Gesellschaften. Selbst vermögende Familien schneiden sich über ihre Family Offices ein Stück vom Kuchen ab. Und dieser Kuchen schmeckt gut: Denn ohne Banklizenz unterliegen die Schattenbanken nicht denselben strengen gesetzlichen Kontrollen wie traditionelle Banken. Das allein ist noch kein Grund zur Sorge, da Verluste unterschiedlich aufgefangen werden können. Manche Experten sind sogar der Meinung, dass die Übertragung der Risiken von den Banken – vor allem von systemrelevanten großen Instituten – auf andere Finanzintermediäre zu begrüßen ist, weil dadurch das systemische Risiko gesenkt würde. Die mangelnde Transparenz der Schattenbanken kann jedoch auch zu verdeckten Anfälligkeiten des Finanzsystems führen, die sich unkontrolliert ausweiten – bis plötzlich ein Ausmaß erreicht ist, das selbst eine systemrelevante Dimension annimmt. Da Schattenbanken nicht an das System der Einlagensicherung angeschlossen sind und zudem nicht auf die Liquiditätsreserven der Zentralbanken zugreifen können, besteht bei ihnen zudem eher die Gefahr eines Sturms auf die Bankschalter im Falle einer Anlegerpanik („Bank-Run“) als bei traditionellen Geldinstituten. Jede Erschütterung in diesem Sektor kann auf verschiedenen Wegen das übrige Finanzsystem erreichen, etwa durch gemeinsame Eigentümer, den Rückzug aus bestimmten Märkten, die Zuwendung der Anleger zu zuverlässigeren Instrumenten oder Notverkäufen. Schattenbanken bergen daher ein hohes systemisches Risiko. Selbst das Argument der Größenordnung greift hier nicht unbedingt, weil es fraglich ist, ob eine Ansammlung vieler kleiner Akteure im Schattenbankensystem weniger riskant ist als eine Handvoll großer Institute im regulierten Bankensystem. Das gilt ganz besonders dann, wenn Herdenverhalten vorherrscht und alle den gleichen „profitablen“ Geschäften hinterherlaufen. Laut Schätzungen des US- amerikanischen Finanzstabilitätsrats erreichte die Finanzintermediation von Nicht-Banken – der beste Anhaltspunkt für das Volumen des Schattenbankensektors – Ende 2013 ein Volumen von 75 Billionen US-Dollar. Dies entspricht einem Anstieg von 5 Billionen US-Dollar gegenüber dem Vorjahr. Der Anteil dieser Geschäfte am Gesamtvolumen ist in jeder Region anders. In den USA machen Schattenbanken im Vergleich zu den Vermögenswerten aller Banken rund 175% aus, in der Eurozone 60%, in Großbritannien 45%, in den übrigen Industrieländern 25% und in Schwellenländern 50%. Das stärkste Wachstum des Schattenbankensystems in den letzten zehn Jahren wurde in den Schwellenländern verzeichnet. Weltweit entfällt ca. ein Viertel der gesamten Finanzintermediation auf Nicht-Banken; dies ist mehr als das globale Bruttoinlandsprodukt. Die potenzielle systemische Bedeutung darf daher nicht unterschätzt werden. Einen ersten Vorgeschmack auf die Konzept21 Risiken, die mit Schattenbankengeschäften verbunden sind, konnte man bereits Ende der Neunzigerjahre erhalten. Die Krise und Auflösung von Long Term Capital Management im Jahr 1998 ist ein klassisches Beispiel dafür, wie ein einziger Hedgefonds um ein Haar das gesamte Finanzsystem in die Knie gezwungen hätte. Der stark fremdfinanzierte Fonds stellte durch seine Forderungen an Gegenparteien und die Gefahr von Zwangsliquidationen ein systemisches Risiko dar. Am Ende blieb der Federal Reserve nur eine private Rettungsaktion durch Kreditgeber und Kontrahentenbanken. Schattenbanken waren auch in die Anfänge der globalen Finanzkrise verwickelt. Bei der Subprime-Krise in den USA übertrugen sich die Erschütterungen über Zweckgesellschaften und strukturierte Finanzinstrumente – und somit Unternehmen aus dem Schattenbankensystem – auf systemisch relevante Banken und Unternehmen weltweit und lösten so eine globale Krise aus. Eine Anlegerpanik bei Geldmarkt-Investmentfonds – ein weiteres Beispiel für Schattenbankentätigkeiten – musste beispielsweise durch staatliche Garantien abgewendet werden. Liquiditätskrisen durch den Run auf Schattenbanken können sich schnell zu einer Solvenzkrise ausweiten und dadurch auch der Realwirtschaft schaden. In Anbetracht all dieser Risiken haben die globalen Regulierungsbehörden das Schattenbankensystem schon seit einiger Zeit im Visier, und es wurden bereits Fortschritte bei der Schaffung eines stabileren Regulierungs- und Aufsichtssystems gemacht. Derzeit gibt es die folgenden Regelungen und Vorschläge: Obergrenzen für das Engagement von Banken im Schattenbankensystem, Minderung der mit Investmentfonds verbundenen Risiken durch den Umstieg auf eine kurzfristige Nettovermögensbewertung sowie die Einführung von Tilgungsgebühren und Schwellenwerten, Kapital- und Liquiditätsanforderungen, Einschränkung von Laufzeitdiskrepanzen, Anreize für mehr Übersichtlichkeit und Transparenz bei Verbriefungen sowie Maßnahmen zur Risikominderung im Zusammenhang mit Neubeleihung. Der US-Finanzstabilitätsrat entwickelt momentan eine Methodik zur Identifizierung systemisch relevanter Nicht- Banken und Nicht-Versicherer. Zweifellos profitiert die Gesamtwirtschaft vom Schattenbankensektor, denn er stellt Kredite bereit und erweitert das Angebot der finanziellen Dienstleistungen insgesamt. Doch wie bei jeder Finanzintermediation gibt es auch hier Risiken, und die mangelnde Transparenz erschwert die Arbeit der Regulierungs- und Aufsichtsbehörden. Die Vorteile des Schattenbankensystems dürfen nicht durch restriktive Regelungen zunichte gemacht werden, daher sollten sich die Regulierungsbehörden in erster Linie auf die systemisch wichtigen Bereiche des Sektors sowie auf die Vermeidung von regulatorischer Arbitrage konzentrieren. Allein die Tatsache, dass Schattenbanken durch die erhöhte Risikoüberwachung plötzlich verstärkt im Rampenlicht stehen, dürfte schon zu einer deutlich höheren finanziellen Stabilität führen. Konzept 22 Konzept23 Im Vorfeld der weltweiten Wirtschafts- und Finanzkrise haben politische Entscheidungsträger und Aufsichtsbehörden in Zeiten eines starken Kreditwachstums und geringer Inflation den Schwächen des Finanzsystems und systemischen Risiken eher wenig Beachtung geschenkt. Während sich die Währungshüter auf die Preisstabilität konzentrierten, richtete die Finanzaufsicht ihr Augenmerk eher auf die Geschäftspolitik einzelner Finanzinstitute. Was fehlte, war eine Institution mit dem Mandat, die Stabilität des gesamten Finanzsystems zu sichern. In diesem Zusammenhang hat sich der Begriff der makroprudenziellen Aufsicht durchgesetzt. Ziel der makroprudentiellen Aufsicht ist es, Finanzstabilität zu wahren, indem systemische Risiken eingehegt und dadurch mögliche Schocks für den Finanzsektor und die Realwirtschaft vermieden werden. Hierzu bedarf es einer ganzheitlichen Betrachtung des Finanzsystems, die die Risikobeurteilung einzelner Finanzinstitute ergänzt. 1 Zu den bislang angewandten Maßnahmen zählen die Begrenzung des Beleihungsauslaufs (LTV), die Anhebung der Reserveanforderungen und selektive Risikogewichtungen. Die Beobachtung von Kredit- und Vermögenspreiszyklen soll systemische Risiken über Eingriffe im Bedarfsfall verringern und zugleich die Widerstandskraft des Finanzsystems gegenüber systemischen Schocks erhöhen. Makroprudentielle Instrumente lassen sich entweder strukturell oder variabel bei akutem Bedarf einsetzen. In letzterem Fall zielen sie auf die Drosselung (oder Wiederbelebung) von Kreditflüssen ab – üblicherweise im Immobiliensektor. Dies soll prozyklische Entwicklungen und deren Übergreifen auf andere Sektoren verhindern. Ebendiese Funktion steht heute im Fokus der Politik. Insbesondere Länder ohne unabhängige Geldpolitik erhoffen sich von makroprudenziellen Maßnahmen einen Einfluss, den viele nicht selten mit der Wirkung von Zinsinstrumenten einer Zentralbank vergleichen. Glücklicherweise ist der Ansatz selbst nicht neu, und es gibt umfangreiches historisches Makroprudenzielle Aufsicht—kein Wundermittel Nicolaus Heinen in Zusammenarbeit mit Max Watson, Programme Director, Political Economy of Financial Markets, Universität Oxford. Mit großem Bedauern müssen wir mitteilen, dass der von uns hochgeschätzte Max Watson, mit dem Deutsche Bank Research über viele Jahre verbunden war, am 14. Dezember 2014 verstorben ist. Wir gedenken seiner mit diesem Artikel. Konzept 24 Anschauungsmaterial, das bewertet werden kann. Vieles deutet darauf hin, dass drei große Herausforderungen bestehen. Die erste besteht in Schwachstellen im System und möglichem Ausweichverhalten. In den letzten 20 Jahren wurden in einigen Schwellenländern, aber auch in Dänemark, Irland, Hongkong und Spanien makroprudenzielle Aufsichtsstrukturen eingeführt. Bei den letzten vier Ländern handelt es sich im Wesentlichen um kleinere offene Volkswirtschaften, die über Kapitalflüsse eng mit ihren Nachbarn verzahnt sind. Dies wirft die Frage nach Schwachstellen im System und möglichem Ausweichverhalten auf. Insbesondere die Erfahrungen mit variablen makroprudenziellen Maßnahmen sind unterschiedlich – dies gilt sowohl für die Länder Asiens als auch für die aufstrebenden Staaten Osteuropas, bis hin zu einigen entwickelten Volkswirtschaften in der Europäischen Union. So gab es in einigen osteuropäischen Ländern, die stark in die Kapitalmärkte der Eurozone eingebunden sind, nach dem Einsatz variabler Maßnahmen Schockeffekte von bis zu zwei Jahren, die das Wachstum bei Bankkrediten verlangsamten. 2 In einigen asiatischen Ländern führten die Maßnahmen hingegen nicht zu einem Rückgang von Hypothekarkrediten, wohl aber zu einer stärkeren Widerstandsfähigkeit der Banken. 3 Diese Erfahrungen zeigen, dass die Wirkung der Maßnahmen in der Regel nachlässt, sobald regulatorische Arbitrage einsetzt. 4 Die zweite große Herausforderung sind polit-ökonomische Interessenkonflikte. Erfolgt die makroprudenzielle Aufsicht durch Institutionen, die politisch nicht unabhängig sind, können die ergriffenen Maßnahmen zu Beginn unter Umständen nicht ausreichend sein – wie beispielsweise in Irland und Spanien in den Jahren vor der Krise. In der Eurozone hat der Europäische Ausschuss für Systemrisiken als Teil der Europäischen Zentralbank die Aufgabe der makroprudenziellen Aufsicht im Jahr 2011 übernommen. Doch auch die EZB kann zwar Einwände gegen nationale Maßnahmen erheben, diese Maßnahmen letztlich jedoch nicht verhindern. Zugleich kann sie allerdings auch ihre eigenen Maßnahmen ergreifen. Unverkennbar wurde so ein Nährboden für Überschneidungen und sogar widersprüchliche Maßnahmen bereitet. Nicht zuletzt muss die EZB als Aufsichtsbehörde eine breite Palette an Kapitalpuffern bewerten, die wiederum von den nationalen Aufsichtsbehörden gesetzt werden. 5 Die Zuständigkeit der EZB für die Geldpolitik, die Bankenaufsicht und die makroprudenzielle Aufsicht ist eine weitreichende Konzentration von Befugnissen, die miteinander in Wechselwirkung stehen. Somit ist das Risiko von Interessenkonflikten gegeben. 6 Die dritte Herausforderung, die sich aus den bisherigen Erfahrungen mit makroprudenzieller Politik ableiten lässt, ist der mangelnde Konsens hinsichtlich angemessener Warnsignale und kritischer Schwellenwerte. Dies gilt insbesondere für die Höhe des Kreditvolumens im Verhältnis zum Bruttoinlandsprodukt eines Landes. Ein international vergleichbarer, einheitlicher Katalog an Indikatoren, Schwellenwerten und Methoden könnte im Voraus für mehr Transparenz darüber sorgen, wann und wie makroprudenzielle Strukturen eingreifen sollen. 1 Vgl. hierzu: Makroprudenzielle Aufsicht: Auf der Suche nach einem ganzheitlichen Ansatz zur Vermeidung systemischer Risiken. Deutsche Bank Research von C. Weistroffer (2012). 2 Berichte im Rahmen der Artikel-IV-Konsultationen des IWF für Bulgarien, Kroatien und Rumänien. 2006-08. 3 Vgl. hierzu Loan-to-value-ratio as a macroprudential tool – Hong Kong SAR’s experience and cross-country evidence, BIS Paper 57. Basel: Bank für Internationalen Zahlungsausgleich. „The Operation of Macro Prudential Policy Measures: The Case of Korea in the 2000s“, BOK Working Paper No 2013-1, Seoul: Bank of Korea. Beide von JK Lee (2012). 4 Do Loan-to-Value and Debt-to-Income Limits Work? Evidence from Korea, Deniz Igan und Heedon Kang, IMF Working Paper WP/11/297. Washington: Internationaler Währungsfonds. D. Igan und H. Kang (2011). 5 EU-Bankenunion – Richtige Idee, schlechte Durchführung. Deutsche Bank Research: EU-Monitor. B. Speyer (2013). 6 EU-Bankenunion – Besser gründlich als schnell! Deutsche Bank Research: EU-Monitor. B. Speyer (2013). Konzept25 Diese Herausforderungen sind auch für Länder außerhalb Europas von Bedeutung. In den USA, wo nun bereits seit geraumer Zeit ein sehr niedriges Zinsniveau herrscht, wird man vermehrt auf die Möglichkeiten makroprudenzieller Maßnahmen aufmerksam – wobei der Schwerpunkt jedoch eindeutig auf strukturellen Ansätzen sowie auf der Frage liegt, wie auch systemische Risiken angegangen werden können, die von Nichtbanken ausgehen. Im Jahr 2009 wurde der Financial Stability Oversight Council eingerichtet. Diese makroprudenzielle Aufsichtsbehörde hat ein breiteres Mandat als ihre europäischen Pendants und verfügt über größere Interventionsbefugnisse, da hier das Risiko von Interessenkonflikten geringer ist. Unterdessen ist man auch in China angesichts des Übergangs zu marktwirtschaftlichen Instrumenten an branchenspezifischen Richtlinien mit makroprudentiellen Maßgaben interessiert. Gleichwohl befindet sich die makroprudentielle Aufsicht Chinas noch in einem frühen Entwicklungsstadium. So kam der IWF 2013 zu dem Schluss, dass die makroprudenzielle Aufsicht in China nur eingeschränkt wirksam und wenig zielgerichtet sei, während zugleich enorme systemische Risiken bestünden. 7 Die Auswirkungen, die variable makroprudenzielle Instrumente bei der Eindämmung des Kreditwachstums in großen offenen Volkswirtschaften haben könnten, können noch nicht abschließend bewertet werden. Dies betrifft auch die potenzielle Notwendigkeit einer koordinierten Vorgehensweise im Falle eines extremen Abwärtstrends des Kredit- und Konjunkturzyklus, wenn die Zinssätze den Boden erreichen. Diese Überlegungen unterstreichen auch, wie wichtig der ergänzende Einsatz struktureller makroprudentieller Maßnahmen ist, der generell für angemessene sektorbezogene Grenzwerte und Auflagen sorgt und nicht darauf abzielt, Maßnahmen aktiv und häufig entlang des Konjunkturzyklus zu variieren. Makroprudenzielle Maßnahmen werden zunehmend als wichtiger Bestandteil des politischen Instrumentariums erachtet. Sie sind jedoch kein Wundermittel. Bis auf Weiteres bleibt daher abzuwarten, ob die makroprudenzielle Aufsicht in der Lage sein wird, die Währungshüter weltweit in ihrer derzeit wichtigen Funktion als Eingreiftruppe letzter Instanz abzulösen. Extreme Situationen dürften weitere dezidierte Maßnahmen erfordern. Ein funktionierendes fiskal- und geldpolitisches Instrumentarium ist hierfür unerlässlich. 7 Vgl. How effective are macroprudential policies in China? IWF, Working Paper 13/75. Washington: Internationaler Währungsfonds. B. Wang und T. Sun (2013). Konzept 26 Rineesh Bansal, Stuart Kirk Klimaziele— Paradigmenwechsel für die Ölindustrie Zukunftsprognosen sind ein schwieriges Geschäft – für viele gar ein Ding der Unmöglichkeit. Entwicklungen im Rückblick zu erklären, ist einfacher, auch wenn die Erklärungen nicht immer auf der Hand liegen. So lässt sich beispielsweise der stärkste jährliche Rückgang des Ölpreises innerhalb einer Generation – die Halbierung im Jahr 2008 – ex post auf den weltweiten Konjunktureinbruch zurückführen. Umso erstaunlicher scheint es, dass offensichtlich niemand eine eindeutige Begründung für den Preisrutsch von 45% im vergangenen Jahr hat – den zweitgrößten jährlichen Rückgang des Ölpreises in den letzten 30 Jahren. 27 Konzept Vielleicht ist es den Experten peinlich, hier vorerst passen zu müssen. Doch fairerweise muss man auch einräumen, dass Standarderklärungen in diesem Fall offenbar nicht greifen. Es müssen daher auch unkonventionellere Hypothesen geprüft werden. Eine solche lautet: Es lag am Wetter. Ist das nicht die naheliegendste Erklärung? Das Wachstum der Weltwirtschaft war mit 3,0% bis 3,5% im vergangenen Jahr zwar nicht spektakulär, aber auch keine Katastrophe. Geht man vom historischen Verhältnis Wirtschaftsleistung und Rohölnachfrage aus, hätte das Wachstum im Jahr 2014 eigentlich zu einer Nachfragesteigerung von 1,0 bis 1,5 Millionen Barrel pro Tag führen müssen. Und trotz eines vieldiskutierten vermeintlichen Angebotsüberhangs lag der Produktionsanstieg im vergangenen Jahr ebenfalls bei etwa 1,5 Millionen Barrel pro Tag. Andere Faktoren wie der stärkere Dollar hatten zwar sicherlich einen gewissen Effekt, doch auch in anderen Währungen ist der Ölpreis massiv gefallen. Und auch Themen wie Schiefergas in den USA, schwächeres Wachstum in China und die schwierigen politischen Verhältnisse im Nahen Osten sind nicht wirklich neu. Die eigentlichen Ursachen für den Ölpreisverfall im vergangenen Jahr sind andere: Zum einen war es das heißeste Jahr seit Beginn der Wetteraufzeichnungen – sogar heißer als das Jahr 2010 mit dem bisherigen Hitzerekord. Zum anderen verständigten sich China und die USA, also die weltweit größten Verursacher von CO2-Emissionen, im November auf neue Ziele zur Reduktion des CO2-Ausstoßes. Da sich diese beiden Nationen, die für 50% der weltweiten CO2-Emissionen verantwortlich sind, nun ebenfalls dem Klimaschutz verschrieben haben, ist ein weitaus größerer Optimismus im Hinblick auf ein internationales Abkommen auf der UN-Klimakonferenz Ende des Jahres in Paris gerechtfertigt. Ein solches Abkommen mit strengen CO2-Emissionsgrenzen würde bedeuten, dass alle Unterzeichner akzeptieren, dass die weltweit bekannten Vorräte an fossilen Brennstoffen nicht vollständig gefördert und aufgebraucht werden dürfen. Eine solche Vereinbarung würde für die Ölindustrie einen Paradigmenwechsel bedeuten. Zunächst einmal würde an die Stelle der tiefsitzenden Angst vor einer Erschöpfung der Ölvorräte, die seit mehr als einer Generation das Denken weltweit geprägt hat, die Erkenntnis treten, dass ein großer Teil dieses Öls ungenutzt unter der Erde bleiben wird. In einem solchen Szenario wäre Öl nicht länger ein knapper Rohstoff, dessen Wert mit der Zeit immer weiter steigt, sondern ein verderbliches Gut, das mit der Zeit an Wert verliert. Der Ölpreis wird in Zukunft also nicht mehr von den Reserven, sondern von den Klimazielen bestimmt. Konzept 28 Das sind durchaus keine bloßen Hirngespinste. Der ehemalige Chef von BP, Lord Brown, sprach in diesem Zusammenhang jüngst von einer „existenziellen Bedrohung“ für die Ölindustrie. Der britische Energieminister Ed Davey hat davor gewarnt, dass Aktien von Unternehmen im Bereich fossiler Brennstoffe die toxischen Papiere der Zukunft werden könnten – man erinnere sich an die Subprime-Krise – und wies gleichzeitig auf das Anlagerisiko hin, das sie damit für Pensionsfonds darstellen. Selbst Zentralbanken denken mittlerweile in diese Richtung. Die Bank of England hat sich im Rahmen einer formalen Risikobewertung die Frage gestellt, welche potenziellen Risiken für die Finanzstabilität von großen Ölkonzernen ausgehen könnten, die wegen Klimazielen einen Großteil ihrer Reserven verlieren. Auch Wirtschaft und Politik sowie die Aufsichtsbehörden sind mittlerweile für dieses Thema sensibilisiert. Aber was haben die Klimaziele eigentlich mit dem Ölverbrauch zu tun? Auf der UN-Klimakonferenz im Jahr 2010 in Cancun kamen die Länder überein, die durchschnittliche globale Erwärmung auf maximal 2 Grad Celsius gegenüber dem Niveau vor Beginn der Industrialisierung zu beschränken. Damit war ein großer Schritt getan, insbesondere wenn man sich vor Augen hält, dass sich die Erde bereits um 0,8 Grad Celsius erwärmt hat. 1 Seither haben Wissenschaftler einen CO2-Budgetplan ausgearbeitet, um die Fortschritte bei der Erreichung dieses Temperaturziels bewerten zu können. Schätzungen des Weltklimarats zufolge muss der gesamte CO2-Ausstoß seit dem 19. Jahrhundert unter 3.670 Gigatonnen gehalten werden, um die Wahrscheinlichkeit einer Verfehlung des Zwei-Grad-Ziels auf unter ein Drittel zu senken. Auf Basis der historischen Emissionen an Kohlendioxid und anderen Treibhausgasen bleibt damit nur noch ein Rest von 1.000 Gt, der verbraucht werden darf 2 . Bei jährlichen Treibhausgasemissionen von derzeit 55 Gt mit weiter steigender Tendenz wird das gesamte CO2-Budget in weniger als zwei Jahrzehnten verbraucht sein – und damit viel früher, als die Reserven an fossilen Brennstoffen erschöpft sein werden. Natürlich können alle möglichen Dinge passieren, die verhindern, dass dieses Szenario eintritt. So könnte etwa die wissenschaftlich fundierte These einer Kausalkette Mensch–CO2- Emissionen–Klimawandel schlüssig widerlegt werden – auch, wenn dies sehr unwahrscheinlich ist. Denkbar wären auch technologische Innovationen, beispielsweise die schnellere Umsetzung von Projekten zur Abspaltung von CO2 am Kraftwerk und Einlagerung in unterirdischen Lagerstätten (CO2- Sequestrierung). Damit wären die Klimaziele für die Wirtschaft 1 Internationale Energieagentur, Redrawing the Energy-Climate Map. Juni 2013. 2 UNEP 2014. The Emissions Gap Report 2014. United Nations Environment Programme. 29 Klimaziele—Paradigmenwechsel für die Ölindustrie Wenn eine realistische Chance bestehen soll, die momentan vereinbarten Klimaziele auch zu erreichen, müsste über die Hälfte der bestätigten Reserven an fossilen Brennstoffen dort bleiben, wo sie sind— unter der Erde Konzept 30 31 Klimaziele—Paradigmenwechsel für die Ölindustrie leichter zu verkraften. Es besteht auch die Möglichkeit, dass der politische Wille zur Durchsetzung des Zwei-Grad-Ziels nachlässt und damit fossile Brennstoffe weiter genutzt werden könnten. Doch anstatt auf diese oder andere unvorhersehbare Ereignisse zu setzen, sollten sich Anleger zumindest bewusst machen, welche Auswirkungen es haben wird, wenn die Weltgemeinschaft es mit den Klimazielen ernst meint. Eines ist klar: Wenn die Klimaziele tatsächlich eingehalten werden sollen, muss die Nachfrage nach Öl im Laufe der Zeit sinken. In einem hypothetischen Szenario beschränkt die Internationale Energieagentur die Konzentration von Treibhausgasen in der Atmosphäre künftig auf 450 ppm. Damit bestünde eine realistische Chance, das Zwei-Grad-Ziel zu erreichen. Dazu müssten die CO2-Emissionen im Jahr 2020 ihren Höchststand erreicht haben und anschließend bis 2035 um 2,5% pro Jahr zurückgehen. Für die Ölnachfrage in diesem Zeitraum wird ein Rückgang von 0,5% pro Jahr prognostiziert, verglichen mit einem Anstieg von 1,5% pro Jahr in den letzten beiden Jahrzehnten. Die jüngst von den USA und China vereinbarten Klimaziele erfordern einen neuen Kurs in der Energiepolitik, mit dem sich die Ölnachfrage beider Länder in den nächsten 15 Jahren um 15 Milliarden Barrel bzw. rund 10% senken lässt 3 . Unter der einen Milliarde Neuwagen, die bis 2035 vom Band laufen werden, müssen also eine ganze Menge Elektroautos sein. Eine sinkende Nachfrage stellt auch die obsessive Suche nach immer neuen Ölvorkommen in Frage. Die weltweiten Reserven entsprechen sowohl bei Öl als auch bei Gas derzeit einem Volumen im Wert von mehr als 50 Jahren und bei Kohle von mehr als 100 Jahren des aktuellen Förderniveaus. Die Nutzungsdauer von Ölreserven hat sich in den letzten 30 Jahren verdoppelt, da sich die Reservemenge mit der Entdeckung neuer Vorkommen wesentlich schneller erhöht hat als die Fördermengen. Die Nutzung all dieser Reserven würde CO2- Emissionen in Höhe von 2.500 Gigatonnen bzw. des 2,5-fachen des verbleibenden Budgets von 1.000 Gt freisetzen. Vereinfacht gesprochen: Wenn eine realistische Chance bestehen soll, die momentan vereinbarten Klimaziele auch zu erreichen, müsste über die Hälfte der bestätigten Reserven an fossilen Brennstoffen dort bleiben, wo sie sind – unter der Erde. Wenn man bedenkt, dass die Zeit unter diesem Blickwinkel gegen die Ölindustrie läuft, ist die Entscheidung der OPEC auf ihrer letzten Sitzung im November, die Produktion nicht zurückzuschrauben, nur folgerichtig. In dieser neuen Welt haben OPEC-Mitglieder wesentlich weniger Spielraum, Erträge 3 Rede von Lord Browne, ehemaliger Chief Executive von BP, Nov. 2014. Konzept 32 in die Zukunft zu verschieben. Die logische Konsequenz ist die Maximierung der Produktion, bevor der Ausstoß des klimaschädlichen CO2 reduziert werden muss. Die OPEC-Länder sitzen auf Ölreserven, die über 100 Jahren des aktuellen Produktionsniveaus entsprechen (verglichen mit 25 Jahren bei Nicht-OPEC-Ländern) – sie sind diejenigen, die in einem Zukunftsszenario mit Beschränkungen für Treibhausgasemissionen am meisten zu verlieren haben. Sollten wirklich solche Ängste bestimmend für die Entscheidung der OPEC gewesen sein, dürfte die Produktion auch weiterhin auf Hochtouren laufen, damit das schwarze Gold noch möglichst viel Geld in die Kassen spült. Man beachte die Äußerungen des Energieministers der Vereinigten Arabischen Emirate im letzten Monat, dass die OPEC selbst bei einem Ölpreis von 20 US-Dollar bei ihrer Entscheidung bleiben würde. Es war ohnehin schon ein Paradox, dass zur Stabilisierung der Preise die kostengünstige Förderung in Saudi-Arabien zurückgefahren werde sollte, anstatt teurere Produktionsmöglichkeiten aufzugeben. Während dies eine Option in einem Markt mit knappem Angebot gewesen wäre, funktioniert diese Strategie bei einer Verknappung der Nachfrage nicht mehr. Mit ihrem vergleichsweise billigen Öl wird die OPEC die Produktion erhöhen, um den Wegfall von in der Förderung teureren Öls aus anderen Ländern zu kompensieren. Der Westen kann sich dann zwar über niedrige Ölpreise freuen, muss andererseits aber auch wieder mit der Angst einer zu starken Abhängigkeit vom Öl aus dem Nahen Osten leben. Immerhin: ein positiver Aspekt wäre möglicherweise eine gewisse Entspannung in den internationalen Ressourcenkonflikten: Denn wenn die Ölreserven in der Arktis uninteressant werden, muss niemand mehr Flaggen aus Titan auf dem Meeresboden unter dem Nordpol verankern. Wie würden sich die Ölkonzerne an diese schöne neue Welt anpassen? Die internationale Ölindustrie hat im vergangenen Jahr 650 Milliarden US-Dollar für die Exploration und Erschließung neuer Vorkommen ausgegeben – das entspricht zwei Dritteln der Gesamtausgaben im Upstream-Geschäft (Exploration und Förderung). Selbst inflationsbereinigt hat sich diese Zahl seit der Jahrtausendwende versechsfacht. Diese Investitionen generieren einen zunehmend geringeren Grenzertrag an zusätzlichen Reserven. Mit knapp 30 US-Dollar pro Barrel haben sich die Explorations- und Erschließungskosten bei den sieben großen Ölkonzernen innerhalb eines Jahrzehnts verdreifacht. Im Vergleich dazu belaufen sich die operativen 33 Klimaziele—Paradigmenwechsel für die Ölindustrie Produktionskosten (vor Steuern und Lizenzgebühren) auf nur 10 US-Dollar je Barrel. Wenn das Zwei-Grad-Ziel das Ende der Exploration bedeuten würde, würden die Grenzkosten für die Industrie eher in diesem Bereich liegen. Dies wird Konsequenzen für den Ölpreis haben – und auch für die fördernden Unternehmen: Denn wenn das das Öl im Boden bleibt, verliert die Ölindustrie damit einen großen Teil ihres derzeitigen Nettovermögens. Die Welt hat zwischen 2011 und 2013 5% ihrer gesamten Wirtschaftsleistung für Öl ausgegeben. Ende der 1990er Jahre lag dieser Wert noch bei nur einem %. Bei einem so wichtigen Produktionsfaktor ist eine Halbierung der Preise nicht nur eine große Überraschung, sondern bedarf auch einer Erklärung. Auch wenn es in der Vergangenheit immer wieder Schwankungen beim Ölpreis gab, war Öl doch stets ein knapper Rohstoff mit begrenztem Angebot. Wenn die Gemeinschaft der Staaten ihr Bekenntnis zum Klimawandel wirklich ernst meint, wird dies zu einem Paradigmenwechsel im Erdölgeschäft führen. Der Ölpreis wird von der durch Klimaziele beschränkten Nachfrage bestimmt werden. Dies wird wiederum Auswirkungen auf das Verhalten von Ländern, Unternehmen und Verbrauchern gleichermaßen haben. Vielleicht war der Preisverfall im letzten Jahr nur das erste Anzeichen eines tiefgreifenden Wandels. Konzept 34 35 Klimaziele—Paradigmenwechsel für die Ölindustrie Unternehmensanleihen— Untiefen der Liquidität Konzept 36 Viele Buy-Side-Investoren sehen in der mangelnden Liquidität am Anleihemarkt schon länger ein Problem. Mit der überraschenden Verkaufswelle am Markt für High-Yield-Anleihen im vergangenen Sommer hat dieses Thema erneut an Brisanz gewonnen. In der klassischen Definition sind Anleihen dann liquide, wenn man sie in normalen Größenordnungen kaufen oder verkaufen kann, ohne dass es dadurch zu einer wesentlichen Beeinflussung der Marktpreise kommt. In jüngster Zeit wird der Begriff jedoch umgangssprachlich auch dazu verwendet, die Situation am Anleihemarkt (insbesondere am Markt für Unternehmensanleihen) mit der Zeit vor der Krise zu vergleichen. Ein Mangel an Liquidität wird mittlerweile auch dann beklagt, wenn es nicht möglich ist, große Anleihenpakete zu handeln, oder wenn Händler nicht bereit sind, Anleihen in ihre Bilanz zu nehmen, um so Phasen höherer Volatilität am Markt abzufedern. John Tierney, Kunal Thakkar Konzept37 Zudem herrscht eine weit verbreitete Angst vor einem massiven und ungeordneten Ausverkauf mit entsprechender Liquiditätsverknappung, wenn die Fed die Zinsschraube wieder anziehen sollte. Es steht außer Frage, dass sich der Markt für Unternehmensanleihen seit der Krise strukturell verändert hat. Die Asset Management-Branche beispielsweise wächst und durchläuft einen Konzentrationsprozess. Damit steigt auch ihre Nachfrage nach Liquidität. Auf der anderen Seite gibt es immer weniger Liquiditätsanbieter (v.a. Trading Desks von Investmentbanken). Aufgrund von regulatorischen Anforderungen und Kostendruck haben sich Händler von Investmentbanken aus dem Eigenhandel zurückgezogen und Bestände abgebaut. Sie konzentrieren sich nun fast ausschließlich auf das sogenannte Market Making. Der Liquidität hat dies erstaunlicherweise keinen Abbruch getan; sie speist sich nun offenbar aus anderen Quellen: Neuemissionen auf Rekordniveau und ein stetiges Wachstum der Handelsvolumina belegen dies. Hartnäckig hält sich jedoch die Vorstellung, dass der OTC(over-the counter)-Handel durch Request for Quote ein Auslaufmodell ist. Doch auch wenn viele dies nicht wahrhaben wollen, lebt der Markt für Unternehmensanleihen nach wie vor von Händlern, die Anleihen in ihre Bilanz nehmen und so einen Preisbildungsprozess ermöglichen und Liquidität schaffen. Zwar findet am Markt eine allmähliche Umstellung auf elektronische Plattformen statt. Diese Technologie ist momentan jedoch kaum mehr als eine auf ein bestehendes System aufgepfropfte automatisierte Computerschnittstelle. Ein echtes Alternativmodell, das einen liquiden Markt für Unternehmensanleihen garantiert, gibt es bislang nicht. Vielleicht sollte man langsam darüber nachdenken, bei dem zu bleiben, was funktioniert. Denn wenn regulatorische Anforderungen und Margendruck Händler dazu zwingen, den Handel mit Unternehmensanleihen immer weiter zurückzufahren, sind Liquiditätsprobleme vorprogrammiert. Und wer soll dann die nötige Liquidität bereitstellen? Wie ist es zu dieser Entwicklung am Markt gekommen? Ein Grund ist Wachstum. In den vergangenen 30 Jahren haben sich Kreditrisiken in großem Maßstab von Banken zu Kapitalmarktinvestoren verschoben. Der Anteil von Unternehmensanleihen an der Kapitalstruktur von Unternehmen aus dem Nichtfinanzsektor ist von ca. einem Drittel im Jahr 1985 auf 60% im Jahr 2014 gestiegen. Gleichzeitig hat sich der Anteil von Banken bei gewerblichen Konzept 38 Krediten von 30% auf 10% reduziert. Allein seit 2007 ist der Markt für Unternehmensanleihen um fast die Hälfte auf 10 Billionen US-Dollar angewachsen, während die Bestände an gewerblichen Krediten um 6% gesunken sind, weil die Banken mit der Erfüllung höherer Eigenkapitalanforderungen zu kämpfen hatten und die Unternehmen Kredite massiv durch Unternehmensanleihen refinanziert haben. Dieses Wachstum bei kapitalmarktfinanzierten Krediten hat natürlich auch die Asset-Management-Branche entsprechend wachsen lassen. Außerdem durchlief die gesamte Branche einen Konsolidierungsprozess: Daten von McKinsey deuten darauf hin, dass sich der Marktanteil der Top 20 US-Asset Manager nach weltweit verwaltetem Vermögen von 22% im Jahr 2002 auf knapp 40% im Jahr 2012 erhöht hat. 1 Es liegt nahe, dass sich bei Rentenfonds und Fonds für Unternehmensanleihen ein ähnlicher Konzentrationsprozess vollzogen hat. Diese Entwicklungen sind unter dem Gesichtspunkt der Marktliquidität in mehrfacher Hinsicht problematisch. Mit wachsendem verwaltetem Vermögen steigt auch die Nachfrage nach Market Making. Da mittlerweile immer mehr Kapital von immer weniger Asset Managern kontrolliert wird, die vielfach wahrscheinlich mit ähnlichen Modellen und Anlagestrategien arbeiten, besteht ein höheres Risiko für Herdenverhalten. Dies gilt insbesondere dann, wenn die Stimmung am Markt umschlägt oder der Markt neue Informationen erhält. Operative Probleme, wie etwa eine größere Cyber-Attacke oder irgendeine andere Form von Betrug, können systemische Risiken virulent werden lassen, wenn plötzlich Wertpapiere verkauft werden müssen, um so Rücknahmeanträge in einem Umfang erfüllen zu können, der die Aufnahmekapazitäten des Marktes übersteigt. Bislang haben solche Probleme in der Diskussion um das Thema Liquidität keine große Rolle gespielt. Diskutiert wurde die Idee, von Fonds mit illiquiden Beständen die Erhebung einer Rücknahmegebühr oder andere Maßnahmen zur Eindämmung einer Rücknahmewelle zu verlangen. Die US-Börsenaufsicht SEC hat Stresstests für Fonds empfohlen. Damit soll geprüft werden, ob diese unerwartet hohe Rücknahmevolumina bewältigen können. Die Debatte drehte sich dabei vor allem um die Händler. Paradoxerweise haben sich die Reihen der führenden Handelshäuser mit dem Zusammenbruch von Bear Stearns, Lehman Brothers und Merrill Lynch gerade dann ganz stark gelichtet, als die Asset Manager verstärkt Liquidität nachfragten. Zugegeben, diese Marktakteure wurden in andere Banken integriert. Dabei wurden jedoch in 1 Vgl. Searching for profitable growth in asset management: it’s about more than investment alpha. McKinsey and Company, September 2012. 39 Unternehmensanleihen—Untiefen der Liquidität erheblichem Umfang Doppelstrukturen und Überschneidungen beseitigt. Hinzu kommt, dass die Banken inzwischen strengere Kapitalanforderungen erfüllen müssen und daher ihre Eigenbestände auf ein Viertel bis ein Drittel des Vorkrisenniveaus abgeschmolzen haben. Mit anderen Worten: Der Schwerpunkt des Geschäftsmodells hat sich auf reines Market Making verlagert. Trotz dieser Veränderungen hat der Markt für Unternehmensanleihen in den letzten Jahren überraschend gut funktioniert. Der Median der Geld-Brief-Spanne für Investment- Grade-Papiere – ein klassischer Liquiditätsindikator – lag vor Mitte 2007 in einer Größenordnung von 0,2-0,3% und ist während der Krise auf über 1% geklettert. Mittlerweile hat sich die Geld-Brief-Spanne wieder verringert und beträgt nun ca. 0,4%. Daten aus Trace, einem Informationssystem zum US-Bondhandel, zeigen, dass das durchschnittliche tägliche Handelsvolumen am Markt für Unternehmensanleihen schrittweise von 14 Milliarden US-Dollar vor 2008 auf etwa 20 Milliarden US-Dollar über weite Strecken des vergangenen Jahres gestiegen ist. Mehr als ein Drittel entfällt dabei auf High-Yield-Anleihen. Überraschenderweise ist also das Handelsvolumen am Markt für Unternehmensanleihen genauso stark gewachsen wie das Volumen der umlaufenden Anleihen. Auch der Unterschied zwischen der rollierenden realisierten Volatilität der täglichen Spread-Veränderungen bei den wichtigsten Indizes für Unternehmensanleihen vor und nach der Krise ist erstaunlich gering. Bei Anleihen mit Investment- Grade-Rating bestehen kaum Unterschiede sowohl im Hinblick auf das allgemeine Volatilitätsniveau als auch in Bezug auf Volatilitätsspitzen. Die Spread-Volatilität am High-Yield-Markt war in den letzten Jahren häufig geringer als vor der Krise. In beiden Phasen hat es vorübergehende Spitzen gegeben, die nach der Krise (z.B. während der Panikverkäufe 2013 nach Ankündigung der Fed, ihr Anleihekaufprogramm auslaufen zu lassen, oder während der Verkaufswelle im Sommer 2014) etwas ausgeprägter waren als vor der Krise. Für einen angeblich darnieder liegenden Markt ist das Tagesgeschäft im Handel mit Unternehmensanleihen jedoch recht stabil. Auch in ruhigen Zeiten hat es schon immer die eine oder andere Verkaufswelle gegeben. Ein anderer Dauerbrenner ist das Klagelied, dass es selbst bei guten Umsätzen schwieriger ist, große Volumina zu handeln, also z.B. eine Blockorder über 1 bis 5 Millionen US-Dollar oder mehr zu platzieren. So pauschal entspricht das nicht der Realität. Als Hauptargument wird hier der Rückgang der durchschnittlichen Transaktionsvolumina (auf Basis von Trace-Daten) von 700.000 bis 800.000 US-Dollar vor 2008 auf 550.000 bis 600.000 US-Dollar im vergangenen Jahr angeführt. Diese Zahlen allein haben jedoch wenig Aussagekraft, da sich die Anzahl der täglichen Transaktionen seit der Krise ungefähr Konzept 40 verdoppelt hat, was vorwiegend dem elektronischen Handel mit seinen eher kleinen Transaktionsvolumina geschuldet ist. Leider liefert Trace keine brauchbaren Daten zur Verteilung der Transaktionsvolumina, sodass nicht feststellbar ist, in welchem Umfang dieser Rückgang tatsächlich auf weniger große Transaktionen oder deutlich mehr kleine Transaktionen zurückzuführen ist. Gespräche mit Händlern und Sales- Mitarbeitern deuten darauf hin, dass Blockorders nicht völlig von der Bildfläche verschwunden sind. Es könnte sein, dass das Volumen großer Orders weitgehend konstant geblieben ist, die zunehmende Konsolidierung im Asset Management aber dazu geführt hat, dass mehr große Orders platziert werden. Obwohl allgemeine Marktindikatoren darauf hindeuten, dass der Markt für Unternehmensanleihen liquider ist als gemeinhin angenommen, hält sich hartnäckig der Glaube, dass der Handel mit Unternehmensanleihen wegen einiger grundlegender struktureller Veränderungen schwieriger geworden ist. Viel zitierte Argumente sind hier der Abbau von Eigenhandelsbeständen und die mangelnde Bereitschaft von Händlern, plötzliche Verkaufswellen abzupuffern. Das erste Argument mag richtig sein, das zweite hingegen ist weitgehend haltlos. Um zu verstehen, warum dies so ist, muss man in die Zeit vor der Krise zurückgehen. Als Kapitalanforderungen noch kein Thema waren, hatten Händler tatsächlich zwei eng miteinander verzahnte, aber dennoch separate Geschäftsbereiche – Eigenhandel und Market Making. Im Rahmen des Eigenhandels wurden Unternehmensanleihen vorwiegend zu dem Zweck gehalten, aufgrund der höheren Zinsen einen Zusatzertrag (Carry) zu erzielen. Kluge Händler mit viel Erfahrung an den Renten- und Unternehmensanleihemärkten kauften attraktive Anleihen und hielten sie auf unbestimmte Zeit, bis sich eine günstige Gelegenheit ergab, sie wieder zu verkaufen. So ließ sich mit relativ geringem Risiko gutes Geld verdienen. Im Market Making hingegen wurden Anleihen nur „durchgereicht”. Es war nie problematisch, Anleihen zu kaufen (oder zu shorten) und anschließend zu halten. Die Grundintention war jedoch stets, nur kurzfristige Positionen einzugehen, denn ohne eine Exitstrategie wären Händler wohl nur sehr zögerlich Risiken eingegangen. Während einer Verkaufswelle, die möglichweise durch einen Stimmungsumschwung oder schlechte Nachrichten ausgelöst wurde, kauften Händler nicht einfach nur Anleihen, um den Markttrend abzupuffern. Sie griffen selektiv bei attraktiven Anleihen zu, haben damit aber den Abwärtstrend wahrscheinlich mit verstärkt, indem sie versuchten, ihre Bestände abzubauen. Die Erwartung, dass Händler eine Pufferfunktion zu erfüllen haben, bürdet ihnen implizit Gemeinwohlaufgaben auf. Händler sind vielleicht nicht 41 Unternehmensanleihen—Untiefen der Liquidität Unter dem Strich wird die Liquiditätssituation am Markt für Unternehmensanleihen also etwas überdramatisiert. Von einem größeren Schock einmal abgesehen, sollte der Markt eigentlich die Turbulenzen verkraften können, die die erwartete Trendwende in der Geldpolitik der Fed begleiten werden, sofern Handelsvolumina und Liquidität mehr oder weniger auf dem heutigen Niveau bleiben. Konzept 42 immer besonders clever oder schätzen den Markt falsch ein. In jedem Fall denken sie beim Geschäft in der Regel nicht ans Gemeinwohl. Wegen höherer Kapitalanforderungen und möglicher Konflikte mit der Volcker-Regel, die Eigenhandel untersagt, haben sich Händler mittlerweile jedoch größtenteils aus dem Carry-Geschäft mit eigenen Beständen zurückgezogen. Eigenbestände haben vorwiegend nur noch eine Hilfsfunktion im Market Making. Sie werden dort jedoch lediglich vorübergehend gehalten. Wegen der aus diesem Rückzug resultierenden Ertragseinbußen sind Händler heute zurückhaltender mit scharf kalkulierten Preisen im Market Making. Auch dies verstärkt den Eindruck, dass der Handel mit Unternehmensanleihen schwieriger geworden ist. Eine damit in Zusammenhang stehende strukturelle Veränderung ist die Auflösung der Eigenhandel-Desks – ebenfalls wegen höherer Kapitalanforderungen und der Volcker-Regel. Eigenhandel-Desks waren einst sehr erfolgreich und eine stetig sprudelnde Liquiditätsquelle für Market Maker, vorwiegend dank des Booms am Markt für strukturierte Kreditprodukte. Dieser Boom führte häufig zu Preisdifferenzen zwischen den Rentenmärkten und den Märkten für Credit Default Swaps (CDS). Eigenhandel-Desks nutzten diese Preisunterschiede aus, kauften eine bestimme Anleihe und den entsprechenden CDS als Absicherung – und konnten so mit wenig oder null Risiko Gewinne erzielen. Mit schwindenden Preisdifferenzen wurden die Positionen dann später wieder aufgelöst. Damit hatten sie eine zusätzliche Liquiditätsquelle, die gleich zweimal, sowohl mit den Arbitragegewinnen als auch mit dem Verkauf der Position, angezapft wurde. Dies funktionierte wunderbar – bis zur Lehman- Pleite, als sich die Anleihe-Spreads wesentlich stärker ausweiteten als die CDS-Spreads, was wiederum zu Wertminderungen führte. Der plötzliche Druck, diese Positionen aufzulösen, hat die Spread- Ausweitung bei Unternehmensanleihen während der Finanzkrise mit Sicherheit beschleunigt. Bis zu einem gewissen Grad erfüllen heute Akteure des Schattenbankensystems, also etwa Hedgefonds, Private-Equity-Gesellschaften oder Staatsfonds, die Funktion der Eigenhandel-Desks. Aussagen zu Geschäftsvolumen oder Markttiefe dieses Sektors sind jedoch schwierig. Es gibt vereinzelte Anhaltspunkte dafür, dass Schattenbanken sich in gestressten Märkten bereitwillig als Käufer von Unternehmensanleihen angeboten haben, allerdings zu Preisen unterhalb des Niveaus indikativer Händlerkurse. Wie nicht anders zu erwarten, wollte kaum jemand zu diesen Preisen verkaufen, was wiederum den Eindruck verstärkt hat, dass der Handel mit Unternehmensanleihen schwierig ist. In jedem Fall ist diese Liquiditätsquelle wesentlich unsicherer als die Eigenhandelsgeschäfte vor der Krise. 43 Unternehmensanleihen—Untiefen der Liquidität Die Liquidität am Markt für Unternehmensanleihen wird heutzutage auch deshalb negativer beurteilt, weil Anleger den Zeitraum von 2005 bis 2007 als Normalzustand und nicht als eine Phase der Marktanomalie betrachten, die sie eigentlich war. Eine bessere Vergleichsbasis wäre wahrscheinlich der Zeitraum vor 2005, aber für diese Phase gibt es nur unzureichendes Datenmaterial. Man kann wohl momentan nicht mehr sagen, als dass sich die Liquiditätsbedingungen mit einer Wahrscheinlichkeit von über 50% nach der Krise wieder normalisiert haben. Ein weiterer Faktor, der Market Makern heute Probleme bereitet, ist die einseitige Marktstruktur: Asset Manager wollen vor allem Unternehmensanleihen kaufen. Zum Teil ist diese Entwicklung zyklisch bedingt. Ein ruhiger Kreditzyklus mit wenigen Ausfällen und niedrigen Zinsen hat Rentenanleger verstärkt an den Markt für Unternehmensanleihen mit seinen höheren Renditen gelockt. Mangels Alternative wurden zudem auch kaum Positionen verkauft. Allerdings lässt sich auch ein strukturelles Element in dieser Entwicklung erkennen: Da sich die Kreditrisiken bei relativ wenigen Asset Managern konzentrieren, könnte es verstärkt zu herdenartigem Verhalten kommen. Wie man es auch dreht und wendet: Bei einer einseitigen Marktstruktur kann es keine perfekte Liquidität geben. Selbst wenn Händler in der Lage wären, größere Bestände zu halten und eine Art Eigenhandel zu betreiben (wenn auch nicht mehr in so großem Stil wie zu Zeiten des Structured Credit-Booms vor der Krise), würden wir uns heute wahrscheinlich mit ähnlichen Liquiditätsproblemen konfrontiert sehen. Damit Market Making als Geschäftsmodell funktioniert, muss es Käufer und Verkäufer geben. Und das setzt eine gewisse Meinungsvielfalt hinsichtlich der künftigen Entwicklung voraus, ein konstantes Spannungsfeld zwischen verschiedenen Polen, in dem sich Käufer und Verkäufer bewegen, so dass sich zu jedem beliebigen Zeitpunkt mehr oder weniger ein Gleichgewicht bilden kann. Paradoxerweise hat der Markt durch die Politik der US- Notenbank Fed, mit der diese einerseits Anlegern wieder mehr Mut zum Risiko macht, andererseits aber Risiken und Volatilität reduzieren wollte, viel von dieser so wichtigen Spannung zwischen Käufern und Verkäufern verloren. Wie oben erwähnt, hat dies bereits Ängste vor einem ungeordneten und teuren Ausverkauf geschürt, wenn die Zinszügel wieder angezogen werden. Kurzfristig hatte dies vielleicht den unbeabsichtigten Effekt, für eine Liquiditätsverknappung am Markt zu sorgen. Wenn sich Politik und Aufsicht Sorgen um die Marktliquidität machen, ist es momentan vielleicht das Beste, von einem Kurs abzurücken, der Sicherheit schaffen möchte. Auch wenn es zunächst völlig widersinnig erscheint, könnte etwas mehr Volatilität durchaus für mehr Liquidität sorgen, weil dadurch ein besseres Gleichgewicht zwischen Käufern und Verkäufern geschaffen würde. Konzept 44 Unter dem Strich wird die Liquiditätssituation am Markt für Unternehmensanleihen also etwas überdramatisiert. Von einem größeren Schock einmal abgesehen, sollte der Markt eigentlich die Turbulenzen verkraften können, die die erwartete Trendwende in der Geldpolitik der Fed begleiten werden, sofern Handelsvolumina und Liquidität mehr oder weniger auf dem heutigen Niveau bleiben. Das Risiko besteht darin, dass sich noch mehr Händler wirtschaftlich dazu gezwungen sehen könnten, den Handel mit Unternehmensanleihen zurückzuschrauben, bevor es eine echte Alternative gibt. Viele Kritiker eines händlerbasierten Market Making stehen auf dem Standpunkt, dass wichtige Asset-Klassen wie Unternehmensanleihen – insbesondere das Investment-Grade- Segment – das gleiche Liquiditätsprofil haben sollten wie Zins-, Aktien- oder Devisenmärkte. Ist dem nicht so, wird der Händler als Problem angesehen. In der Welt der Kritiker würde sich der Markt für Unternehmensanleihen idealerweise weg vom OTC-Handel hin zum Handel über Börsen oder elektronische Plattformen entwickeln, sodass die Händler größtenteils außen vor wären. Diese Technologie hat bei Aktien, Devisen und Staatsanleihen zweifelsohne gut funktioniert (abgesehen von einigen wenigen größeren Ausrutschern wie z.B. dem Einbruch der Aktienmärkte (Flash Crash) 2010 oder dem starken Intraday- Kursanstieg bei US-Staatsanleihen im vergangenen Oktober), und zwar größtenteils deshalb, weil diese Produkte stark standardisiert sind. Der Markt für Unternehmensanleihen ist jedoch alles andere als standardisiert. So umfasst beispielsweise der auf US-Dollar lautende iBoxx-Index für Unternehmensanleihen über 900 Unternehmen, 1.200 Emittenten (wobei einige Unternehmen Anleihen über verschiedene Unternehmensteile emittieren) und über 4.200 Anleihen mit unterschiedlichen Ratings, Kupons, Laufzeiten und strukturellen Merkmalen wie Covenants und Call- oder Put-Optionen. Der auf US-Dollar lautende iBoxx-Index für High-Yield-Anleihen beinhaltet etwa 1.100 Unternehmen und fast 2.300 Anleihen. Angesichts einer solchen Vielfalt gibt es kaum Phasen, in denen Käufer und Verkäufer durchgängig in Echtzeit zur Deckung gebracht werden können. Und im Gegensatz zu den meisten großen Asset-Klassen und Märkten mit leicht zugänglichen Preisen werden für die meisten Unternehmensanleihen nicht kontinuierlich Kurse gestellt. Daher ist das Request-for-Quote-Verfahren, bei dem Händler Kurse für bestimmte Anleihen stellen, mehr als nur eine Marktkonvention – es ist ein wesentlicher Bestandteil des Market Making- und Handelsprozesses. Der händlerbasierte außerbörsliche Handel hat sich entwickelt und bis heute überlebt, weil für den Handel mit Unternehmensanleihen eine Instanz erforderlich ist, die Kurse stellt und Absorptionskapazitäten bietet, indem sie 45 Unternehmensanleihen—Untiefen der Liquidität entweder Anleihen in den Eigenbestand übernimmt oder im Rahmen von Warehousing vorübergehend hält. BlackRock hat zuletzt eine stärkere Standardisierung des Marktes für Unternehmensanleihen angeregt. Unternehmen müssten Anleihen dann nach einem genau festgelegten Emissionskalender und mit ähnlichen Laufzeiten wie am Markt für Staatsanleihen begeben. Selbst wenn man von dem (wenig wahrscheinlichen) Szenario ausgeht, dass die Emittenten einem solchen Vorschlag zustimmen, dürfte dies wenig ändern. Im Investment-Grade-Index haben nur 88 Unternehmen 10 oder mehr Anleihen im Umlauf. Diese machen etwa ein Drittel aller Anleihen aus. (Es ist unwahrscheinlich, dass Emittenten, die nur sporadisch Anleihen begeben, sich an einen standardisierten Emissionskalender halten könnten). Wenn man sich mit Emittenten auf vier Laufzeitensegmente einigen könnte (3, 5, 10 und 30 Jahre), könnte dies die Gesamtzahl der Anleihen (in einem Best-Case-Szenario) letztlich um 15% auf etwa 3.500 reduzieren. Das wäre vielleicht ein Schritt in die richtige Richtung, aber kein sehr großer. Und für den High-Yield-Markt funktioniert das so überhaupt nicht. Nur elf Unternehmen haben dort zehn oder mehr Anleihen im Umlauf. Vielleicht sind elektronische Handelsplattformen die Lösung für die Zukunft. Über solche Plattformen werden bereits heute geschätzte 40% aller Investment-Grade-Transaktionen oder nach Volumen ein Fünftel abgewickelt. Die heutige Technologie besteht jedoch nur aus Computerschnittstellen, die im bestehenden händlerbasierten Market Making im Request-for-Quote-Verfahren zwischengeschaltet sind. Die Anleger interagieren immer noch (wenn auch indirekt) mit den Händlern, um Anleihen zu kaufen und zu verkaufen, und die Händler nehmen Anleihen immer noch in ihre Bilanz, um Transaktionen zu ermöglichen. Elektronische Plattformen werden meist als kostengünstige Möglichkeit genutzt, um kleine Transaktionen von weniger als 250.000 US-Dollar abzuwickeln. Größere Transaktionen werden nach wie vor im Telefonhandel abgewickelt, vor allem weil im heutigen aufsichtsrechtlichen Umfeld mehr Verhandlungsbedarf besteht, bevor ein Händler Anleihen in seine Bilanz nimmt. Die Entwicklung hin zum elektronischen Handel muss erst noch ein wirklich neues Modell hervorbringen, das ohne Händler auskommt, die über die nötigen Absorptionskapazitäten verfügen, um Transaktionen zu ermöglichen und Liquidität zu schaffen. Es gibt bereits erste Initiativen zur Schaffung von Peer- to-Peer-Plattformen, auf denen Anleger auf der Buy-Side direkt miteinander interagieren können, um Anleihen zu handeln. Damit sich dieser Ansatz aber wirklich durchsetzen kann, müssen Asset Manager kräftig in Infrastruktur investieren, und es muss ein Umdenken mit Blick auf die Geschäftskultur und –modelle stattfinden. Selbst wenn dies schnell passiert, ist fraglich, Konzept 46 ob der Preisbildungsprozess ohne Händler-Input zufriedenstellende Ergebnisse liefert, und die Problematik einer einseitigen Marktstruktur bleibt damit ungelöst. Für Asset Manager bedeutet dies also unter Umständen hohe Kosten für nur eine Handvoll Transaktionen. Vielleicht sollte man also langsam zu der Einsicht kommen, dass der Handel mit Unternehmensanleihen in seiner bestehenden Form kein Auslaufmodell ist und wohl noch erheblich effizienter geworden ist. Und solange es dazu noch keine echte Alternative und damit kein Modell gibt, das ohne die Absorptionskapazitäten von Händlern zur Liquiditätssicherung auskommt, sollte man an den bestehenden Strukturen auch unbedingt festhalten. Ein Problem besteht dabei jedoch insofern, als Händler Schwierigkeiten haben, ihre Betriebskosten und Kapitalkosten zu decken. Eine Möglichkeit wäre eine Ausweitung der Geld-Brief-Spannen, um diesen Kosten besser Rechnung zu tragen. Sträubt sich die Buy Side, könnten Händler ihr Geschäft weiter zurückfahren, bis sie die Preise bestimmen können. Andernfalls werden Anleger Schattenbanken als Liquiditätsnotanker akzeptieren müssen. Und wenn sich die Händler aus dem Geschäft zurückziehen, bevor ein neues Modell gefunden ist, wer stellt dann Liquidität und Absorptionskapazitäten für den Fall bereit, dass ein dramatisches Liquiditätsereignis eintritt? Die Fed? Footnote In den vergangenen Monaten wurden einige lesenswerte Berichte veröffentlicht, die sich mit verschiedenen Aspekten der Liquidität am Rentenmarkt befassen: 1. The Liquidity Challenge. BlackRock Investment Institute, Juni 2014. 2. Market-making and proprietary trading: industry trends, drivers and policy implications. Bank für Internationalen Zahlungsausgleich, November 2014. 3. The current state and future evolution of the European investment grade corporate bond secondary market: perspectives from the market. International Capital Market Association, November 2014. Zur Sichtweise politischer Entscheidungsträger in Bezug auf das Liquiditätsproblem lesen sie den 2014 Annual Report. Office of Financial Research, US Department of the Treasury. 47 Unternehmensanleihen—Untiefen der Liquidität Rasierklingen—Eine scharfe Lektion für die Konsumgüterindustrie Konzept 48 Duschen und rasieren. Das ist seit über hundert Jahren Routine in der westlichen Männerwelt. Aus dieser festen Gewohnheit zieht ein globales Oligopol – dominiert von Gillette – außerordentlich attraktive Vorteile bei der Preisgestaltung und der Vertriebs- und Margenstruktur. Rasierer haben sich dadurch zu einer der privilegiertesten Kategorien unter den Konsumartikeln entwickelt. Führungskräfte in allen Branchen eifern diesem „Rasierer-und-Klinge-Prinzip“ nach. Rasierer sind zu einem Symbol für nachhaltige Wertschöpfung geworden – ein Geschäftsmodell, bei dem auf den Verkauf eines Geräts ein stetiger Strom an Einnahmen aus Verbrauchsartikeln folgt. Auf diese Weise werden die Produktzyklen verlängert und ein beständiger Geldfluss wie bei einer Annuität erzeugt. Bill Schmitz, Faiza Alwy Konzept49 „Der größte Erfolg in unserem Geschäft ist die nahezu endlose Kette verbrauchter Rasierklingen: Im Laufe des Lebens unserer Kunden trägt jede einzelne benutzte Klinge zur Reputation des Unternehmens bei.” King C Gillette, Erfinder des weltweit beliebtesten Sicherheitsrasierers Konzept 50 So überzeugend war das Geschäftsmodell der Sicherheitsrasierer, dass Procter & Gamble 2005 fast 60 Milliarden US-Dollar – oder das 18-Fache des Cashflows – für Gillette bezahlte. Geplant war, das neue Geschäft in das eigene riesige Vertriebsnetzwerk einzubinden und gleichzeitig das Marktpotenzial der Entwicklungsländer mit wachsendem Einkommen zu erschließen. Die Übernahme von Gillette versprach trotz des hohen Preises bahnbrechende Erfolge. Aber seit der Finanzkrise ist das bisher Undenkbare eingetreten: Das Erfolgsmodell der Nassrasierer funktioniert nicht mehr. Und der Grund dafür sollte als abschreckendes Beispiel für Investoren dienen, die wirtschaftliche Auswirkungen auf Verbraucherpräferenzen und Nutzungsverhalten vernachlässigen. In den letzten 12 Monaten ist der Absatz von Ersatzklingen in Amerika um erstaunliche 11 Prozent eingebrochen. Diese Kategorie war stabil gewesen, solange man zurückdenken konnte. Sogar der Umsatz von Einwegrasierern fiel in diesem Zeitraum um drei Prozent, nachdem das Wachstum bereits mehrere Jahre unter dem üblichen Trend gelegen hatte. Irgendetwas hat sich verändert. Zum Leidwesen von P&G und Co. hat dieser Rückgang vielfältige Gründe. Und diese Gründe lassen sich anscheinend nicht durch herkömmliche Mittel wie ein höheres Marketingbudget oder schrittweise Innovation beheben. Die Nachfrage durch niedrigere Preise anzukurbeln, ist angesichts der erheblichen Gewinne, die diese Kategorie nach wie vor für P&G sowie die wichtigen Mitbewerber Energizer (Schick) und Bic einbringt, ebenfalls nicht wünschenswert. Weltweit beherrschen diese drei Unternehmen über 85 Prozent des Rasierermarktes. Und beim Anteil des Marktes mit der höchsten Gewinnmarge dominiert P&G mit erstaunlichen 90 Prozent. Was ist also passiert? Vereinfacht gesagt zeigen die Gründe für das derzeitige Problem auf dem Rasierermarkt im Umkehrschluss, warum die Branche bei robusterer Konjunktur so erfolgreich war. In der guten alten Zeit stiegen die Preise insgesamt um über drei Prozent pro Jahr, und die Steigerungen waren noch höher, wenn die neuesten Produkte auf den Markt kamen. Dies wurde durch den dominanten Marktanteil von Gillette sowie den Anreiz für die Mitbewerber ermöglicht, bei den Preissteigerungen mitzuziehen und ihrerseits zu profitieren. Auch der Einzelhandel war mit von der Partie, da er selbst durch höhere Preise in den Genuss höherer Gewinne kam. In den fetten Jahren waren ein paar Cent mehr pro Anwendung ein Preis, der für eine angenehmere Rasur gern gezahlt wurde. Aber je länger das verfügbare Einkommen stagniert, desto mehr leidet auch das Rasierbudget. Die Preise für Spitzenrasierer scheinen im heutigen Umfeld überzogen. Seit 2009 sind die Kosten pro Ersatzklinge um über ein Drittel gestiegen. Und obwohl die Kosten pro Anwendung um kaum 51 Rasierklingen—Eine scharfe Lektion für die Konsumgüterindustrie mehr als fünf US-Cent höher liegen, wirkt ein Preis von 20 US- Dollar pro Viererpack Klingen abschreckend. Vielleicht musste diese Preisspirale zwangsläufig einmal an eine Grenze stoßen. In den letzten sechs Monaten beruhten über 100 Prozent des Branchenwachstums auf Preis und Produktmix – die Verkaufsvolumina leisteten hingegen keinen Beitrag. Beim US- amerikanischen Warehouse Club Costco liegt der Preis für einen Jahresbedarf an Klingen nun so hoch, dass dieses Angebot von den Kunden gern als „Hypothekenpackung“ bezeichnet wird. Ist die Branche also selbst schuld? Eigentlich ist das Prinzip „Preis und Komfort“, nach dem die Kategorie bisher funktioniert hat, angesichts der schwachen demografischen Trends in den Industrieländern durchaus sinnvoll. In Ländern wie den USA ist das Bevölkerungswachstum gering, aber die sozialen Aufstiegsmöglichkeiten sind hoch. Angesichts dieser Dynamik operierte Gillette nach einem Konzept namens „PUPY“, was für „Profit per user, per year“, also „Gewinn pro Kunde pro Jahr“ steht. Da das Mengenwachstum nur eine geringe Rolle spielt, besteht die primäre Strategie darin, Verbrauchern mehr Geld aus der Tasche zu locken, indem man ihnen bessere Rasierer verkauft, die dann aufgrund der angenehmeren Rasur öfter benutzt werden. Die Strategie lief darauf hinaus, die Packungsgröße um eine Klinge zu erweitern und den Preis zu erhöhen, dann eine weitere Klinge hinzuzufügen und den Preis wieder zu erhöhen und so weiter und so fort. Am Ende wurde der Komfort weniger relevant, und die knappen Gewinnspannen verringerten sich weiter, was dazu geführt hat, dass bei den neuesten Produkten, wie dem Gillette FlexBall, Anwenderfreundlichkeit und Zeitersparnis im Vordergrund stehen. Viele behaupten nun, PUPY sei überholt – eine Schlussfolgerung, die sich eigentlich erst in einem stabileren Konjunkturzyklus mit steigendem verfügbaren Einkommen ziehen lässt. Trotzdem ist es eine Kernfrage, ob wirklich die Wirtschaftslage die Umstellung auf billigere Einwegrasierer und seltenere Anwendung begünstigt oder ob sich die Trends beim Barthaar aus anderen Gründen wandeln. Es ist wie bei der Henne und dem Ei: Ist der Trend zum Dreitagebart à la David Beckham oder zum Hipster-Look eine Reaktion auf zu teure Rasierer, oder hat der Trend das ehemals erfolgreichen Geschäftsmodell zur Strecke gebracht? Zur Beantwortung dieser Frage gilt es, aktuelle Trends näher zu analysieren. Offensichtlich geschieht das für die Beteiligten in der Branche Undenkbare: Der Trend weg von teureren Rasierprodukten mit höheren Margen und hin zu billigeren Einwegrasierern hat sich deutlich beschleunigt. Einwegrasierer sind nicht annähernd so angenehm wie ein diamantbeschichteter gefederter Spitzenrasierer mit fünf Klingen, aber der Aufwand für die Forschung und Entwicklung dieser Produkte und die hohen Marketingbudgets haben sich gelohnt: Verbraucher halten diese Konzept 52 Alternativen nun für durchaus akzeptabel. Seit 2009 haben Einwegrasierer mehr als fünf Prozent des Dollarmarktanteils in der Rasierkategorie hinzugewonnen, während Ersatzklingen über sieben Prozent verloren haben. Verbraucher-Direktkonzepte setzen sich beim Verkauf von Einwegrasierern ebenfalls langsam durch, wobei ihr überlegenes Preis-Leistungs-Verhältnis und die Bequemlichkeit lautstark in den Sozialen Medien verkündet werden. Ein Beispiel ist der Dollar Shave Club in den USA, dessen Mitglieder eine monatliche Gebühr zahlen und Rasierer per Post erhalten; der Club wurde von einem Verbraucher gegründet, der es leid war, so viel für seine Rasur auszugeben. Der Club, den es vor fünf Jahren noch gar nicht gab, verkauft nun über 50 Millionen Einheiten pro Jahr und hat sich eine Risikokapitalbeteiligung gesichert, um mit der gleichen Wertbotschaft in andere Kategorien zu expandieren. Um diesen Wandel bei den Benutzerpräferenzen besser zu verstehen, hat die Deutsche Bank eine eigene Umfrage zum Rasieren in Auftrag gegeben, bei der über eintausend Männer in den USA im Alter von 18 bis 60 Jahren befragt wurden – ein repräsentativer Durchschnitt in Bezug auf Einkommen, ethnische Herkunft und Wohnort. Das Ergebnis ist ein deutliches Alarmsignal für die Branche. Beispielsweise gab ein Drittel der Befragten an, sich einmal die Woche zu rasieren; darunter fielen Männer mit Vollbart, Spitzbart oder Schnurrbart. In Bezug auf ihre derzeitigen Gewohnheiten gaben 70 Prozent an, dass sie sich genausooft rasierten wie früher, ein Fünftel gab zu, sich heute weniger oft zu rasieren, und nur 11 Prozent gaben an, dass sie sich häufiger als früher rasierten. Diese Anwendungszahlen sind für die Branche bedenklicher, als es den Anschein hat, da eine wachsende Teilgruppe junger Männer sich einer Ganzkörperrasur unterzieht oder sich die Körperbehaarung komplett entfernen lässt. Gillette zum Beispiel verfügt über einige interessante Lehrvideos im Internet für ein besseres Verständnis dieses Trends und hat vor Kurzem in manchen Märkten einen Körperrasierer auf den Markt gebracht. Positiv ist zu vermerken, dass sich der Trend zum Bart der Umfrage zufolge nun verringert, da es der Wirtschaft wieder besser geht und mehr Männer wieder zur Arbeit gehen – obwohl sie das nicht davon abhält, zum Einwegrasierer zu greifen. Drei Viertel der Befragten gaben an, dass sie beabsichtigten, ihren Bart im nächsten Jahr abzurasieren. Nun zurück zur Frage, ob die Henne oder das Ei zuerst kam: Ganze zwei Drittel der befragten Männer gaben Stiltrends oder andere Faktoren als Grund für ihre Entscheidung an, sich einen Bart stehen zu lassen. Nur zwei Prozent gaben Kosten als Grund an – eine gute Nachricht für das Marketingteam bei Gillette –, und ein Drittel verzichtete aus Gründen der Bequemlichkeit auf das Rasieren. War die Entscheidung zurück zur Rasur jedoch gefallen, gab fast die Hälfte der Befragten an, dass der Preis der 53 Rasierklingen—Eine scharfe Lektion für die Konsumgüterindustrie entscheidende Faktor beim Kauf des Rasierers war. Deshalb ist es die andere Hälfte der Befragten – die Männer, die angaben, auf den Preis zu achten, aber im letzten Jahr ein Auto oder ein Smartphone gekauft haben –, die Gillette wieder für die Top- Rasierer gewinnen muss. Eine Studie des US Census Bureau zum Privatkonsum zeigt ebenfalls, welche Richtung der Verbrauch an Rasierprodukten sowie die weitere Konsumgüterindustrie insgesamt einschlägt. Die Studie bestätigt viele der Ergebnisse, zu denen die Umfrage der Deutschen Bank kam. Anscheinend ist das Verbraucherverhalten in der Rasierkategorie der Dynamik in anderen Konsumgütermärkten nicht unähnlich. Hierbei spielt der Kreditzyklus eine wichtige Rolle. Konsumgüter scheinen zu Beginn der Wachstumsphase einer aufstrebenden Wirtschaft eine Expansionsphase durchzumachen, stagnieren dann aber eine Weile, während Verbraucher sich Geld für die Anschaffung teurerer langlebiger Güter leihen. Der Konsum von Dingen wie Rasierern steigt meist wieder, wenn die Haushalte alle benötigten Autos, Telefone, Fernseher, Computer und Waschmaschinen gekauft haben. Vielleicht erklärt das die derzeitige Situation in den USA: Im Anschluss an die Krise erfolgt ein latenter Konsum langlebiger Güter, unter dem billigere Konsumgüter wie Rasierer leiden. Im Hinblick auf alle Verbrauchsgüter, die im Lebensmittel-, Drogerie- und Massenkundengeschäft verkauft wurden (und die 90 Prozent des Gesamtkonsums ausmachen), ist das Absatzvolumen laut der Kassendaten seit vier Jahren rückläufig. Gleichzeitig erhöhten sich Kfz-Leasing-, -Zulassungs- und -Mietzahlungen 2013 um mehr als ein Fünftel, und das, obwohl die Haushaltseinkommen nach Steuern aufgrund einer höheren Steuerbelastung um 11 Prozent schrumpften. Die Ausgaben für Getränke, Lebensmittel, Haushalts- und Körperpflegeprodukte haben sich ebenfalls kaum verändert, obwohl die Preise gestiegen sind. Diese Trends weisen darauf hin, dass nach wie vor Geld für Rasierklingen verfügbar wäre. Auch spontane Faktoren sind zu berücksichtigen, wie z. B. der unerwartete Erfolg der „Movember-Spendenaktion“, bei der Männer auf der ganzen Welt sich einen Schnurrbart oder Vollbart stehen lassen, um Männerkrankheiten wie Prostatakrebs stärker ins Bewusstsein zu rufen. Bei einer Verfolgung der Suchvorgänge zum Thema Bartwuchs bei Google zeigen sich erhebliche Spitzen in der Suchaktivität im und um den November als kampagnenbedingte Bartsaison. Absatztrends bei Rasierartikeln zeigten in den letzten drei Jahren eine turnusmäßige Verringerung im mittleren bis hohen einstelligen Bereich zwischen den drei Monaten bis Ende September und den drei Monaten bis Ende Dezember. King C Gillette, Gründer des weltweit größten und vielleicht besten Unternehmens für Sicherheitsrasierer, hatte Konzept 54 lange Zeit recht, wenn er die Kette des Klingenverbrauchs als schier endlos bezeichnete. Aber der Weg, den die Branche seit Beginn der Krise im Jahr 2008 eingeschlagen hat, stellt die überkommene Denkweise hinsichtlich einer der weltweit stabilsten, berechenbarsten und profitabelsten Kategorien in Frage. Die Kosten-Nutzen-Rechnung, nach der Verbraucher Produkte bewerten, hat sich während dieser Stagnationsperiode des Wirtschaftswachstums umgekehrt: Entscheidend sind heute eher die Kosten als der Nutzen. Wenn Hersteller und Vermarkter von Markenkonsumartikeln diese Veränderungen ignorieren und an einem unveränderten Geschäftsmodell festhalten, tun sie dies auf eigene Gefahr. Denn wenn die derzeitige Entwicklung in den USA eine der weltweit stärksten Konsumartikelkategorien treffen kann, ist sicherlich niemand dagegen gefeit. Für weiterführende Informationen besuchen Sie bitte unsere Website gmr.db.com oder sprechen Sie uns an, wenn Sie den vollständigen Research Bericht „The quest for relevance – lessons from the US shaving market malaise“ erhalten möchten. 55 Rasierklingen—Eine scharfe Lektion für die Konsumgüterindustrie Volatilität— Ein Balanceakt Konzept 56 Stellen Sie sich vor, Sie müssten ein Essstäbchen auf Ihrem Finger balancieren. Wenn Sie es senkrecht auf Ihrer Fingerspitze platzieren, kann das Stäbchen leicht umfallen, da die aufrechte Stellung instabil ist. Um das Stäbchen senkrecht zu halten, wackeln Sie deshalb instinktiv (und willkürlich) mit dem Finger. Diese willkürliche Bewegung wird auch als „Rauschen“ bezeichnet. Sie wirkt stabilisierend auf einen andernfalls instabilen Zustand. 1 Solange das Rauschen vorsichtig dosiert wird, bleibt das Stäbchen senkrecht oder „metastabil“. Ohne Rauschen wird es destabilisiert. Aleksandar Kocic 1 Das Konzept des Gleichgewichts beruht auf einem einfachen Druck-Zug-Mechanismus, bei dem Anziehungskräfte jeglicher Instabilität entgegenwirken und dadurch im Allgemeinen das Gleichgewicht wiederherstellen. Im direkten Umfeld des Gleichgewichts sind die Anziehungskräfte stark genug, um destabilisierende Einflüsse auszuschalten. Weiter entfernt schwächen sich diese Kräfte ab, und eine Rückkehr zum Gleichgewicht wird schwieriger. Konzept57 Die Dynamik von Stäbchen und Finger veranschaulicht die Interaktion zwischen den Märkten und der Geldpolitik nach der Krise. Zwei Paradoxe illustrieren diese Verbindung und erklären dabei einen Großteil der gegenwärtigen Ängste der Investoren. Das erste Paradox besteht darin, dass in einem Klima weitreichender Veränderungen nach der Finanzkrise die Volatilität über einen langen Zeitraum nahezu Rekordtiefstände erreichte. Der Finger verharrt in einer ruhigen Position, und zumindest vorübergehend bleibt das Stäbchen aufrecht stehen. Tatsächlich ist geringe Volatilität zu einem prägenden Merkmal der Märkte geworden, und viele Carry- Trades setzen darauf, dass Veränderungen ausbleiben. Das zweite Paradox besteht darin, dass gute Wirtschaftsnachrichten jetzt das am stärksten gefürchtete Risiko sind. Denn niemand möchte eine Rückkehr zu willkürlichen Veränderungen – besser, das Stäbchen bleibt ruhig. Daher befinden sich die Zentralbanken in einer Zwickmühle. Ohne die Fluktuationen, die ein gut funktionierendes Finanzsystem charakterisieren, fällt das Stäbchen um. Die Investoren bekommen jedoch Angst, sobald sie den Finger bewegen. Wie sind die geldpolitischen Entscheidungsträger in diese Zwickmühle geraten? Alles begann mit der Erkenntnis, dass Veränderungen im Gefolge der Krise ebenso notwendig wie politisch unmöglich waren. Daher wurde das Ziel festgelegt, zunächst die Märkte zu stabilisieren und dann die Veränderungen zu verhindern (oder zu verlangsamen), die einer Normalisierung der wirtschaftlichen Bedingungen im Wege stehen könnten. Das führte zu Liquiditätsspritzen in bisher ungewohnter Höhe, zu einer Verlagerung von Risiken aus privaten in öffentliche Bilanzen und schließlich zu einer Reduzierung der Volatilität. Die Konsequenz aus extrem niedrigen Zinsen und generell geringer Volatilität war eine hohe Korrelation zwischen verschiedenen Marktsektoren, zu der auch die Geldströme der Zentralbanken und die dadurch verursachten Verzerrungen beitrugen. Viele Märkte wurden zu reinen Instrumenten der Geldpolitik. Dadurch wiederum wurden private Investoren verdrängt, deren Beteiligung nun die zugeführte Liquidität widerspiegelte. Als Folge begannen die meisten Anlageklassen, den US-Inflationserwartungen zu folgen, an denen sich die Auswirkungen der quantitativen Lockerung ablesen ließen. 2 Aber das Risiko verschwindet nicht einfach. Es kann nur transferiert oder aufgeschoben werden, indem der bestehende Übertragungsmechanismus vorübergehend außer Kraft gesetzt wird. Deshalb lässt sich der immanente Widerspruch in der politischen Reaktion auf die Krise – die Gesetze des Marktes aufzuheben, um sie zu retten – nur lösen, wenn verstanden wird, 2 Weitere Liquiditätsspritzen (bald ein Synonym für höhere Inflationserwartungen) waren die Katalysatoren des Handelsrisikos und umgekehrt, und das Deflationsrisiko war ein Risk-off-Trigger. Konzept 58 dass die Aufhebung vorübergehend ist. Dem Bild zufolge muss sich der Finger wieder bewegen. Anders ausgedrückt ist die Frage des Ausstiegs von Anfang an ein unabdingbarer Teil des Stimulus. Das erklärt den angespannten Dialog zwischen den Märkten und den Zentralbanken, sobald das Umfeld Anzeichen einer Verbesserung zeigt. Wie also sollten die Entscheidungsträger vorgehen? Im Idealfall würde die Umkehr der Geldpolitik nach der Krise in drei separaten Schritten vor sich gehen: zunächst eine Entflechtung der Korrelationen, dann eine Rückkehr der Volatilität und schließlich die Zinserhöhungen selbst. Der erste Schritt, der Mitte 2013 begann, als ein allmählicher Rückzug ins Gespräch kam, ist mehr oder weniger abgeschlossen, wenn auch nicht ohne Konsequenzen: Die Korrelationen sind zum Muster vor der quantitativen Lockerung zurückgekehrt und werden wahrscheinlich nicht wieder die Werte von vor zwei oder drei Jahren erreichen. Der zweite Schritt, eine Rückkehr der Volatilität, muss erst noch wirklich in Gang kommen, trotz der jüngsten Nervosität im Zusammenhang mit Russland und den Ölpreisen. Die Versuche der Fed, Volatilität wieder in die Märkte einzuführen, stießen überwiegend auf Ablehnung. Wie die Zentralbanken den dritten Schritt angehen und tatsächlich die Zinsen erhöhen sollen, steht daher noch in den Sternen. Das Hauptproblem besteht darin, dass sich die Geldpolitik im Vergleich zu ihrer Rolle vor der Krise von einem Schockverursacher in einen Schockdämpfer verwandelt hat. Somit ist mit ihr nun ein moralisches Risiko verbunden: Sie bestärkt Fehlverhalten und sanktioniert abweichende Meinungen. Nicht mit den Wölfen zu heulen, hat jedoch negative Folgen, und dadurch wird schlechtes Verhalten weiter gefördert. Hierin liegt die Quelle der positiven Rückkopplung, die gelegentlich Panikattacken verursacht. Obwohl diese nur episodisch auftreten, können sie potenziell ein Liquiditätsproblem schaffen. Jahre der akkommodierenden Geldpolitik haben zu einer einseitigen Positionierung und entsprechender Angst davor geführt, was geschieht, wenn die Liquiditätsspritzen zu Ende gehen. Dieses inzwischen allgegenwärtige Sicherheitsgefühl wird wahrscheinlich eine zunehmend negative Rolle spielen, je länger die Märkte so operieren wie in den letzten Jahren. Es kann sich sogar zu einem Hindernis für eine vernünftige Geldpolitik erweisen, selbst wenn sich die wirtschaftlichen Rahmenbedingungen verbessern. Beim gegenwärtigen Modus Operandi könnte sich jede unerwartete Änderung in der Position der Fed sogar als störend erweisen. Auf diese Weise wird bei gleichbleibend geringer Volatilität das Risiko weiter hinausgezögert, während die Datensensibilität mit der Zeit wächst: Je länger die Geldpolitik 59 Volatilität—Ein Balanceakt Während niedrige Volatilität für die Erholung unerlässlich war, wird es nun weitaus schwieriger sein, sie wieder in den Markt zurückzuführen. Problematisch bleibt, dass die vermeintliche Sicherheit der stimulierenden Maßnahmen alles andere in den Schatten gestellt hat. Konzept 60 unverändert bleibt, um so stärker ist das Risiko einer erhöhten Marktvolatilität. Fürs Erste dürfte die Volatilität jedoch gering bleiben – und zwar ungeachtet der Wirtschaftslage oder der Maßnahmen der Fed. So war beispielsweise die Zinsvolatilität seit den ersten Tagen der quantitativen Lockerung eine Geisel der Geldpolitik. Mit der Verstaatlichung der negativen Konvexität von Hypotheken (etwa durch die Aufkaufprogramme für Hypotheken) ist es dabei noch lange nicht getan. Konvexitäts- Hedging bei Hypotheken gehört der Vergangenheit an, da nun das Risiko in der Bilanz der Fed liegt. In der Tat funktioniert der Übertragungsmechanismus zwischen Immobilieneigentümern und Kapitalmärkten nicht mehr. Das begünstigt Volatilitätsverkäufe und setzt realisierter Volatilität ein Ende. In Ermangelung jeglicher Bewegung bei den Zinsen verliert eine Option im Zeitablauf an Wert – jeder Versuch, von Volatilität zu profitieren, wird bestraft. Anleger, die in längerfristige Instrumente investieren, müssen ebenfalls auf künstlich niedrig gehaltene Zinsen und Volatilität reagieren. In diesem Umfeld weichen sie auf Kreditgeschäfte aus, da diese höhere Renditen erbringen und die niedrige Volatilität das Risiko geringer erscheinen lässt. Auch hier gilt: Je länger diese Situation andauert, desto attraktiver werden Kreditgeschäfte und desto mehr Investoren versuchen, von ihnen zu profitieren. Und genau das kann zu Schwierigkeiten führen, wenn sich Zinsen und Volatilität normalisieren. Auch die Aktienmärkte sind nicht immun gegen die niedrige Volatilität. Kaum ein Investor würde behaupten, dass sich der US-Aktienmarkt nahe einem Rekordhoch befindet, weil sich die Unternehmen in besserem Zustand denn je zeigen. Zum einen haben kontinuierlich niedrige Zinsen und enge Kreditspreads zu fortlaufenden Aktienrückkäufen geführt. Außerdem hilft die Tatsache, dass Aktien im Zuge der lockeren Geldpolitik positiv konvex geworden sind. Aktien werden nicht nur durch eine gute Datenlage gestützt, sondern auch durch schwache Daten, da dies einen fortwährenden Ausgleich impliziert. Diese implizite Optionalität hat Aktien für Investoren besonders attraktiv gemacht. Mit einer zunehmenden Intensivierung der Debatte über den Ausstieg der Fed wird diese Optionalität natürlich zu einem weiteren Charakteristikum eines Marktes, der sich unter Druck befindet. So reagiert der US-Aktienmarkt beispielsweise positiv auf schwache Arbeitsmarktdaten (die nach Meinung der Investoren der Schlüssel zum Timing von Zinserhöhungen sind) und negativ auf gute Daten. Was die Bedeutung für risikoreiche Anlagen angeht, nimmt der Markt eine akkommodierende Geldpolitik als bedeutender wahr als tatsächliche Verbesserungen am Arbeitsmarkt. Die Aussichten auf eine wirtschaftliche Erholung haben eine „perverse“ Logik angenommen, bei der gute 61 Volatilität—Ein Balanceakt Nachrichten zu schlechten Nachrichten wurden – und umgekehrt. Während niedrige Volatilität für die Erholung unerlässlich war, wird es nun weitaus schwieriger sein, sie wieder in den Markt zurückzuführen. Problematisch bleibt, dass die vermeintliche Sicherheit der stimulierenden Maßnahmen alles andere in den Schatten gestellt hat. Weiter erschwert wird die Situation dadurch, dass die Erholung nicht robust genug ist und das Vertrauen weiterhin schwach ist, dass die Wirtschaft ohne eine lockere Geldpolitik eigenständig gedeihen könnte. Deshalb muss der Kurswechsel der Geldpolitik dahingegend erfolgen, dass sich die Volatilität nicht zu stark erhöht. Dies erfordert ein außerordentliches Feingefühl. Und leider bieten bisherige Fed- Zyklen hierzu keine Anhaltspunkte. Was würde ein Kurswechsel – wenn auch mit kleinen Schritten – für die Märkte bedeuten? Da die Geldpolitik darin besteht, den Zinsen die negative Konvexität zu entziehen und risikoreichen Anlagen positive Konvexität hinzuzufügen, muss für eine Wende folglich den Zinsen negative Konvexität hinzugefügt und den risikoreichen Anlagen positive Konvexität entzogen werden. Angesichts dieser simplen Realität scheint offensichtlich, dass Zinsen unbeständiger werden und risikoreiche Anlagen ihre Attraktivität verlieren müssen, insbesondere dann, wenn die Zurücknahme aus dem Ruder läuft. Und angesichts der Kapitalmengen, die in diesen Kreditgeschäften und Aktien-Carry-Trades geparkt sind, ist eine ungeordnete Zurücknahme fast unumgänglich. Das o.g. Stäbchen dürfte dann geräuschvoll zu Boden fallen. Was bedeutet das für die Volatilität? Präzise Bewertungen der Volatilität bleiben weitgehend aus und sind außerdem von den verwendeten Bewertungskennzahlen abhängig. Einerseits ist offensichtlich, wie eine künstlich niedrig gehaltene Volatilität den Raum für eine Zurücknahme der Geldpolitik eingeengt und die Fehlallokation von Kapital gefördert hat. Wenn sich diese Situation umkehren sollte, ist eine höhere Volatilität zu erwarten. Andererseits darf es nicht verwundern, wenn Investoren, die auf eine fortlaufend niedrige Volatilität setzen, auch weiterhin erwarten, dass die Zinsen länger niedrig bleiben müssen, als der Markt angesichts der Anfälligkeit der Wirtschaft erwartet. Oder die Zinserhöhungen selbst führen die Wirtschaft zurück in die Rezession, ähnlich wie in Schweden, nachdem die dortige Zentralbank 2010 die Zinsen erhöhte. Die Volatilität könnte, obwohl sie sich bereits nah am historischen Tiefstand befindet, dann durchaus noch weiter sinken. Investoren, die auf eine Rückkehr der Volatilität setzen, müssen sich fragen, auf welche Weise sie zurückkehren wird. Es ist nicht anzunehmen, dass die Volatilität im gleichen Maße zurückkehren wird, wie das Volatilitätsniveau zuvor abgenommen hat. Aller Voraussicht nach (und u. U. geschieht Konzept 62 dies bereits) dürfte die Volatilität über den Währungskanal zurückkehren. So zeigte die Devisenvolatilität im Vergleich mit anderen Volatilitätsmärkten aufgrund der Inaktivität der Zentralbanken die schlechteste Performance. Doch angesichts der Bewegung in den letzten Monaten mag ihre Zeit vielleicht gekommen sein. Nach dem Schock an den Anleihe- und Aktienmärkten Mitte Oktober hat sich die Volatilität weg von Zinsen und Aktien hin zum Devisenmarkt verlagert (oder aus den USA im generell nach Europa), wo die Unsicherheiten deutlicher erkennbar sind. Angesichts der ungelösten Probleme in der europäischen Wirtschaft gibt es mehrere mögliche Ergebnisse, die den Euro weiter schwächen oder aber zu seiner Stärkung führen könnten. Wenn die Europäische Zentralbank die falschen Entscheidungen trifft, könnte die Volatilität wieder ansteigen. Aber auch bei entsprechendem Ausgleich ist die Balance durchaus nicht gesichert. Es kommt vor allem auf das Wachstum an. Sobald aber die Probleme in Europa gelöst sind, würde sich das Abwärtsrisiko für die Erholung in den USA reduzieren, und die Fed könnte eine allmähliche Verschärfung der Geldpolitik einleiten. Wenn ausländische Zentralbanken eine inflationäre Geldpolitik betreiben, würden sich Käufer tendenziell eher längerfristig engagieren und wären bereit, ein Risiko einzugehen. In diesem Umfeld würden die Kräfte, die zu einem stärkeren Dollar führen, auch ein höheres Renditeniveau unterstützen, und der US-Aktienmarkt würde voraussichtlich profitieren. Ein erfolgreicher Kurswechsel wäre das Spiegelbild eines Stagflation-Szenarios (Rückgang der Aktienkurse, hohe Zinsen, schwacher Dollar), das folgen würde, wenn die Zentralbanken ihre Glaubwürdigkeit vollkommen verlieren würden. Das Hauptmerkmal eines solchen günstigen Marktumfeldes wäre, dass alle drei Anlagen – Aktien, Anleihen und der Dollar – für einen längeren Zeitraum stark ansteigen könnten. Das wäre sehr ungewöhnlich. Im Allgemeinen ist eine Rallye von zwei dieser Anlageklageklassen nur dann möglich, wenn die dritte Anlageklasse Verluste erleidet. Obwohl es gelegentliche Abweichungen von diesem Prinzip gibt, könnte es Hinweise auf die Markaktivitäten auf kurze Sicht geben. Ein erfolgreicher Kurswechsel könnte sogar den Beginn einer ganz neuen Investitionslandschaft bedeuten. In diesem Falle bliebe das Stäbchen dann senkrecht. Und die Investoren würden zufrieden zusehen, wie sich der Finger wieder bewegt. 63 Volatilität—Ein Balanceakt Die Ukraine— Flügelschlag eines Schmetterlings Konzept 64 Russland ist nicht bereit, eine westlich orientierte Ukraine zu tolerieren. Sezessionsbewegungen in Regionen mit hohem russischem Bevölkerungsanteil wurden unterstützt und die Krim annektiert. Der Westen verzichtete auf einen militärischen Gegenschlag und entschied sich stattdessen für milde wirtschaftliche Sanktionen gegen Einzelpersonen und Finanzinstitute, die Präsident Putin nahestehen. Kreditlaufzeiten wurden verkürzt und russische Aussichten auf Exporteinnahmen in ferner Zukunft dezimiert, indem westlichen Unternehmen untersagt wurde, sich an energiewirtschaftlichen Projekten in Russland zu beteiligen. Peter Garber Konzept65 Diese begrenzten offiziellen Sanktionen führten zu einem Kreditstopp im Privatsektor und zu einer Kapitalflucht, was in Russland zu einer Rezession beigetragen hat. Im Militärkonflikt ist nun eine vorsichtige Waffenruhe eingetreten, doch der derzeitige Grenzverlauf des Gebiets in den Händen der Rebellen und die zunehmend schwache Wirtschafts- und Finanzlage der Ukraine legen den Schluss nahe, dass dieser Zustand nicht von Dauer sein wird. Die Sanktionen waren zwar ein harter Schlag für Russland, konnten es jedoch nicht davon abhalten, die Rebellenregionen für sich zu beanspruchen. Da die USA keine nennenswerten Handels- oder Finanzgeschäfte mit Russland führen, blieben mögliche Sanktionen und die damit verbundenen Risiken der Europäischen Union überlassen. Weder die EU noch Russland wollten russische Energieexporte ins Spiel bringen, weil eine solche Maßnahme beiden Volkswirtschaften großen Schaden zufügen könnte. Für Russland stand vor allem der mögliche Verlust seiner Reputation als zuverlässiger Energielieferant auf dem Spiel. Beide Seiten schienen bereit, den Energiebereich trotz des Konflikts unangetastet zu lassen. In den letzten Monaten hat sich die Marktmacht der OPEC jedoch zunehmend aufgelöst, und Saudi-Arabien versucht, seinen Marktanteil gegen neue, kleinere Akteure zu halten. Dadurch ist der Preis für Rohöl (Brent) zwischen Juli und Dezember um 45 Prozent gefallen. Der Rubel ist genau parallel zum Erdölpreis abgestürzt – nicht aufgrund der Sanktionen. Russlands Stehvermögen in einem ausgedehnten Wirtschaftskonflikt hat abgenommen, und die Uhr tickt. Es ist daher durchaus wahrscheinlich, dass Russland seine Forderungen in der Ukraine zurückschrauben und sich auf einen für beide Seiten akzeptablen Kompromiss einlassen wird, um sein Gesicht zu wahren. Präsident Putin spricht allerdings nun in quasi-verklärten Worten von der Krim und fordert zumindest eine neutrale Ukraine. Bei der Einführung des Euro wurden unter anderem geopolitische Faktoren als Begründung genannt: Der Euro würde zu einem politisch geeinten Europa führen, das sich mit Großmächten wie den USA, Russland und China messen könnte. Europas mächtigster Nachbar mag dies als potenzielle Bedrohung oder als Marketing-Hype aufgefasst haben. Jedenfalls war Russland in den 1990er Jahren zu schwach, um Gegenwehr zu leisten, und in den folgenden zehn Jahren sind die wirtschaftlichen Verflechtungen zwischen Russland und der EU gewachsen. Noch im selben Jahrzehnt dehnten sich die EU und die Nato jedoch immer weiter nach Osten aus und warben begeisterte neue Mitglieder – die einzigen Ausnahmen waren Weißrussland, Moldawien und die Ukraine. Als die Ausdehnung die Ukraine erreichte, war aus russischer Sicht aus dem reinen Werbe-Hype der EU offenbar eine ernsthafte Bedrohung geworden. Konzept 66 Wenn Russland entschlossen ist, die annektierten Gebiete zu vereinnahmen, und sich vom Westen herausgefordert fühlt, könnte es dann nicht versucht sein, den Zusammenhalt des des Westens mit größerem Einsatz zu torpedieren, auch wenn die Chancen nicht sehr vielversprechend sind? Die Volkswirtschaften der USA und der EU sind jeweils acht Mal so groß wie die Russlands, wo das Bruttoinlandsprodukt 2013 nur 2 Billionen US-Dollar betrug. Falls ein ausgedehnter Wirtschaftskonflikt beide Seiten mit gleicher Stärke träfe, wäre der prozentuale Anteil des Schadens für Russland deutlich höher. Käme der politische Zusammenhalt des Westens dem Russlands gleich, bestünde Russlands beste Strategie also darin, einen zunehmenden Wirtschaftskrieg zu vermeiden. Es gibt jedoch klare Bruchlinien in der EU. Russland könnte daher seine beste Chance darin sehen, einen politischen Zerfall der EU herbeizuführen, indem es den bisher geringen Druck im Wirtschafts- und Finanzkonflikt verschärft. Die EU steht bereits kurz davor, eines ihrer Mitglieder zu verlieren, da Großbritannien den Austritt aus der Europäischen Union in ein oder zwei Jahren in Erwägung zieht. Die Eurozone selbst zerbrach 2012 fast an ihren eigenen Widersprüchen und wird seitdem nur durch massive Kreditzusagen der Zentralbank im Verbund mit belastenden Sparmaßnahmen in den Peripherieländern zusammengehalten. Einige der Peripherieänder lehnen härtere Sanktionen gegen Russland ab, weil sie befürchten, weitere Exportmärkte einzubüßen oder die Energieversorgung zu gefährden. In Spanien, Italien oder Griechenland könnten schon bald EU-feindliche Parteien die politische Agenda dominieren. Dies würde eine erneute existentielle Euro-Krise heraufbeschwören – die dann das Potenzial hätte, ein finanzielles und wirtschaftliches Chaos auszulösen und einer weiteren Vergrößerung der EU ein Ende zu setzen. Könnte Russland trotz seiner relativ geringen Wirtschaftsmacht mit gezielten wirtschaftlichen Maßnahmen einen möglichen Zerfall der EU vorantreiben? Obwohl beide Seiten diesen Bereich bisher unangetastet gelassen haben, dürfte der Energiehandel zwischen Russland und der EU Putins einziger ernsthafter Ansatzpunkt sein. Zunächst wurden Erdöl und Erdgas als mögliche Waffen im Wirtschaftskonflikt genannt, jedoch nur im Zusammenhang mit erhöhten Kosten für beide Seiten in einer Kosten-Nutzen-Analyse, nicht als Mittel zur Störung des politischen Gleichgewichts in der EU. Erdöl- und Erdgasexporte machten 2013 fast 70 Prozent der russischen Exporteinnahmen aus. 80 Prozent der Erdölausfuhr und fast die gesamten Erdgasexporte gingen dabei an die Europäische Union. Der Zusammenbruch des Ölpreises hat bisher einen viel stärkeren strategischen Effekt für die EU, als große Erdölsanktionen auf den russischen Handel gehabt hätten. Doch selbst bedeutende Sanktionen der EU im Erdölhandel mit Russland hätten eine 67 Die Ukraine—Flügelschlag eines Schmetterlings geringere strategische Wirkung gezeigt als der derzeitige Einbruch des Ölpreises. Russland begann 2013 mit einem Handelsbilanzüberschuss von 180 Milliarden US-Dollar, hat jedoch inzwischen im Erdölhandel jährliche Exporteinnahmen in Höhe von 125 Milliarden US-Dollar eingebüßt (45 Prozent der 285 Milliarden US-Dollar Exporteinnahmen des Jahres 2013). Darüber hinaus sind die meisten der langfristigen Lieferverträge für Erdgas an einen gleitenden Durchschnitt der Erdölpreise gebunden; daher dürften Russlands Erdgaseinnahmen im Frühjahr 2015 um mehr als 30 Milliarden US-Dollar fallen. Russlands gegenwärtige Kaufkraft für ausländische Waren aus Exporteinnahmen ist um bis zu 30 Prozent gesunken. Neue Kreditangebote aus dem Ausland sind versiegt, und die derzeitige Politik verfolgt in erster Linie eine Strategie der Nichteinmischung, um Devisenreserven zu schonen. Unter diesen Bedingungen dürfte die anhaltende Kapitalflucht in Russland zu einem noch größeren Handelsbilanzüberschuss führen. Russlands Nachfrage nach Importen muss also eingedämmt werden, und der Einbruch des Rubel-Wechselkurses trägt zweifellos dazu bei. Angesichts des weiteren Erdölpreisverfalls aufgrund der Unstimmigkeiten in der OPEC wird Russland schon bald die wirtschaftliche Kraft fehlen, sich im geopolitischen Wettkampf durchzusetzen. Könnte das Land es auf kurze Sicht schaffen, seinen 30-prozentigen Anteil am EU-Erdölmarkt zu nutzen, um das instabile wirtschaftliche und politische Gleichgewicht in der EU auszuhebeln, solange seine wirtschaftliche Macht dies erlaubt? Was würde passieren, wenn Russland einen Großteil oder alle sechs Millionen Barrel seiner täglichen Erdölexporte in die EU aus dem Markt zurückzöge? Jedes EU-Land ist verpflichtet, Erdölbestände für einen Bedarf von mindestens 90 Tagen bereitzuhalten, und diese Auflage wird allgemein eingehalten, sei es durch strategische staatliche Reserven oder private Vorräte. Als Reaktion würden diese Bestände sofort freigegeben werden, um das Angebotsdefizit auszugleichen. Das potenziell akute Versorgungsproblem würde nur wenige Monate andauern; die EU würde versuchen, weltweit anderweitige Vorräte einzukaufen, lange bevor ihr die Reserven ausgegangen sind. Im Endeffekt würde die Verknappung des weltweiten Angebots die Preise in die Höhe treiben und unter Umständen einen Großteil des Preisverfalls vom letzten Jahr wieder aufheben. Es gäbe jedoch keine akuten Engpässe in der EU, nicht einmal vorübergehend. Daher wäre die einzige makroökonomische Auswirkung eine Umkehr der Ölpreisentwicklung. Selbst diese Situation wäre nicht von Dauer, weil Russland die entgangenen Einnahmen ohne Aussicht auf Erfolg nicht lange verkraften könnte. Würde die EU indes nicht zerfallen, wäre diese Investition in Form von Ertragseinbußen sinnlos. Erdöl ist daher als wirtschaftliches Druckmittel ungeeignet. Aber wie verhält es sich mit dem Erdgas? Erdgasexporte Konzept 68 brachten Russland 2013 Erträge von 75 Milliarden US-Dollar ein. Bei der Erdgasversorgung hat Russland eine veritable Marktmacht in Europa, da Gas als Energiequelle nicht leicht zu ersetzen ist und die flächendeckende Umverteilung bestehender Vorräte innerhalb der EU oder von außerhalb nicht durchführbar wäre. Ein solcher zentraler Angriffspunkt im Produktionsmechanismus, für den es kaum Ausweichpotenzial gibt, ist in Wirtschaftskonflikten das A und O. Dies macht Erdgas zur besten wirtschaftlichen Waffe Russlands. Insgesamt beziehen die EU-Länder rund 30 Prozent ihres Erdgases aus Russland, die meisten östlichen EU- Mitgliedstaaten sogar 80 Prozent und mehr. In Deutschland sind es 35 Prozent. Erdgas kann bis zu einem gewissen Grad zwischen EU-Ländern ausgetauscht werden, die östlichen Mitgliedsländer müssten jedoch auf deutlich mehr verzichten. Damit kann Erdgasverknappung eingesetzt werden, um in einigen Ländern, deren Industriebetriebe das Gas als Energiequelle oder Rohstoff benötigen, Produktionskürzungen herbeizuführen. Wie gravierend wäre eine solche Rezession, und würde die Reaktion in den politisch bereits besonders skeptischen Staaten zu einem Auseinanderbrechen der Eurozone führen? Dies ist davon abhängig, inwieweit die EU in einer solchen ernsten, aber vorübergehenden Krise durch Umverteilung und Deckung des Bedarfs in den am stärksten betroffenen Ländern schlimmere Folgen verhüten könnte. Und natürlich stellt sich auch die Frage, wie lange Russland den Verlust der Einnahmen finanziell tragen könnte, ohne selbst noch mehr ins Straucheln zu kommen. Erdgas ist das einzige Druckmittel, mit dem Russland den strategischen Gegenwind aufhalten kann, der das Land in diesem wirtschaftlichen Machtkampf zu überwältigen droht. Bei dem geschilderten Szenario handelt es sich allerdings eher um eine mögliche als eine wahrscheinliche Entwicklung. Gleichwohl wäre es für Russland aus geopolitischer Sicht sicherlich verlockend, aus einem monolithischen Gegner eine Gruppe zerstrittener mittelgroßer und kleiner Staaten zu machen und sich dadurch größere Chancen zu verschaffen. 69 Die Ukraine—Flügelschlag eines Schmetterlings Ein Portfolio ohne Kreditausfälle—Keine Magie Konzept 70 Manager von Kreditportfolios fürchten nichts mehr als Kreditausfälle. Obwohl Kreditausfälle selten auftreten, wirken sie sich grundlegend auf die Performance von Kreditportfolios aus, denn sie haben eine extrem reputationsschädigende Wirkung. Deshalb ist die Zusammenstellung eines Portfolios mit unterdurchschnittlichem Ausfallrisiko eines der Hauptziele von Portfoliomanagern. Jean-Paul Calamaro, Kunal Thakkar Konzept71 Nur wenige Investoren kennen die außergewöhnlichen Eigenschaften des iTraxx Europe – des liquidesten Portfolios im europäischen Kreditspektrum. Seit seinem Start im Jahr 2004 hat es sich als konstant und außergewöhnlich widerstandsfähig erwiesen und innerhalb eines von einem ausgeprägten Konjunkturabschwung geprägten Jahrzehnts nur einen einzigen Ausfall erlitten. Dieses Ergebnis stellt nicht nur die Performance vergleichbarer Portfolios in den Schatten, sondern wirft auch einige wichtige Fragen für Investoren auf. Vor allem: Wird sich diese gute Performance langfristig fortsetzen? Auf welche Faktoren geht diese Outperformance zurück? Findet sich diese Dynamik auch in Benchmarks in anderen Märkten wieder? Kurz gesagt, gibt es eine rationale Erklärung für dieses außergewöhnliche Ergebnis? Oder ist der Erfolg des iTraxx Europe pure Magie? Der iTraxx Europe ist der in Europa gehandelte Referenz-Kreditindex für Investment-Grade-Titel. Er setzt sich aus 125 gleich gewichteten Kreditnehmern zusammen und wird mit verschiedenen Laufzeiten aufgelegt, wobei der Fünfjahresindex der liquideste ist. Ein wichtiges Merkmal des Index ist, dass er alle sechs Monate in Form einer ganz neuen Serie aktualisiert wird. Die Zusammensetzung des Index kann während der Aktualisierung geändert werden. Liquidität ist der Hauptfaktor für die Auswahl der einzelnen Kreditnehmer. Dabei werden klare Anforderungen bezüglich der Kreditqualität und der Sektorzusammensetzung berücksichtigt. Seit Juni 2004 gab es 22 Indexserien mit insgesamt über 240 Kreditnehmern. Es ist beeindruckend, dass die Umstrukturierung (kein Ausfall!) von Thomson SA Ende 2009 das einzige Kreditereignis des iTraxx war. Um jedoch die beeindruckende Performance des Index auch objektiv darstellen zu können, ist ein Vergleich mit ähnlichen Portfolios erforderlich. Und das ist schwieriger, als es scheint. Die beste Vergleichsmöglichkeit für die Ausfall-Performance bieten unserer Einschätzung nach Portfolios, die bei der Auflegung dieselbe Rating-Zusammensetzung hatten. Nehmen wir als Beispiel den iTraxx Europe der Serie 9 – den „on the run“-Index, der ab März 2008 gehandelt wurde und damit sechs Monate vor der Lehman-Pleite. Für die Erstellung von Portfolios mit derselben Rating-Zusammensetzung wie der Index werden Kreditnehmer aus dem vielfältigen Angebot vom März 2008 nach dem Zufallsprinzip ausgewählt. Die Rating- Performance jedes Portfolios während der gesamten Laufzeit (fünf Jahre später, im Juni 2013) wird zurückverfolgt und die Anzahl an etwaigen ausgefallenen Kreditnehmern festgestellt. Konzept 72 Die Zahl derartiger möglicher Portfolios geht in die Milliarden – dank einiger mathematischer Kunstgriffe kann die Berechnung jedoch rasch durchgeführt werden. Diese vergleichende Analyse wird dann für verschiedene Indexserien durchgeführt, um so die historische Ausfall- Performance des iTraxx Europe im Zeitablauf zu ermitteln. Die Ergebnisse zeigen, dass der iTraxx Europe stets entweder unter den besten Portfolios mit ähnlichem Rating rangiert oder aber über dem Durchschnitt liegt. Bezüglich der Ausfall-Performance war der iTraxx Europe in diesen Jahren gegenüber Portfolios mit ähnlichem Rating nahezu unschlagbar. Allerdings ist die Anzahl der Ausfälle nur eine Komponente, an der sich die Überlegenheit des Index gegenüber vergleichbaren Portfolios zeigt. Was die Anleger letztendlich interessiert, sind die Verluste bzw. deren Vermeidung. Auch in dieser Hinsicht haben unsere Analysen ergeben, dass die Performance des iTraxx Europe über dem Marktdurchschnitt liegt. Dem einzigen Verlust, den der iTraxx Europe erlitten hat, folgte eine relativ hohe Wiedereinbringungsquote von 65 Prozent. Dieser Wert liegt deutlich über den durchschnittlichen Recovery Rates von 41 bis 46 Prozent, die über vergleichbare Fünfjahreszeiträume beobachtet wurden. Tatsächlich ist die Differenz zwischen den Indizes bei den Marktverlusten noch größer als bei den Ausfällen – eine beeindruckende Leistung. Der iTraxx Europe hat sich damit als außergewöhnlich ausfallresistent erwiesen. Es stellt sich die Frage, ob es weltweit noch andere liquide Kreditindizes gibt, die ebenfalls eine bessere Performance als ihre vergleichbaren Märkte aufweisen. Das Investment-Grade-Pendant zum iTraxx Europe in den USA – der Markit CDX North American Investment Grade Index – setzt sich ebenfalls aus 125 Investment-Grade-Schuldnern zusammen. Damit hören die Gemeinsamkeiten aber auch schon auf. Im Gegensatz zum iTraxx Europe lag der CDX.NA.IG bei den Ausfällen erheblich unter dem Durchschnitt von Portfolios mit ähnlich bewerteten US-Kreditnehmern. So gehört der CDX.NA.IG der Serie ten 1 zum Beispiel zu den 1,7 Prozent der Portfolios mit der schlechtesten Performance, während sich der iTraxx der Serie 9 unter den besten 3,9 Prozent in Europa befindet (weitere Informationen zur Methodik sind dem Kasten zu entnehmen). Anders ausgedrückt bestand eigentlich kein Zweifel daran, dass der Ausfallrekord der US-Benchmark im Laufe der Jahre gebrochen würde. Mit einem zufällig ausgewählten Portfolio (allerdings mit derselben Rating-Zusammensetzung bei der Auflegung) hätte das Ausfallrisiko enorm verringert werden können. Fairerweise ist anzumerken, dass ein Fokus auf die 1 Aufgrund des früheren Starts des CDX.NA.IG besteht zwischen den Indexserien des CDX.NA.IG und des iTraxx Europe eine Ungenauigkeit im einstelligen Bereich. 73 Ein Portfolio ohne Kreditausfälle—Keine Magie Verluste zu einem weniger desaströsen Ergebnis führt. Der Grund dafür liegt jedoch nur darin, dass zwei der ausgefallenen US- Schuldner, die in verschiedenen Indizes vertreten waren, nämlich Fannie Mae und Freddie Mac, Recovery Rates von über 90 Prozent aufwiesen. Dadurch werden die Folgen von Ausfällen abgemildert, obwohl die Verluste bestenfalls den Durchschnittsverlusten ähnlich bewerteter Portfolios entsprechen. In diesem Zusammenhang spielt es übrigens keine Rolle, dass der iTraxx Europe der Serie 9 – im Gegensatz zum CDX. NA.IG der Serie 10 – nicht von Ausfällen betroffen war. Dies kann an einer anfangs mangelhaften Kreditqualität des Portfolios der amerikanischen Indizes liegen. Für uns ist von Interesse, wie die zwei Benchmarks in Bezug auf Portfolios mit derselben Ratingverteilung und dem gleichen geografischen Standort abschneiden. Dass Europas Benchmark-Index unter den besten 4 Prozent rangiert, während sich sein US-Pendant unter den schwächsten 2 Prozent befindet, ist erstaunlich – Portfoliovergleiche fallen selten derart extrem aus. Nur wenige Investoren kennen die außergewöhnlichen Eigenschaften des iTraxx Europe – des liquidesten Portfolios im europäischen Kreditspektrum. Und wie sieht es mit anderen Kreditindizes aus, auch solchen außerhalb des Investment-Grade-Bereichs? Gibt es unter ihnen ebenfalls Outperformer bezüglich der Ausfallresistenz, wie den iTraxx Europe? Der iTraxx Crossover und der CDX.NA.HY (Hochzinsanlagen) sind beispielsweise zwei liquide Benchmarks, die auch Kreditnehmer berücksichtigen, die über kein Investment Grade verfügen. Nach unserer Analyse entspricht ihre Performance der von Portfolios mit vergleichbaren Ratings. Bezüglich der Indizes, deren Handel sechs Monate vor dem Zusammenbruch von Lehman Brothers begann, haben wir herausgefunden, dass 46 Prozent der Portfolios weniger Ausfälle erlitten hätten als der iTraxx Crossover der Serie 9. Und die Verluste, die der Index erlitten hat, waren etwa 1,5-mal so hoch wie die durchschnittlichen Verluste ähnlich bewerteter Portfolios. Unterdessen war die Ausfall-Performance des CDX.NA.HY der Serie 10 schlechter als bei fast 60 Prozent ähnlich bewerteter Portfolios, wobei die Verluste 1,4-mal so hoch waren wie die durchschnittlichen Portfolioverluste. Mit anderen Worten war es an der Zeit, diese Benchmarks zu übertreffen. Bedauerlicherweise kann unsere Analyse nicht auf Indizes wie den iTraxx Japan, iTraxx Asia oder iTraxx Australia angewandt werden, da Schuldner mit Rating nicht in ausreichendem Maße als aussagekräftige Vergleichsgruppe zur Verfügung stehen. Trotzdem lässt sich festhalten, dass die Performance des iTraxx Europe bemerkenswert ist. Bezüglich der Ausfall-Performance hat er das letzte Jahrzehnt praktisch unbeschadet überstanden und Konzept 74 war üblicherweise unter den ausfallresistentesten Portfolios mit derselben Rating-Zusammensetzung. Welche Faktoren aber liegen dieser unvergleichlichen Outperformance zugrunde, und kann sie in den nächsten Jahren aufrechterhalten werden? Die folgenden sechs Punkte liefern eine Erklärung für die „Magie“ des iTraxx und verheißen eine fortgesetzte Outperformance. 1. Der Schuldnerauswahlprozess im Rahmen der Aktualisierungen des iTraxx Europe ist sehr exklusiv. Die Basis dazu bildet eine vom Indexverwalter erstellte umfangreiche Liste der liquidesten Kreditnehmer während der vergangenen sechs Monate, aus der schließlich die 125 Titel ausgewählt werden. 2. Die Rating-Kriterien für Kreditnehmer sind sehr streng. Nur Schuldner mit einem Rating von mindestens Baa3 (Moody’s), BBB- (Standard & Poor’s) oder BBB- (Fitch) kommen in Frage. Kreditnehmer mit einem Rating von Baa3/BBB-/BBB- und negativem Ausblick oder negativer Einschätzung von auch nur einer Rating-Agentur werden nicht aufgenommen. Der CDX.NA.IG in den USA dagegen akzeptiert durchaus Kreditnehmer mit BBB- oder Baa3 und negativem Ausblick. Einer Studie von Moody’s zufolge liegt die Wahrscheinlichkeit einer Herabstufung von Kreditnehmern mit negativem Ausblick während eines Zeitraums von fünf Monaten bei rund 15 Prozent. 2 Ungenauigkeiten beim Rating und infolgedessen eine Verschlechterung der Kreditqualität des Portfolios durch die am niedrigsten bewerteten Kreditnehmer sind deshalb im Falle des iTraxx Europe weniger wahrscheinlich als beim CDX.NA.IG. Die Auswirkungen verschiedener Aufnahmekriterien lassen sich am deutlichsten am Engagement aufeinander folgender Serien des iTraxx Europe in kleinere Kreditnehmer ablesen. Im Laufe der Jahre befanden sich zahlreiche kleinere Kreditnehmer an der Grenze zwischen Investment-Grade- und Hochzins- Segment. Von einer der drei großen Rating-Agenturen mit negativem Ausblick bewertete Kreditnehmer wurden bei der nächsten Aktualisierung nicht mehr in die neuen Serien aufgenommen. Aufgrund der Herabstufung kleinerer Kreditnehmer wurden vermehrt Kernkreditnehmer in die neuen Indexserien aufgenommen, um bei der Auflegung eine hohe Kreditqualität zu wahren. Im Jahr 2006 machten kleinere Kreditnehmer beispielsweise noch fast ein Fünftel aller Kreditnehmer aus. Dieser Anteil ging stetig bis auf 2 Effects of Watches, Outlooks, and Previous Rating Actions on Rating Transitions and Default Rates, Moody’s Investors Service, 3. August 2011. Der Wert von 15 Prozent wurde einem Diagramm entnommen und stellt deshalb nur einen ungefähren Wert dar. 75 Ein Portfolio ohne Kreditausfälle—Keine Magie Nur wenige Investoren kennen die außergewöhnlichen Eigenschaften des iTraxx Europe—des liquidesten Portfolios im europäischen Kreditspektrum Konzept 76 Dass Europas Benchmark-Index unter den besten 4 Prozent rangiert, während sich sein US-Pendant unter den schwächsten 2 Prozent befindet, ist erstaunlich— Portfoliovergleiche fallen selten derart extrem aus 77 Ein Portfolio ohne Kreditausfälle—Keine Magie einen Tiefstand von 8 Prozent zurück und liegt im Moment bei knapp unter 10 Prozent. 3. Eine strikte sektorale Diversifizierung ist ebenfalls ein wesentlicher Bestandteil des iTraxx Europe. In jeder neuen Serie sind fünf Sektoren in einem bestimmten Verhältnis vertreten. Dadurch erhält die Portfolioauswahl ein gewisses Maß an Azyklizität. Aus der Vergangenheit ist bekannt, dass in bevorzugten Sektoren ein deutlicher Anstieg bei der Fremdkapitalaufnahme auftritt – beispielsweise 2006/2007 im Finanzsektor oder 1999/2000 im Telekommunikationssektor. Mit zunehmender Liquidität wären diese Sektoren ohne sektorale Diversifizierungsregelungen so sehr gewachsen, dass sie den Index dominiert hätten. Dies hätte nach Beginn des Fremdkapitalabbauprozesses die erwarteten Folgen gehabt. Aus diesem Grund trägt die Diversifizierung zu einer größeren Rating-Stabilität und letztendlich zu weniger Ausfällen bei. 4. Negative Kreditmigrationen waren relativ gering. Kreditmigrationen geben Auskunft über das Maß, in dem einzelne Kreditnehmer tendenziell von ihrem ursprünglichen Rating wegmigrieren. Die Finanz- und Staatsschuldenkrise in Europa trug zu einem enormen Herabstufungsdruck bei. Der europäische Rating Drift von Moody’s (Heraufstufungs- minus Herabstufungsrate) ist ein guter Indikator für diesen Druck. In den letzten sieben Jahren war er negativ und hat dabei über längere Zeiträume Werte von bis zu minus 30 Prozent erreicht – ein Anzeichen dafür, dass um 30 Prozent mehr Unternehmen herab- als heraufgestuft werden. Demzufolge sollte man meinen, dass die Ratings der Indexserien während derselben Jahre erheblich herabgestuft werden mussten. Das war beim iTraxx Europe allerdings nicht der Fall. Aufgrund der geringen negativen Rating-Migrationen waren folglich auch die Ausfälle gering. 5. Der iTraxx Europe verfügt über eine Reihe von Kernkreditnehmern, die regelmäßig in allen Serien vertreten sind. Diese Kreditnehmer stellen ungefähr die Hälfte aller Titel des Index dar und bilden das Fundament für seine Resistenz und Stabilität. Ihre Ratings befinden sich tendenziell am oberen Ende des Qualitätsspektrums. Auch der CDX.NA.IG profitiert von seinem stabilen Kern an Kreditnehmern, die von einer Indexserie zur nächsten übernommen werden. Im Gegensatz dazu haben der CDX.NA.HY und der iTraxx Crossover keine wirklich feste Kerngruppe von Kreditnehmern. 6. Bei den Titeln des iTraxx Europe handelt es sich tendenziell eher um große Unternehmen, was sich positiv auf die Widerstandsfähigkeit auswirkt. Es gibt keine bestimmte Regelung, die die Aufnahme kleinerer Unternehmen Konzept 78 verbietet, doch die Liquiditätskriterien begünstigen indirekt die größeren Akteure. Zudem haben viele Unternehmen im Index enge Beziehungen zu staatlichen Organen oder sind von entscheidender Bedeutung für einzelne Volkswirtschaften. Dies schützt sie vor großem Druck während einer Rezession. Unsere Analyse zeigt, dass sich die charakteristische Struktur des iTraxx Europe positiv auf die Widerstandsfähigkeit auswirkt. Außerdem dürften die gesamtwirtschaftlichen Bedingungen in Europa erstklassige Kreditnehmer unterstützen. Investment- Grade-Unternehmen sind üblicherweise sehr darauf bedacht, ihr Rating zu halten, und meiden daher spekulative Hochzinsanlagen. Wiederholt gesenkte Wachstumsprognosen in Europa bedeuten, dass Investment-Grade-Unternehmen mit ziemlicher Sicherheit ein konservatives Finanzmanagement betreiben werden. Ferner wirken sich die verschiedenen quantitativen Lockerungs- und vergleichbaren Programme, die derzeit in Kraft sind, wie auch die von der Europäischen Zentralbank geplanten Maßnahmen, positiv auf die Anlageklasse aus – wenn auch indirekt. Nicht zuletzt hat der Rating-Herabstufungsdruck nach sieben schwierigen Jahren endlich nachgelassen. All diese Faktoren lassen die Prognose zu, dass der Index auch in Zukunft seine Widerstandsfähigkeit gegenüber Ausfällen beweisen wird. Damit dürfte der iTraxx Europe seine vermeintliche magische Kraft behalten. 79 Ein Portfolio ohne Kreditausfälle—Keine Magie Die Auswahl der Kreditnehmer bildet das Kernstück unserer Methodik zur Prüfung der Widerstandskraft gegenüber einem Ausfall. Nehmen wir beispielsweise den iTraxx Europe der Serie 9, dessen 125 Titel im März 2008 allesamt ein Investment-Grade- Rating erhielten und der sich auf Kreditnehmer mit A- Rating konzentriert. Damals gab es 51 Kreditnehmer mit A-Rating, die aus insgesamt 306 bewerteten Kreditnehmern ausgewählt wurden. Fünfzehn dieser Kreditnehmer fielen in den nächsten fünf Jahren aus. Portfoliomanager, die 51 Kreditnehmer mit A- Rating aus den zu dieser Zeit verfügbaren 306 Kreditnehmern verwalteten und diese fünf Jahre lang hielten, hätten sehr unterschiedliche Ergebnisse erzielen können. Geschickte Fondsmanager hätten keine Ausfälle gehabt, während auf glücklose Fondsmanager Ausfallraten von bis zu 29 Prozent hätten zukommen können (15/51). Wir wiederholen dann das Verfahren mit verschiedenen Kreditnehmer-Ratings, um eine Ausfallverteilung auszuarbeiten. Wir bezeichnen diese Verteilung als empirische Ausfallverteilung. Eine empirische Ausfallverteilung zeigt alle möglichen Ausfallergebnisse aus gleich bewerteten Portfolios und die damit verbundene Eintrittswahrscheinlichkeit während eines bestimmten Zeitraums in der Vergangenheit auf. Empirische Ausfallverteilungen können als zusammengefasste Ausfall- Performance aller Portfoliomanager betrachtet werden, die in einem bestimmten Zeitraum Portfolios mit denselben Anfangsratings gehalten hätten. Empirische Ausfallverteilungen liefern einen wertfreien Benchmark, anhand dessen die Ausfall- Performance eines bestimmten Index oder Portfolios gemessen werden kann. Für den Fünfjahreszeitraum ab März 2008 war das umfangreiche Angebot bewerteter Kreditnehmer, aus denen alle iTraxx Europe-ähnlichen Portfolios bezogen werden, von insgesamt 20 Ausfällen betroffen. Das heißt, dass jedes der Portfolios mit der gleichen Rating-Zusammensetzung wie der Index von null bis 20 Ausfällen betroffen war, wobei zwei bis vier Ausfälle am wahrscheinlichsten waren. Es ist äußerst unwahrscheinlich, dass ein Portfoliomanager von allen 20 Ausfällen betroffen gewesen wäre. Dagegen hätten 3,9 Prozent der Portfolios gar keine Ausfälle und 14 Prozent genau einen Ausfall erlitten. Der iTraxx Europe der Serie 9 hat keine Ausfälle erlitten und gehört deshalb zu den besten 3,9 Prozent in unserer Analyse. Unsere Methodik 80Konzept Kolumnen 82 Buchempfehlungen 2014 83 Ideas Lab—Schlaf 84 Konferenzberichte—Contingent Convertible Bonds 85 Infografik—Was in Davos geredet wird 81 Konzept Buchempfehlungen 2014 Ende 2014 baten wir unsere Leser, uns ihre Lieblingsbücher des Jahres zu nennen und dazu eine kurze Begründung zu schreiben. Hier sind einige der ungewöhnlicheren Ergebnisse: Owning the Earth, von Andro Linklater Die Geschichte des Grundbesitzes und seiner Bedeutung für die Entwicklung der Institutionen in kapitalistischen Volkswirtschaften. Einfach ausgedrückt sind für Grundbesitz und seine Übertragung Voraussetzungen wie Vertragsrecht, Finanzierung, Landvermessung und Rechtsdurchsetzung erforderlich. Das Buch erinnerte den Leser an Hernando de Sotos Werk „Freiheit für das Kapital!“, das vor wenigen Jahren für Furore sorgte. The Creation of Inequality, von Kent Flannery und Joyce Marcus Während Thomas Pikettys „Das Kapital im 21. Jahrhundert“ als das wegweisende Buch über soziale Ungleichheit gehandelt wird, hält der Rezensent „The Creation of Inequality“ (mit dem Untertitel: Wie unsere prähistorischen Vorfahren die Grundlagen für Monarchie, Sklaverei und Imperialismus schufen) für weitaus origineller. Anhand ihrer Kenntnisse der Anthropologie und Archäologie erläutern die Autoren, wie sich gesellschaftliche Ungleichheit über Tausende von Jahren und Kulturen hinweg verändert hat. Die Autoren kommen unter anderem zu dem Schluss, dass die geringste Ungleichheit in sippenbasierten Jäger- und-Sammler-Gemeinschaften herrscht. Wie ich die Dinge geregelt kriege, von David Allen Nach der Veröffentlichung des Buchs zu Beginn des Jahrtausends hat die darin beschriebene Strategie zum besseren Zeitmanagement bei seinen Anhängern einen gewissen Kult-Status erreicht. Und die Idee ist heute ebenso erfrischend wie damals: Grob gesagt, basiert der Ansatz auf zwei Säulen: Zunächst bringt man sämtliche anstehenden Aufgaben auf einer Liste zu Papier, um sie nicht ständig im Hinterkopf behalten zu müssen. Sodann sollte man Listen mit klar zugeordneten Handlungsanweisungen führen – so etwa eine Liste namens „E-Mails“ mit allen Empfängern, die eine E-Mail erwarten, eine weitere namens „Anrufe“, und so weiter. Einfach, aber wirksam. Um Leben und Tod: Ein Hirnchirurg erzählt vom Heilen, Hoffen und Scheitern, von Henry Marsh Wer zu wissen glaubt, was Risiko und Verantwortung bedeuten, sollte sich durch dieses Buch eines Besseren belehren lassen. Henry Marsh schreibt über seine Laufbahn in der Neurochirurgie und gibt den Lesern einen Einblick in die einzigartige Aufgabe, im wahrsten Sinne des Wortes Einschnitte in das Gehirn eines Patienten vorzunehmen. Diese faszinierende Reise durch die Schnittstelle von Medizin, Philosophie und Ehrgeiz lässt den durchschnittlichen Arbeitstag eines Bankers schon sehr bald in einem anderen Licht erscheinen. What Works for Women at Work, von Joan C. Williams und Rachel Dempsey Dieses Buch fasst gekonnt die neuesten Erkenntnisse über die Herausforderungen zusammen, denen Frauen in der Arbeitswelt gegenüberstehen. Nach Ansicht der Autoren sind die vier größten Herausforderungen der ständige Leistungswettbewerb (Frauen werden anhand ihrer bisherigen Leistungen beurteilt, Männer anhand ihres zukünftigen Potentials), die permanente Gratwanderung (Frauen dürfen weder zu weiblich noch zu männlich wirken), der Mütter- Malus (Frauen wird im Gegensatz zu Männern unterstellt, dass sie ihren Ehrgeiz verlieren, sobald sie Kinder bekommen) und das Tauziehen unter Frauen (das berufliche Fortkommen von Frauen kann durch andere Frauen behindert werden). Ist Erziehung sinnlos? Warum Kinder so werden, wie sie sind, von Judith Rich Harris Die Autorin studierte in Harvard Psychologie, brach ihre Promotion jedoch ab, als ihre Professoren (in den 1960er-Jahren) ihr sagten, sie habe wenig Potenzial und werde ohnehin nur Kinder bekommen. Für den Großteil ihres Lebens arbeitete sie an Lehrbüchern mit, bis eine schwere Krankheit sie über viele Jahre ans Bett fesselte. In dieser Phase entwickelte sie eine revolutionäre Theorie zu den wichtigsten Einflüssen, die neben den genetischen Anlagen mit einem Anteil von etwa 50 % die Persönlichkeit eines Erwachsenen bestimmen. Die andere Hälfte wird laut der Autorin von den Gleichaltrigen bestimmt, mit denen sie zusammen sind – nicht jedoch vom familiären Umfeld. Das Buch eröffnet neue Perspektiven und ist ein heilsames Gegenmittel zu herkömmlichen Theorien, die Eltern Schuldgefühle einflößen, dass sie nicht alles perfekt machen. Das Beste, was Eltern nach Ansicht der Autorin für ihre Kinder erreichen können, ist ein gutes Umfeld. Bilal Hafeez Konzept 82 In unserem bisher erfolgreichsten Ideas Lab-Vortrag nahm Professor Adrian Williams, ärztlicher Leiter des Sleep Disorders Center am Guy’s and St. Thomas’ Krankenhaus in London und führender europäischer Spezialist für Schlafstörungen, seine Zuhörer mit auf eine sozialwissenschaftliche Reise durch „die Wunder des Schlafes“. Er behandelte die Fragen, warum wir schlafen, was passiert, wenn wir es nicht tun, und – besonders beängstigend – warum nachts manchmal Schlimmes geschieht. Menschliche Schlafmuster werden durch soziale Entwicklungen bestimmt. Vor der industriellen Revolution haben wir zweimal pro Nacht geschlafen. Doch 18-Stunden-Schichten in den Fabriken bereiteten diesem „doppelten Schlaf“ ein Ende. Seitdem haben wir die Zeit, die wir schlafend verbringen, kontinuierlich verkürzt. In den zehn Jahren zwischen 1998 und 2009 stieg der Anteil der Bevölkerung, der angab, weniger als sechs Stunden pro Nacht zu schlafen, von 12 auf 20 Prozent. Wir schlafen, um einen frühen Tod abzuwenden, das Risiko von Herzkrankheiten und Schlaganfällen zu senken, Depressionen zu verhindern und unser Gewicht zu kontrollieren. Untersuchungen haben gezeigt, dass Ratten, die am Schlafen gehindert werden, nach etwa zwei Wochen sterben. Sie verlieren ihr Fell und nehmen drastisch ab, auch wenn die Nahrungsaufnahme erhöht wird. Bisher hat es noch kein Mensch geschafft, so lange wach zu bleiben. 1959 hielt sich der amerikanische Radiomoderator Peter Tripp acht Tage lang wach, um Geld für die Wohltätigkeitsorganisation March of Dimes zu sammeln. Schon nach wenigen Tagen seines „Wachathons“ begann Tripp zu halluzinieren, und im Anschluss an seine Aktion litt er offenbar an einer schweren psychischen Erkrankung. Man braucht aber längst nicht so lange wach zu bleiben, um die Auswirkungen von Schlafmangel zu spüren. Dawson und Reid zeigten 1997, dass die psychomotorische Leistung ab der 16. Stunde des Wachbleibens zu sinken beginnt. Tatsächlich sind die Folgen des Schlafmangels mit denen des Alkoholgenusses vergleichbar. Der Zustand nach 22 Stunden Schlaflosigkeit entspricht einem Vollrausch. Es geschehen also schlimme Dinge, wenn wir nicht schlafen. Doch was passiert eigentlich, wenn wir schlafen? Zunächst einmal kann Schlaf anhand von Beobachtungen definiert werden: Eine schlafende Person ist relativ unaufmerksam und unbeweglich. In ähnlicher Weise hat der Psychiater William Dement Schlaf einmal als etwas definiert, was wir tun, um Schläfrigkeit zu verhindern. Doch Schlaf ist nicht einfach das passive Ereignis, als das es dem Beobachter erscheint, sondern ein Prozess, der mehrmals pro Nacht verschiedene Stufen durchläuft. REM (Rapid Eye Movement)-Schlaf – der Zustand, in dem die meisten Träume stattfinden, – tritt normalerweise in 90-Minuten-Intervallen auf, und die Phasen werden gegen Ende der Schlafenszeit immer länger. Den Großteil der Nacht verbringen wir im Nicht-REM-Schlaf, der wiederum in Phasen mit unterschiedlicher Gehirnaktivität unterteilt ist. In jedem Fall sollten Menschen auf die REM-Phasen ihres Schlafs nicht verzichten: Ratten, denen diese Schlafphasen entzogen werden, sterben innerhalb von vier Wochen. Ein weiteres Forschungsfeld sind Schlafstörungen. Diese treten in den unterschiedlichsten Formen auf und gehören zu den häufigsten Beschwerden in der medizinischen Praxis. Fast ein Drittel der Bevölkerung leidet unter Schlaflosigkeit (Insomnie), während bis zu ein Zehntel von übermäßiger Tagesschläfrigkeit (Hypersomnie) betroffen ist. Zur dritten und letzten Kategorie, den Parasomnien, gehören Störungen wie Schlafwandeln, Sprechen im Schlaf, Sex im Schlaf und nächtliches Essen. Diese Symptome treten während der Nicht-REM-Phasen auf. Dass wir diesen Verhaltensweisen rein deskriptive Namen geben, belegt, dass wir sie nicht wirklich verstehen. Was wir jedoch wissen, ist, dass solche Erkrankungen hochgradig vererbbar sind und durch Schlafmangel noch verschlimmert werden. Eine weitere Form der Parasomnie sind REM-Schlaf- Verhaltensstörungen. Damit sind die speziellen Fälle gemeint, in denen die Bewegungslähmung ausbleibt, durch die sich der REM-Schlaf normalerweise auszeichnet. Wer unter REM-Schlaf- Verhaltensstörungen leidet, wird daher nicht daran gehindert, seine Träume körperlich umzusetzen. Im Extremfall hat dies schon dazu geführt, dass ein Betroffener beim Ausleben eines Traums im Schlaf seine Partnerin ermordete. Glücklicherweise sind Symptome wie Schreien, Treten oder Aus-dem-Bett- Springen weitaus verbreiteter. In diesem Sinne: Schlafen Sie gut. Ideas Lab—Schlaf Elise Nilssen Konzept83 Notizen von der Konferenz „The World of CoCos“ im letzten Monat, ausgerichtet von der KU Löwen im St Pancras Renaissance Hotel in London. Es war eine gut organisierte, informative und gelungene Veranstaltung. An der jährlichen Konferenz nehmen Investoren, Regulierungsbehörden, Emittenten, Rating-Agenturen, Risikomanager und Datenanbieter teil. Hier eine Auswahl wichtigsten Erkenntnisse: Aus der Sicht des Marktes Das Pricing von CoCo-Bonds hängt eher von technischen Faktoren ab als von den Fundamentaldaten. Während die Erstemission in US-Dollar erfolgte und vorrangig von Käufern aus Asien angenommen wurde, florierten in letzter Zeit auch Emissionen in Euro – nicht zuletzt wegen der starken Nachfrage in Europa. Ein irrationaler Renditefokus der Anleger hat zu höheren Spreads von Euro- Emissionen im Vergleich zu USD-Emissionen geführt. Doch nur wenige Akteure entscheiden sich für Devisenabsicherung, um von diesen zusätzlichen Spreads zu profitieren. Die Liquidität ist überwiegend gut, wobei einige Investoren Additional Tier 1 (AT1) CoCos als High-Beta-Wertpapiere für den Fall eines ausgeprägten Aufschwungs nutzen. Die Unterschiede der verschiedenen Marktinstrumente spielen beim Markt-Pricing keine große Rolle. Da CoCos für breite Marktindizes nicht in Betracht kommen, gibt es für sie weniger natürliche Käufer. Da weitere Emissionen anstehen, stellt sich vor allem die Frage, wie hoch die voraussichtliche Nachfrage wirklich ist. Diese technischen Faktoren werden sich weiterhin in den Bewertungen widerspiegeln. Aus der Sicht der Regulierungsbehörden Regulierungsbehörden setzen große Hoffnungen in CoCo-Bonds, zum Beispiel durch die steuerliche Absetzbarkeit der Kuponzahlungen – trotz der Eigenkapital-ähnlichen Charakteristika dieser Instrumente. Es sollte jedoch eine größere Standardisierung geben, damit die Risiken für Investoren leichter zu ermitteln sind. Davon würde der gesamte Markt profitieren. Noch steht nicht fest, wie CoCos auf Konversionsschwellen oder die Aussetzung von Kupons reagieren: Würde sich ein solches Ereignis nur beschränkt auswirken oder das ganze System betreffen? Die EU-Richtlinie zur Sanierung und Abwicklung von Banken erhöht das Risiko einer Abschreibung oder Umwandlung von CoCos, denn die Behörden haben die Möglichkeit, bereits zu einem sehr frühen Zeitpunkt Eigenkapitalinstrumente einzubinden. Bei AT1 CoCos steht dieses Risiko im Wettbewerb mit den vertraglich festgelegten Umwandlungsschwellen. Die Europäische Bankenaufsicht EBA verfasst derzeit Richtlinien für die Bewertung der Tragfähigkeit von Banken. Dadurch dürften Investoren mehr Klarheit über das Thema Abwicklung erhalten, das bei der Bewertung von Anleihen eine große Rolle spielt. Trotz einiger quantitativer Indikatoren wird die endgültige Entscheidung vom Sachverstand der Experten abhängen. Aus der Sicht eines Emittenten Der anwesende Emittent hatte sich entschlossen, keine Verkäufe an Privatanleger zu tätigen, da er sich nicht in der Lage sah, alle Risiken in vollem Umfang zu erläutern. Seiner Meinung nach ist eine stärkere Standardisierung dieser Instrumente daher „unbedingt notwendig“. Bis dahin ist ein Verbot des Verkaufs an Privatanleger wahrscheinlich eine gute Idee. Aus der Sicht eines Fondsmanagers Ratings sind kein guter Anhaltspunkt für die Bewertung von CoCo-Bonds. Fondsmanager müssen sich vielmehr auf ihre eigene quantitative und qualitative Analyse verlassen. Es handelt sich um eine komplexe Anlageklasse, bei der viele Investoren die Investitionsentscheidungen Fachleuten überlassen müssen. Die Spreads schließen daher eine „Spezialistenprämie“ ein, die jedoch fallen dürfte, wenn CoCos sich erst einmal stärker etabliert haben. Die jüngste Ausweitung der Spreads bedeutet, dass mehr Mittel für die Absicherung durch Eigenkapital- Verkaufsoptionen aufgewendet werden können. Als Kreditspezialist sichert der Fondsmanager die Investition auch gegen das Zinsrisiko ab. Aus der Sicht einer Rating-Agentur Durch den neuen Abwicklungsrahmen und die Entwicklung einer neuen Bewertungsmethode für Banken hat sich das Umfeld verändert. Für CoCos mit einer hohen Konversionsschwelle wird ein besonderer, modellbasierter Ansatz mit Hilfe von Expertenwissen verwendet, da diese CoCos bereits Verluste erleiden können, bevor eine Bank ihre Tragfähigkeit (viability) verliert. Aus der Sicht eines Indexanbieters Die iBoxx CoCo-Index-Reihe wurde im November 2014 eingeführt. Sie berücksichtigt nur CoCos, die nach dem 1. Januar 2013 emitiert wurden, Basel III-kompatibel sind, ein Rating haben und eine objektive Umwandlungsschwelle aufweisen. Aufgrund von Swaps mit Angabe der Gesamtrentabilität auf der Basis dieser Indizes können sich Investoren bei ihrer Gesamtstrategie für Long- oder Short-Positionen der CoCo-Anlageklasse entscheiden. Konferenzberichte—Contingent Convertible Bonds (CoCos) Michal Jezek Konzept 84 Infografik—Was in Davos geredet wird Vor Ausbruch der Krise Nach Ausbruch der Krise Abgebildet sind Wortwolken, die die Häufigkeit von Wörtern in den Berichten des Weltwirtschaftsforums von 2004 bis 2008 und von 2009 bis 2014 untersuchen. Die Grafiken wurden mit Hilfe von der Website WordItOut.com angefertigt. 85 Konzept Disclaimer deutsch: Originalveröffentlichung in englischer Sprache: 20. Januar. Veröffentlichung der deutschen Ausgabe: 27. Januar. © Copyright 2015. Deutsche Bank AG, Deutsche Bank Research, 60262 Frankfurt am Main, Deutschland. Alle Rechte vorbehalten. Bei Zitaten wird um Quellenangabe „Deutsche Bank Research“ gebeten. Die vorstehenden Angaben stellen keine Anlage-, Rechts- oder Steuerberatung dar. Alle Meinungsaussagen geben die aktuelle Einschätzung des Verfassers wieder, die nicht notwendigerweise der Meinung der Deutsche Bank AG oder ihrer assoziierten Unternehmen entspricht. Alle Meinungen können ohne vorherige Ankündigung geändert werden. Die Meinungen können von Einschätzungen abweichen, die in anderen von der Deutsche Bank veröffentlichten Dokumenten, einschließlich Research- Veröffentlichungen, vertreten werden. Die vorstehenden Angaben werden nur zu Informationszwecken und ohne vertragliche oder sonstige Verpflichtung zur Verfügung gestellt. Für die Richtigkeit, Vollständigkeit oder Angemessenheit der vorstehenden Angaben oder Einschätzungen wird keine Gewähr übernommen. In Deutschland wird dieser Bericht von Deutsche Bank AG Frankfurt genehmigt und/oder verbreitet, die über eine Erlaubnis zur Erbringung von Bankgeschäften und Finanzdienstleistungen verfügt und unter der Aufsicht der Europäischen Zentralbank (EZB) und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) steht. Im Vereinigten Königreich wird dieser Bericht durch Deutsche Bank AG, Filiale London, Mitglied der London Stock Exchange, genehmigt und/oder verbreitet, die von der UK Prudential Regulation Authority (PRA) zugelassen wurde und der eingeschränkten Aufsicht der Financial Conduct Authority (FCA) (unter der Nummer 150018) sowie der PRA unterliegt. In Hongkong wird dieser Bericht durch Deutsche Bank AG, Hong Kong Branch, in Korea durch Deutsche Securities Korea Co. und in Singapur durch Deutsche Bank AG, Singapore Branch, verbreitet. In Japan wird dieser Bericht durch Deutsche Securities Limited, Tokyo Branch, genehmigt und/oder verbreitet. In Australien sollten Privatkunden eine Kopie der betreffenden Produktinformation (Product Disclosure Statement oder PDS) zu jeglichem in diesem Bericht erwähnten Finanzinstrument beziehen und dieses PDS berücksichtigen, bevor sie eine Anlageentscheidung treffen. English disclaimer: Publication of the English version: 20th January. Publication date of the German translation: 27th January. © Copyright 2015. Deutsche Bank AG, Deutsche Bank Research, 60262 Frankfurt am Main, Germany. All rights reserved. When quoting please cite “Deutsche Bank Research”. The above information does not constitute the provision of investment, legal or tax advice. Any views expressed reflect the current views of the author, which do not necessarily correspond to the opinions of Deutsche Bank AG or its affiliates. Opinions expressed may change without notice. Opinions expressed may differ from views set out in other documents, including research, published by Deutsche Bank. The above information is provided for informational purposes only and without any obligation, whether contractual or otherwise. No warranty or representation is made as to the correctness, completeness and accuracy of the information given or the assessments made. In Germany this information is approved and/or communicated by Deutsche Bank AG Frankfurt, licensed to carry on banking business and to provide financial services under the supervision of the European Central Bank (ECB) and the German Federal Financial Supervisory Authority (BaFin). In the United Kingdom this information is approved and/or communicated by Deutsche Bank AG, London Branch, a member of the London Stock Exchange, authorized by UK’s Prudential Regulation Authority (PRA) and subject to limited regulation by the UK’s Financial Conduct Authority (FCA) (under number 150018) and by the PRA. This information is distributed in Hong Kong by Deutsche Bank AG, Hong Kong Branch, in Korea by Deutsche Securities Korea Co. and in Singapore by Deutsche Bank AG, Singapore Branch. In Japan this information is approved and/or distributed by Deutsche Securities Limited, Tokyo Branch. In Australia, retail clients should obtain a copy of a Product Disclosure Statement (PDS) relating to any financial product referred to in this report and consider the PDS before making any decision about whether to acquire the product. Konzept 86
2.6.7