1. Research
  2. Produkte & Themen
  3. Publikationsreihen
  4. Konzept
9. Oktober 2017
Herzlich willkommen zur neuen Ausgabe unseres Magazins Konzept. Diese Ausgabe erscheint elf Jahre, nachdem die ersten Anzeichen für die Entwicklung aufkamen, die sich mittlerweile als Finanzkrise in das kollektive Gedächtnis eingegraben hat. Zeitgleich mit der Veröffentlichung dieser Ausgabe beginnt die Federal Reserve damit, ihr Quantitative Easing-Programm allmählich zurückzufahren, womit nach dem Ende der Krise nun auch das Ende des QE-Programms eingeläutet wird. Das Ende des QE gibt jedoch vielen Investoren Anlass zur Sorge. Schließlich sind seit der Krise die Bilanzsummen bei den Zentralbanken und die Preise an den Finanzmärkten parallel immer weiter gestiegen. Ist mit dem Abschmelzen der Zentralbankbilanzen nun im Umkehrschluss zwangsläufig ein Kursrutsch an den Finanzmärkten zu erwarten? Alle drei Features in dieser Konzept-Ausgabe beschäftigen sich intensiv mit diesem Thema. [mehr]
Werden die Märkte den Ausstieg aus QE verkraften können? Oktober 2017 Cover story Werden die Märkte den Ausstieg aus QE verkraften können? Der allmähliche Ausstieg aus dem Quantitative Easing markiert eine wichtige Zäsur. Nachdem die Preise an den Finanzmärkten ein ganzes Jahrzehnt lang parallel zum QE immer weiter gestiegen sind, sorgt das Ende des QE nun außerdem für Besorgnis unter den Anlegern. Besteht eine Verbindung zwischen QE und den Preisen an den Finanzmärkten? Oder sind die Fundamentaldaten stark genug, die Märkte zu stützen, wenn nach dem Ende der Krise nun auch das Ende des QE-Programms eingeläutet wird? Unser drittes Feature beschäftigt sich mit Unternehmensanleihen und untersucht, wie das aktuelle Spreadniveau vor dem Hintergrund von Kennzahlen wie Ausfallquoten und Verschul- dungsgrad der Unternehmen zu beurteilen ist. Diese Analyse zeigt, dass die Credit Spreads durchaus noch in einem gesunden Verhältnis zu solchen Kennzahlen stehen, allen Unkenrufen zum Trotz, die Fremdkapitalkosten seien zu niedrig. Am Anfang des Magazins finden Sie wie gewohnt kürzere Artikel, die sich mit anderen aktuellen Themen beschäftigen. Nach dem Sieg von Angela Merkel bei der Bundestagswahl richtet unser erster Artikel den Fokus darauf, dass sich die neue deutsche Regierung einigen lang- fristigen Herausforderungen stellen muss. Ein weiterer Artikel beschäftigt sich mit einer dieser Herausforderungen und geht der Frage nach, wie die CO 2 -Emissionen weiter reduziert werden kön- nen, ohne die Energiesicherheit in Deutschland zu gefährden und die Preise auf ein nicht mehr sozialverträgliches Niveau steigen zu lassen. Im nächsten Artikel weiten unsere Analysten den Blick über Deutschland hinaus und dämpfen die Euphorie in Bezug auf die Perspektiven für den Online-Lebensmittelhandel. Mit einem ähn- lich kritischen Blick analysieren sie die Wealth Management-Branche und zeigen auf, wo hier langfristig Handlungsbedarf besteht. Und sollten Sie geglaubt haben, dass Roboter die Ursache für die stagnierende Lohnentwicklung der letzten Jahre sind, müssen Sie vielleicht umdenken. Ob Sie es glauben oder nicht, aber schuld daran ist womöglich ihr Eigenheim. Am Ende des Magazins finden Sie wie ge- wohnt unsere regelmäßigen Rubriken. In unserer Buchrezension erfahren Sie, dass Buchhaltung viel mehr mit dem Aufstieg und Fall großer Reiche zu tun hatte, als man heute annehmen würde. Und unser Konferenzspion hat für Sie einige unentdeckte Informationen von der ersten Internet Conference der Deutschen Bank über die coolsten Technologien aus dem Silicon Valley. Zu guter Letzt stellt die Infografik das QE-Volumen in einen größeren Zusammenhang. Viel Spaß bei der Lektüre. Deutsche Bank Research Herzlich willkommen zur neuen Ausgabe unseres Konzept-Ma- gazins. Diese elfte Ausgabe erscheint elf Jahre, nachdem die ersten Anzeichen für die Entwicklung aufkamen, die sich mittlerweile als globale Finanzkrise in das kollektive Gedächtnis ein- gegraben hat. Vor zehn Jahren schien man die Subprime-Problematik noch unter Kontrolle zu haben, die Kurse an den internationalen Akti- enmärkten kletterten auf neue Rekordmarken, negative Zinsen waren damals noch unvorstell- bar und die Kombination der Worte „quantita- tive“ und „easing“ sagte noch niemandem et- was. Dieses Glück der Unwissenheit war jedoch nicht von langer Dauer und QE hat seither Wirt- schaft und Finanzmärkte fest im Griff. Die Ankündigung der Federal Reserve, ihr QE-Programm allmählich zurückzufahren, markiert daher eine Zäsur in der Nachkrisenzeit. Viele Anleger fürchten jedoch die damit verbun- denen Konsequenzen. Denn Grafiken zeigen, wie die Bilanzsummen bei den Zentralbanken und die Preise an den Finanzmärkten parallel immer weiter gestiegen sind. Ist mit dem Abschmelzen der Zentralbankbilanzen nun im Umkehrschluss zwangsläufig ein Kursrutsch an den Finanzmärk- ten zu erwarten? Alle drei Features in dieser Konzept-Ausgabe beschäftigen sich mit diesem Thema. Unser erstes Feature zeigt auf, dass sich die Rallye an den Aktienmärkten in der Zeit nach der Finanzkrise nicht losgelöst von der Ertragskraft amerikanischer Unternehmen vollzogen hat, die sich ebenfalls verbessert hat. Anleger können daher darauf vertrauen, dass die US-Unterneh- men gesund genug sind, um den Ausstieg aus dem Quantitative Easing verkraften zu können. Doch auch wenn die schrittweise Normalisie- rung der Geldpolitik insgesamt ohne größere Blessuren abgehen dürfte, gilt dies nicht aus- nahmslos für alle Unternehmen. Lesen Sie die einzelnen Beiträge, um sich ein Bild zu machen, wo der Schuh besonders drückt. Die Gesundheit amerikanischer Unter- nehmen ist auch Gegenstand des zweiten Features, das analysiert, warum US-Aktien seit Langem grundsätzlich mit einem erheblichen Bewertungsaufschlag gegenüber den europäi- schen Pendants gehandelt werden. Strukturelle Faktoren wie eine größere Marktkonzentration in den USA und die Nachfrage nach Anlagen in US-Dollar spielen hier eine wichtige Rolle. Doch auch QE hatte hier einen gewissen Effekt. Lesen Sie, wie sich mit dem Ende von QE das transat- lantische Bewertungsgefälle verringern könnte. Editorial Konzept Wenn Sie Feedback geben oder mit den Verfassern in Kontakt treten möchten, wenden Sie sich bitte zunächst an Ihren Kundenberater der Deutschen Bank oder schreiben Sie an luke.templeman@db.com. Articles 06 Agenda für Deutschland nach der Wahl 09 An den Robotern liegt es nicht 12 Online-Lebensmittelhandel: Nur mit Masse macht man Kasse 15 Wie lassen sich die deutschen Klimaziele noch erreichen? 18 Wealth Management—es ist nicht alles Gold, was glänzt Columns 50 Buchrezension—The Reckoning 52 Konferenzberichte 54 Infografik—QE im Kontext Konzept Features Können US-Unternehmen dem Ende von QE gelassen entgegensehen? 21 Das transatlantische Bewertungsgefälle—noch ein unverschämter Vorteil? 36 Credit Spreads—Alarm- stufe Rot oder alles im grünen Bereich? 28 Der legendäre US-Investor Benjamin Gra- ham sagte einst, der Aktienmarkt sei auf kurze Sicht eine Wahlmaschine, langfristig gesehen jedoch eine Waage. Auch für die Politik wäre dies eine passende Beschreibung. Im vergan- genen Jahr holte die Langfristperspektive die Kurzsichtigkeit der Politik ein, als Wähler auf der ganzen Welt in Wahlen und Referenden ihrem Ärger über drängende wirtschaftliche Probleme Luft machten. In der deutschen Politik hingegen geht es im Vergleich dazu ziemlich gelassen zu. Die gute Konjunktur und vom Ordoliberalismus geprägte gesamtwirtschaftliche Rahmenbedingungen gaben nicht viel Anlass zur Klage. Das Produkti- onswachstum in Deutschland liegt seit 2009 im Durchschnitt über zwei Prozent, wodurch das Land mit den USA als am schnellsten wach- sende G7-Volkswirtschaft nach der Finanzkrise gleichzieht. Nach einer annualisierten Wachs- tumsrate von 2,75 Prozent in der ersten Hälfte des laufenden Jahres steht zu erwarten, dass das Wirtschaftswachstum in Deutschland zum vierten Mal in Folge über dem Potenzialwachs- tum liegt. Diese über dem Trendwachstum liegende Wachstumsdynamik hat die Arbeitslosenquote in Deutschland bereits auf 3,8 Prozent sinken lassen 1 . Damit besteht praktisch Vollbeschäf- tigung. Die Arbeitslosenquote hat sich im Vergleich zu der Zeit unmittelbar vor Beginn der Finanzkrise vor zehn Jahren nahezu halbiert und ist derzeit mit Abstand auf dem niedrigsten Niveau seit der Wiedervereinigung des Landes. Hinzu kommt, dass der ifo Geschäftsklimaindex mehrmals in Folge neue historische Höchststän- de erreicht hat und das Konsumklima fast auf Rekordniveau liegt. Und im Gegensatz zu anderen Ländern, etwa den USA, in denen trotz der beeindrucken- den Wirtschaftsdaten laut Umfragen allge- meiner Unmut herrscht, sind die Menschen in Deutschland mit der Lage der Dinge weitgehend zufrieden. Noch bevor sich Anfang 2016 der 1 ILO Definition Agenda für Deutschland nach der Wahl Stefan Schneider Konzept 7 starke Aufschwung auch in den Wirtschaftsda- ten niederschlug, zeigte eine Studie, dass 47 Pro- zent der Deutschen der Meinung waren, dass alles bestens läuft. Je älter die Befragten, desto größer die Zufriedenheit: In der Altersgruppe ab 60 Jahren lag die Quote bei 55 Prozent 2 . Und bei der Frage nach sich abzeichnenden Problemen gibt es bereits seit Monaten kein einzelnes The- ma mehr, das mehr als die Hälfte der Bevölke- rung beschäftigt. Doch obwohl dies nach einer Traumkonstel- lation für die neue Regierung klingt, sollte diese nicht allzu kurzsichtig agieren und langfristige Probleme einfach ausblenden. Trotz eines gro- ßen Grundvertrauens in die Regierung und die Institutionen des Landes lauern einige größere Risiken am Horizont, die den geliebten Status quo gefährden könnten. Zunächst ist da die voraussichtliche Belas- tung der Staatsfinanzen durch steigende Zinsen und eine alternde Bevölkerung in den kom- menden zehn Jahren. Angesichts der jüngsten Überschüsse kann man sich nur schwer vorstel- len, dass die Staatsfinanzen in Deutschland zu einem Problem werden können. Die derzeitigen Haushaltsüberschüsse sind jedoch zu einem Großteil der lockeren europäischen Geldpolitik zu verdanken, die dem deutschen Staat seit 2008 Einsparungen in Höhe von EUR 260 Mrd. beim Schuldendienst beschert hat. Anstatt dies adäquat zu berücksichtigen, versprechen viele Parteien erhebliche Steuersenkungen und Umverteilung. Dies ist angesichts des Negativtrends in der demografischen Entwicklung in Deutschland kurzsichtig. Der Staat gibt bereits heute mehr als EUR 11.000 pro Kopf für Sozialleistungen aus, was einem Anstieg um ein Fünftel seit 2010 entspricht. Damit entfallen auf diesen Haushalts- posten mittlerweile 29 Prozent der Wirtschafts- leistung. Durch die alternde Bevölkerung wird die Zahl der Erwerbstätigen weiter schrumpfen. Diese Entwicklung könnte das Trendwachstum bis 2025 auf magere 0,75 Prozent sinken lassen. 2 Allensbacher Archiv, IfD-Umfrage 11050 Dies dürfte die Nachhaltigkeit der deutschen Sozialsysteme enorm belasten. Denn obwohl die Schuldenquote derzeit sinkt und in zehn Jahren bis auf 50 Prozent fallen könnte, ist bis 2045 ein neuerlicher Anstieg auf etwa 100 Prozent zu befürchten, wenn keine Gegenmaßnahmen ergriffen werden. Das sich zuspitzende Problem des demo- grafischen Wandels kann in gewissem Umfang durch die 1,3 Millionen Flüchtlinge entschärft werden, die seit 2015 nach Deutschland gekom- men sind. Aber um das sich aus diesem Zustrom ergebende Potenzial voll ausschöpfen zu kön- nen, müssen diese Neuankömmlinge erst in den Arbeitsmarkt integriert werden. Dies erfordert auch eine stärkere Flexibilisierung des deutschen Arbeitsmarktes. Leider scheint es dazu am nöti- gen politischen Willen zu fehlen. Paradoxerweise sind die demografisch bedingten politischen Zwänge ein Grund dafür. Zunächst einmal sind 56 Prozent der wahlbe- rechtigten Bevölkerung in Deutschland älter als 50 Jahre. Die Mitglieder der großen Parteien haben ein Durchschnittsalter von 60 Jahren. Daraus resultiert ein impliziter Konsens zwi- schen der Regierung und der Bevölkerung, den angenehmen Status quo so lange wie möglich aufrechtzuerhalten – in der Hoffnung, dass erst die kommenden Generationen die Zeche zahlen müssen. Ganz im Sinne der Maxime von Keynes: „Auf lange Sicht sind wir alle tot!“ Das zweite langfristige Problem, mit dem sich die kommende Regierung auseinanderset- zen muss, sind die Verteidigungsausgaben. Das Thema Verteidigungspolitik wird im deutschen Wahlkampf sonst am liebsten gemieden, ist dieses Mal jedoch in das öffentliche Interesse gerückt, nachdem die USA jüngst Europas Rüstungsausgaben und die Bestrebungen zur Er- richtung einer Europäischen Verteidigungsunion kritisiert haben. Und da die öffentliche Debatte darüber nun bereits begonnen hat, wird sich die neue Regierung darum bemühen müssen, einen allgemeinen Konsens in dieser Angelegenheit zu finden. Konzept 8 Die Verteidigungsausgaben Deutschlands belaufen sich derzeit auf 1,2 Prozent der Wirt- schaftsleistung und liegen damit weit unter dem Nato-Ziel von 2 Prozent. Um das Zwei-Prozent- Ziel bis 2024 zu erreichen, müssten die jährlichen Militärausgaben auf EUR 80 Mrd. – d.h. auf mehr als das Doppelte – erhöht werden. Das Dilemma besteht darin, dass die meisten Deutschen zwar eine Nato-Mitgliedschaft befürworten, zwei Drittel der Bevölkerung jedoch gegen eine Erhö- hung des Verteidigungshaushaltes sind. Für die neue Regierung wird es ein schwieriger Spagat, diesen Gegensatz zu überbrücken. Das dritte Problem, mit dem sich die neue Regierung auseinandersetzen muss, ist die Frage, wie Deutschland seinen Einfluss geltend machen kann, um die Eurozone und die Europä- ische Union langfristig zu stabilisieren. Obgleich das Thema scheinbar nicht so dringlich ist wie mitten in der Staatsschuldenkrise, sollte die der- zeit ruhige Lage nicht darüber hinwegtäuschen, dass für dieses Problem noch eine langfristig nachhaltige Lösung gefunden werden muss. Die Wahlen in Italien im kommenden Jahr und die nach wie vor bestehende Unsicherheit in Bezug auf den Brexit könnten beide in naher Zukunft für zusätzliche Komplikationen sorgen. Nach der Wahl von Präsident Macron bietet sich Deutsch- land andererseits aber auch die Gelegenheit, die äußerst wichtige Beziehung zu Frankreich neu zu beleben und mit vereinten Kräften auf eine Stabilisierung Europas hinzuwirken. In Sachen Europapolitik muss vor allem die Frage nach der zukünftigen Zahlungsbereitschaft Deutschlands beantwortet werden. Die kom- mende Regierung wird im Amt sein, wenn das Land 2020 den Ratsvorsitz in der Europäischen Union übernimmt – erstmals seit 2007. Bis dahin wird Deutschland entscheiden müssen, ob es die notwendigen finanziellen Mittel bereitstellen wird, um das europäische Projekt auf ein solide- res Fundament zu stellen. Dies wird weitere und aller Wahrscheinlichkeit nach unwiderrufliche Finanzierungszusagen erfordern. Den deutschen Steuerzahler davon zu überzeugen, dass diese Zahlungen nötig und letztlich im Interesse des Landes sind, könnte die größte Herausforderung für die nächste Regierung werden. Der Regierungswechsel in Deutschland wird sich bei scheinbar freundlicher Konjunk- tur und ruhiger Stimmung in der Bevölkerung vollziehen. Trotz dieser guten Ausgangslage ist es jedoch wichtig, die großen längerfristigen Probleme des Landes anzugehen. Man sollte die Unruhen in Zusammenhang mit Wahlen in ande- ren Ländern im vergangenen Jahr als Mahnung verstehen, dass man selbst in der Politik letztlich von den gewichtigeren langfristigen Problemen eingeholt wird, die sich dann auch kurzfristig in den Ergebnissen der „Wahlmaschine“ nieder- schlagen. Konzept 9Konzept 9 Vor sechs Monaten machte Bill Gates den Vorschlag einer Roboter-Steuer. Wenn Arbeit- nehmer Steuern zahlen müssen, dann sollte dies auch für die Maschinen gelten, die sie ersetzen, so seine Argumentation. Eine solche Robo- ter-Steuer würde die fortschreitende Automati- sierung verlangsamen und es der Gesellschaft so ermöglichen, Verdrängungseffekte besser in den Griff zu bekommen. Gates Vorschlag entspricht der allgemeinen Wahrnehmung, dass der Arbeits- markt nicht mehr so funktioniert wie früher. Die Besteuerung von Technologien ist jedoch mit einer geradezu absurden Zahl von Problemen behaftet. So können Roboter den Bedarf an menschlichen Arbeitskräften zwar einerseits reduzieren, andererseits jedoch auch steigern. Suchalgorithmen haben den Bedarf an Reisebüros reduziert, durch Uber hingegen ist die Nachfrage nach Fahrern gestiegen. Es ist also unmöglich, ex ante zu bestimmen, welche Robo- ter besteuert werden sollten. Auch eine exakte Abgrenzung des Steuertatbestands und Kontrol- len wären ein Ding der Unmöglichkeit. Wenn ein Roboter sich dadurch auszeichnet, dass er, wie es im Lexikon heißt, „in der Lage ist, eine Reihe komplexer Tätigkeiten automatisch auszuführen“, wäre ein Geschirrspüler dann nicht auch ein Roboter? Einige Maschinen zu besteuern, andere aber nicht, würde für ein heilloses verwaltungs- technisches Durcheinander sorgen. Und während Bill Gates in einer Robo- ter-Steuer eine Möglichkeit sieht, die negativen Begleiterscheinungen des rasanten technologi- schen Wandels zu bewältigen, würde die Steuer auch die Investitionstätigkeit belasten. Genau An den Robotern liegt es nicht diese wollen viele Länder jedoch fördern. Kein Wunder, dass die Antwort des für digitale Ange- legenheiten zuständigen europäischen Beamten auf die Frage, ob er eine Roboter-Steuer befür- worten würde, lautet: „Auf gar keinen Fall!“ Konzepte wie die Roboter-Steuer sind umstritten, denn jenseits des Atlantiks sehen sich viele Länder mit stagnierenden Löhnen und raschem technologischen Wandel konfrontiert, was einem neuen Populismus Auftrieb gibt. Vie- le machen Roboter zumindest teilweise für diese Entwicklung verantwortlich. In seiner Abschiedsrede erklärte Präsident Obama seinen Zuhörern: „Die nächste Welle des wirtschaftlichen Umbruchs wird nicht vom Ausland ausgehen. Sie wird durch das uner- bittliche Tempo der Automatisierung ausgelöst werden, die viele gute Mittelschichtarbeitsplätze überflüssig macht.“ Anfang des Jahres in Davos stellten zudem zahlreiche Unternehmenschefs aus dem Silicon Valley einen Zusammenhang zwischen den Auswirkungen künstlicher Intelli- genz und populistischen Bewegungen her. Satya Nadella von Microsoft beispielsweise erklärte, die wichtigste Lektion des vergangenen Jahres sei es sicherzustellen, dass nicht nur einige weni- ge von den Fortschritten im Bereich künstlicher Intelligenz profitierten. Vielleicht liegen die Ursachen für die Stagnation der Löhne jedoch weniger bei den Robotern, als vielmehr bei der wachsenden Marktmacht der Konzerne und den horrenden Immobilienpreisen. Das Reallohnwachstum ist eine Funktion von zwei Faktoren: Produktivitätswachstum und Veränderungen des Anteils des Produktionsfak- tors Arbeit an der nationalen Wirtschaftsleistung. Bei konstanter Lohnquote folgt die Lohnentwick- lung lediglich der Produktivitätsentwicklung. Sahil Mahtani Konzept 10 In den vergangenen vier Jahrzehnten haben sich die Reallohnzuwächse jedoch vom Produk- tivitätswachstum abgekoppelt, da der Anteil des Produktionsfaktors Arbeit an der Wirtschaftsleis- tung gesunken ist. Während 1975 noch 65 Pro- zent des Volkseinkommens auf Arbeitseinkom- men entfielen, liegt dieser Wert heutzutage unter 60 Prozent. Wäre der Wert unverändert geblie- ben, hätten amerikanische Arbeitnehmer heute USD 1 Bill. pro Jahr mehr in der Tasche. Dieses Geld fließt stattdessen den Kapitalgebern zu.  Um zu ergründen, woher der Unmut über die Reallöhne rührt, muss man also zunächst Ursachenforschung in Bezug auf die sinkende Lohnquote betreiben. Viele Beobachter sehen die Ursache dafür in der sinkenden Verhand- lungsmacht der Arbeitnehmer, da immer weniger Arbeitnehmer gewerkschaftlich organisiert sind oder die Produktion in Niedriglohnländer ausgela- gert wird. Der sinkende Anteil der Arbeitseinkom- men am Volkseinkommen ist jedoch ein globales Phänomen, das nicht nur im Nordatlantik-Raum zu beobachten ist, sondern auch in China und Japan. Zudem ist die Lohnquote sowohl im Sektor für handelbare als auch für nicht handel- bare Güter gefallen. Produktionsverlagerungen in Niedriglohnländer können also nicht die Hauptur- sache sein. Auch in empirischen Studien konnte nur eine begrenzte Korrelation von rückläufigem gewerkschaftlichen Organisationsgrad einerseits und den Veränderungen bei der Lohnquote ande- rerseits festgestellt werden. Und auch an den Robotern liegt es nicht. Wie Matt Rognlie, Volkswirt an der Northwestern University, festgestellt hat, macht der Wert von Robotern und Automatisierung – im weitesten Sinne – nur einen winzigen Teil des Kapitalstocks der USA und höchstens 15 Prozent der jährlichen nationalen Wirtschaftsleistung aus. Der Wert von Gebäuden – Häuser, Wohnungen, Büros – hinge- gen ist knapp zwölfmal so hoch. Diese enorme Diskrepanz zwischen dem automatisierungsbe- zogenen Kapitalstock und dem in Immobilien gebundenen Kapital legt nahe, dass Roboter nicht als Hauptursache für rückläufige Löhne und Gehälter gesehen werden können. Überzeugender ist hingegen die Argu- mentation, den Rückgang der Lohnquote mit schwächerem Wettbewerb und höheren Preisen am Immobilienmarkt zu erklären. Es liegt auf der Hand, dass weniger Wettbewerb, insbesondere durch Tech-Giganten wie Amazon und Google, die Preissetzungsmacht der Konzerne stärken und sich negativ auf die Arbeitsentgelte auswirken könnte. Nur wenige Menschen kommen jedoch auf den Gedanken, dass ihre eigenen vier Wände etwas mit stagnierenden Löhnen zu tun haben könnten. Ein Großteil des Anstiegs der Kapitalquote entfällt auf Immobilien, wie Mieter und Immobili- enkäufer in London und New York angesichts as- tronomischer Mieten und Preise sicher bestätigen können. Der Anteil von Wohnimmobilien an der gesamten Wirtschaftsleistung ist heute drei- mal so hoch wie in den 1950er Jahren. Höhere Wohnimmobilienpreise drücken die Lohnquote, da höhere Mieten oder Hypothekenzahlungen etwaige Lohnerhöhungen aufzehren, die aus Produktivitätszuwächsen resultieren. Die höheren Immobilienpreise kommen indes nur einigen we- nigen Kapitalgebern zugute, die bereits jetzt teure Immobilien besitzen und die meistens ohnehin schon wohlhabend sind.  Ein wichtiger Faktor für steigende Wohn- immobilienpreise in Ballungsräumen sind die Vorschriften, die eine Angebotsausweitung am Wohnungsmarkt beschränken. Diese Vorschrif- ten beeinflussen auch die Arbeitskräftemigrati- on. Eine aktuelle Studie 1 zeigt, dass Hausmeister in New York nach Bereinigung um Wohnungs- kosten heutzutage sieben Prozent weniger verdienen als Hausmeister in den US-Südstaa- ten. 1960 hingegen verdienten Hausmeister in New York bei gleicher Berechnungsgrundlage noch 70 Prozent mehr als ihre Kollegen im 1 „Why Has Regional Income Convergence in the U.S. Declined?“, Ganong, P. und Shoag, D., NBER Working Paper 23609, Juli 2017 Konzept 11 Süden. Wohnungskosten verdrängen geringer qualifizierte Arbeitnehmer aus Regionen mit hohem Einkommensniveau und reduzieren so die Arbeitskräftemobilität.  Da sich gering qualifizierte Arbeitneh- mer so in produktivitätsschwachen Regionen konzentrieren, wirkt sich der Überhang an Niedriglohn-Arbeitnehmern in diesen Regionen zusätzlich negativ auf das Einkommenswachs- tum aus. Anders ausgedrückt werden durch bauplanungsrechtliche Vorschriften in New York und San Francisco nicht nur Geringqualifizierte aus diesen Städten verdrängt. Die Vorschriften drücken auch in anderen Regionen des Landes das Lohnniveau. Dies wiederum führt zu einem Absinken der Lohnquote. Tatsächlich läuft die Lohnentwicklung in den einkommensschwachen und einkommensstarken Regionen der USA etwa seit 1980 auseinander. Etwa zu dieser Zeit war die Lohnquote auf ihrem Höchststand. Die Regierungen wissen, wie sie wieder für mehr Wettbewerb sorgen können. Die Kartellbe- hörden in der EU haben gegen Google Geldstra- fen in Milliardenhöhe wegen Wettbewerbsver- letzungen verhängt. Auch in Washington gibt es erste Ansätze, mit Antimonopolpolitik wieder für steigende Reallöhne zu sorgen. Die hohen Immobilienpreise stellen alle po- litischen Lager indes vor weit größere Probleme. Doch die Situation spitzt sich zu. Viele Länder, insbesondere die USA und Großbritannien, ste- hen vor einem neuen politischen „Trilemma“ und müssen sich in diesem Zielkonflikt für zwei der folgenden drei Optionen entscheiden: gerechtes Einkommenswachstum, niedrige Steuern oder teure Immobilien. Entscheidet sich die Politik dafür, die Preise am Immobilienmarkt weiter steigen zu lassen, können die Negativeffekte dieser Preisspirale auf die Einkommenskonver- genz nur durch stärkere Umverteilung ausge- glichen werden. Ein führender Kopf aus dem Technologiesektor, der sich mit neuen Ideen in die Politik einbringen will, sollte die Idee einer Roboter-Steuer besser verwerfen und stattdes- sen bezahlbare Wohnungen in den teuersten Vororten im Silicon Valley bauen. Co-Autor dieses Artikels ist Chris Miller, Assistant Professor für Internationale Geschichte an der Fletcher School der Tufts University. Der Artikel erschien erstmals Anfang diesen Monats auf der Website von Foreign Affairs. Konzept 12 Online-Lebensmittelhandel: Nur mit Masse macht man Kasse Niamh McSherry Eine der symbolträchtigsten Unterneh- menspleiten des Dotcom-Börsencrashes war der Zusammenbruch von Webvan. Bei seinem Börsengang im Jahr 1999 wurde der Online-Su- permarkt mit annähernd USD 5 Mrd. bewertet, musste aber bereits 18 Monate später Antrag auf Gläubigerschutz stellen. Webvan sah sich schlichtweg mit der Tatsache konfrontiert, dass zu dieser Zeit nicht genug Kunden bereit waren, ihre Lebensmittel online zu bestellen. Man ist durchaus versucht zu denken, dass sich die Zei- ten geändert haben. Aber ist das tatsächlich so? Ohne Zweifel hat das Internet für uns heute einen anderen Stellenwert als damals. Wir haben uns zu einer digitalen Gesellschaft entwickelt, in der Smartphones als Zugang zum Internet eine immer größere Rolle spielen. Als Amazon im Juni 2017 die Übernahme der Supermarktkette Whole Foods für USD 14 Mrd. bekannt gab, schien dies nur eine natürliche Entwicklung zu sein, hatten doch fast alle anderen Branchen bereits starke Konkurrenz aus dem Internet bekommen. Allerdings muss kritisch hinterfragt werden, ob die breite Masse der Amerikaner inzwischen wirklich bereit ist, ihren Wochenein- kauf per Mausklick zu erledigen. Dazu lohnt es sich, einen Blick über den Atlantik zu werfen und sich insbesondere die Situation in Großbritannien anzuschauen, wo der Markt vergleichsweise weit entwickelt ist. Mit einem Marktdurchdringungsgrad von sieben Prozent belegt Großbritannien beim Online-Le- bensmittelhandel nicht nur innerhalb Europas den Spitzenplatz, sondern liegt auch deutlich über dem noch sehr mageren einen Prozent in Konzept 13 den USA. Doch selbst in Großbritannien, das als Vorreiter für Online-Supermärkte gilt, lässt das Wachstum nach und zeigen sich erste Anzei- chen einer Marktsättigung. Noch vor drei Jahren glänzte der britische Online-Lebensmittelmarkt mit einem jährlichen Wachstum von 20 Prozent. Inzwischen hat sich dieser Wert mehr als hal- biert und liegt nur noch knapp über dem Wachs- tum der gesamten Lebensmittelbranche. Vor allem aber gibt es erste Anzeichen dafür, dass bei jungen Familien, die dem Einkauf von Lebensmitteln über das Internet besonders aufgeschlossen gegenüberstehen, die Durch- dringung ihren Zenit erreicht hat. Bestellten 2015 noch 30 Prozent der jungen Familien und Familien mittleren Alters in gewissem Umfang Lebensmittel online, war der Anteil im vergange- nen Jahr leicht rückläufig und dürfte mittelfristig auf 27 Prozent sinken. Ein zweiter wichtiger Punkt ist, dass Online-Supermärkte nur in Gebieten mit hoher Bevölkerungsdichte überleben können, wo kurze Lieferzeiten zu vernünftigen Kosten angeboten werden können. Da überrascht es nicht, dass in Großbritannien mit einer achtmal höheren Bevölkerungsdichte als Amerika auch der Markt- durchdringungsgrad beim Online-Lebensmit- telhandel um das Achtfache über dem Wert für die USA liegt. Die Betrachtung anderer Länder bestätigt diese Korrelation. So erfreuen sich Online-Supermärkte in den dicht besiedelten Re- gionen Japans und Südkoreas deutlich größerer Beliebtheit als in Frankreich mit seiner geringen Bevölkerungsdichte. Selbst unter Berücksichti- gung der Tatsache, dass es natürlich auch in den USA einige große Ballungsräume gibt, dürfte die Grenze für den Anteil des Online-Handels am gesamten Lebensmittelmarkt in den USA bei maximal vier Prozent liegen. Ein weiteres Problem der Online-Lebens- mittelbranche besteht darin, dass der Gewinn je Kunde stark davon abhängt, wie viel der Kunde einkauft. De facto verschlingen bei reinen Inter- net-Supermärkten wie Ocado die Lieferkosten elf Prozentpunkte der operativen Marge. Damit wird die vor Lieferkosten erzielte Marge fast vollstän- dig aufgezehrt. Natürlich fallen die Lieferkosten deutlich weniger ins Gewicht, wenn ein Kunde nicht viele kleine, sondern eine große Bestellung aufgibt. Aus diesem Grund werden Kunden animiert, mehr zu bestellen. Doch die Zeiten, in denen ein- mal pro Woche ein Großeinkauf gemacht wurde, sind vorbei. In britischen Supermärkten zahlen 95 Prozent der Kunden an der Kasse weniger als GBP 65. Also konzentrieren sich die On- line-Händler auf jene fünf Prozent der Kunden, die sich noch den Einkaufswagen vollladen. Viele sind dazu übergegangen, Abos anzubieten, bei denen der Kunde im Voraus eine Lieferpauschale für eine unbegrenzte Anzahl von Lieferungen zahlt. Doch nur etwa ein Fünftel der Online-Kunden kauft regelmäßig bei einem bestimmten Händler ein. Selbst Kunden, die ein solches Abonnement haben, geben nur dreimal im Monat online eine Lebensmittelbestellung auf. Und was noch schlimmer ist: Jene, die die Lieferkosten bereitwillig in Kauf nehmen, platzie- ren nur einmal im Monat eine Online-Bestellung. Konzept 14 Wie desillusioniert Manager inzwischen in Bezug auf das gesamte Online-Geschäftsmodell der Lebensmittelbranche sind, zeigte sich im ver- gangenen Jahr am Beispiel Tesco, als der führen- de Lebensmittelhändler Großbritanniens seine Liefergebühr im Internet um 17 Prozent anhob, was für Kunden ohne Abonnement faktisch einer Erhöhung um 30 Prozent gleichkam. Die Quit- tung kam sofort: Das jährliche Online-Wachstum von Tesco brach von 17 Prozent auf minus drei Prozent ein. Die Kunden achten sehr genau auf die Lieferkosten. Werden diese auf ein langfristig durchzuhaltendes Niveau angehoben, ist dies das Todesurteil für den gesamten Markt. Bezeichnend war auch, dass keiner der Wettbewerber von Tesco scharf darauf schien, diese Marktanteile für sich zu gewinnen. Dies lässt wiederum den Schluss zu, dass das Markt- wachstum in der Vergangenheit stets durch aggressive Werbemaßnahmen und unhaltbar niedrige Liefergebühren getrieben war. Kein Wunder also, dass man vergeblich nach reinen Online-Supermärkten sucht, die schwarze Zahlen schreiben. Die Aussichten für ausschließlich auf Online-Handel beschränkte Lebensmittelhändler sind in den USA somit düster. Die Lieferkosten belaufen sich für einen US-Kunden bereits auf annähernd fünf Prozent des Warenwerts für den Wocheneinkauf und liegen damit doppelt so hoch wie in Großbritannien. Doch selbst eine Erhöhung der Liefergebühren ist für amerikani- sche Online-Supermärkte kein Ausweg. Letz- tes Jahr schlug Instacart bei der Liefergebühr mindestens die Hälfte auf. Nur wenige Anbieter locken mit geringeren Gebühren, und Amazon verkündete 2016 zwar werbewirksam eine Gebührensenkung, lag mit seinen Lieferkosten aber ohnehin schon deutlich über denen der Konkurrenz. Das wahrscheinlichste Zukunftsszenario ist eine Fragmentierung des Online-Lebensmittel- marktes, sodass über verschiedene Unterkanäle jeweils unterschiedliche Produkte mit unter- schiedlicher Liefergeschwindigkeit angeboten werden. Vor allem ist eine zunehmende Ver- schiebung hin zum Pick-Up-Handel zu erwarten. Dieses Modell sieht vor, dass ein Mitarbeiter direkt im nächstgelegenen Supermarkt alle online bestellten Waren zusammensucht und diese dann an den Fahrer für die Auslieferung übergibt. Auf diese Weise lassen sich die Lie- ferkosten gering halten, da die Bestellung über das Filialnetz und nicht über das weniger dichte Lagernetz ausgeliefert wird. Von der Whole Foods-Übernahme ver- spricht sich Amazon unter anderem genau dies: die Entwicklung eines erfolgreichen Liefermo- dells mit Store Picking. Durch den Zukauf sichert sich Amazon die notwendige Infrastruktur und ein weit verzweigtes bestehendes Filialnetz und erspart sich damit die gesamte Aufbauarbeit. Gelingt es Amazon, den Online-Lebensmit- telhandel weniger waren- und stärker dienst- leistungsorientiert zu gestalten, könnte sogar Aufwärtspotenzial in diesem Segment stecken. Die Kunden sind dann vielleicht auch nicht mehr ganz so preissensibel. Doch selbst dann haben Einzelhändler mit Filialnetz gegenüber reinen Online-Anbietern immer noch einen Preisvorteil. Für die reinen Online-Lebensmittelhändler bleibt also nur, sich eine Nische im Markt zu suchen. Unser ausführlicher Bericht „Food Retail - The case against the online grocery threat" steht unter gmr.db.com oder auf Anfrage zur Verfügung. Konzept 15 Wie lassen sich die deutschen Klimaziele noch erreichen? Martin Brough die kommenden Jahre berücksichtigen müssen, wie sich die höheren Klimaziele kosteneffizient umsetzen lassen, ohne die Energiesicherheit und Arbeitsplätze zu gefährden. Das Thema der Versorgungssicherheit ist in Deutschland besonders brisant, da der Ausstieg aus der Atomenergie mit Nachdruck vorange- trieben wird. Bis 2023 sollen alle deutschen Atomkraftwerke vom Netz genommen sein. Bis dahin sind viele Reaktoren weiter in Betrieb und produzieren Strom bei geringem CO 2 -Ausstoß. Waren es zu Beginn des Jahrtausends noch 30 Prozent, lag der Anteil der Atomkraft an der Stromerzeugung im vergangenen Jahr in Deutschland bei 13 Prozent. Bislang konnte die Lücke durch einen Kapazitätsausbau bei Wind- und Sonnenenergie geschlossen werden. Will man jedoch die Ver- sorgungssicherheit auch bei einem vollständigen Rückzug aus der Atomenergie gewährleisten, muss die Stromerzeugung durch Wind- und Son- nenenergie gegenüber dem Stand vom letzten Jahr um zwei Drittel steigen. Ernste Zweifel an der Versorgungssicherheit sind also durchaus angebracht, zumal Deutschland nicht gerade von der Sonne verwöhnt ist und nicht immer dann der Wind weht, wenn besonders viel Energie benötigt wird. Erschwerend kommt hinzu, dass Kohle in der Energieversorgung des Landes nach wie vor eine große Rolle spielt. Zwei Fünftel des Stroms in Deutschland stammen aus eigener Braunkoh- le und importierter Steinkohle. Zur Erreichung der ehrgeizigen Klimaziele der Regierung muss ein Weg gefunden werden, diese Kohlekapazi- täten durch klimafreundlichere Energieträger zu ersetzen. Hierbei gibt es zwei Alternativen, und es wird entscheidend sein, welchen Kurs die neu gewählte Regierung einschlagen wird. Zum einen besteht die Möglichkeit, Erdgas als Brückenenergie einzusetzen, um Braun- und Steinkohle rasch zu ersetzen und die CO 2 -Emis- sionen zu reduzieren, bis dank des Ausbaus erneuerbarer Energien der nächsten Generation gänzlich auf den Einsatz fossiler Brennstoffe verzichtet werden kann. Auf den von Präsident Trump angekündig- ten Ausstieg der USA aus dem Pariser Klima- schutzabkommen reagierte Bundeskanzlerin Angela Merkel mit einem erneuten Appell an die internationale Staatengemeinschaft, weiter gemeinsam dafür zu kämpfen, den CO 2 -Aus- stoß zu verringern. Staaten zur Einhaltung von Klimazielen zu verpflichten, ist zweifelsohne ein guter Anfang. Viel schwieriger ist jedoch die Frage, wie sich diese umsetzen lassen. Das Car- bon Alignment Framework der Deutschen Bank (DeCAF) zeigt, dass Unternehmensgewinne und Anlegerrenditen viel stärker dadurch beeinflusst werden, wie Dekarbonisierung erreicht wird, und weniger dadurch, wie hoch die Vorgaben sind. Bei der Entscheidung eines Landes, wel- cher Weg der richtige ist, um den CO 2 -Ausstoß zu verringern, muss sorgfältig zwischen interna- tionalen Verpflichtungen und nationalen Zwän- gen abgewogen werden. Nach der Bundestags- wahl wird die neue Regierung in Deutschland bei der Ausarbeitung eines Energiekonzepts für 16 Konzept Um den Umstieg auf Erdgas attraktiver zu machen, fordern viele Wirtschaftsexperten die Einführung einer internationalen CO 2 -Abgabe. In Frankreich propagierte Präsident Macron im Wahlkampf höhere und tragbare Preise für CO 2 -Emissionen. Trotz der geringen Erfolgs- aussichten, diese Forderung auf internationaler Ebene umzusetzen, hat Frankreich durchaus Grund zur Hoffnung, einige Länder, so auch Deutschland, davon zu überzeugen, sich für die Einführung eines Mindestpreises auf Kohlenstoff durch eine CO 2 -Steuer nach britischem Vorbild auszusprechen. In Großbritannien wird auf die Produktion von Kohlendioxid ein Mindestpreis von GBP 18 je Tonne erhoben. Hinzu kommen für jede Tonne EUR 6 im Rahmen des Europäischen Emissionshandels. Durch Einführung eines Preises dieser Größenordnung ließe sich auch in Deutschland allein durch Rückgriff auf bestehende Kapa- zitäten der Umstieg von Kohle auf Gas deut- lich beschleunigen. Gaskraftwerke laufen in Deutschland im Durchschnitt nur rund ein Drittel des Jahres, während Kohlekraftwerke immer- hin die Hälfte des Jahres in Betrieb sind und Braunkohleanlagen sogar vier Fünftel des Jahres Strom erzeugen. Würde man die Auslastung bestehender Gaskraftwerke heraufsetzen, könn- te dadurch Ersatz für die Hälfte des derzeit mit Kohlekraft erzeugten Stroms geschaffen werden und gleichzeitig der dabei erzeugte CO 2 -Ausstoß um circa ein Viertel verringert werden (bei der Stromproduktion mit Gas fallen rund 50 Prozent weniger Kohlendioxid an als bei Braun- und Steinkohle). Durch die Schaffung neuer Gaska- pazitäten ließe sich mit der Zeit auch die andere Hälfte der mit Braun- und Steinkohle erfolgen- den Stromproduktion ersetzen, und der kohle- bedingte Anteil der CO 2 -Emissionen könnte um weitere 25 Prozent gesenkt werden. Bei der Frage, ob sich Deutschland auf die- ses Modell einlässt, schwingen Bedenken rund um die damit verbundenen Kosten, die Energie- sicherheit und den Verlust von Arbeitsplätzen mit. Tatsächlich ist eine CO 2 -Abgabe für die französische Stromerzeugung durchaus finan- ziell attraktiv, da hier Atom- und Wasserkraft den Löwenanteil ausmachen. In Deutschland könnten die Großhandelspreise für Strom hier- durch jedoch jährlich um EUR 15 Mrd. steigen. Außerdem würden die Steuereinnahmen des Bundes nach und nach durch höhere Ausgaben für den Import von Gas kompensiert. Auf dem Spiel ständen ferner 20.000 Arbeitsplätze in der deutschen Braunkohleindustrie. Die Kosten wären also gewaltig, zumal fraglich ist, ob sich die ehrgeizigen Emissi- onsziele Deutschlands überhaupt allein durch Gas erreichen lassen. Letztes Jahr wurden in Deutschland 28 Prozent weniger Treibhausgase erzeugt als 1990, und vieles deutet darauf hin, dass das für 2020 gesetzte Ziel einer Reduzie- rung um 40 Prozent verfehlt wird. Bis 2040 soll der CO 2 -Ausstoß gar um 70 Prozent verringert werden. Bei einer vollständigen Umstellung von Kohle auf Gas würde bis 2040 fast die Hälfte des gesamten Kohlenstoffbudgets des Landes durch Gaskapazitäten aufgezehrt. Rechnet man die Emissionen aus Verkehr, Wärmeversorgung und Industrie hinzu, scheint es in diesem Szenario fast unmöglich, das gesteckte Ziel zu erreichen. Investitionen in den Infrastrukturausbau bei der Stromerzeugung mit Gas sind somit allem Anschein nach sinnlos, wenn in nur zehn Jahren wieder ein neuer Kurs eingeschlagen werden muss. Geht man also davon aus, dass Gas als Brü- ckenenergie auf kurze Sicht politisch nur schwer durchsetzbar ist und auf lange Sicht nicht ausreicht, um die ehrgeizigen Ziele zu realisieren, Konzept 17 bleibt als Alternative ein direkter Umstieg auf erneuerbare Energien. Ersetzt man Kohle und Öl schrittweise, indem man direkt auf erneuerbare Energien und Elektrofahrzeuge umsteigt, wird letztlich genauso viel CO 2 eingespart wie bei einer schnellen Umstellung von Kohle auf Gas. Steigert man den Anteil von Elektrofahrzeugen auf deutschen Straßen beispielsweise auf ein Zehntel und beschränkt sich bei der Erzeugung des Stroms für diese Fahrzeuge auf erneuerbare Energien, entsprechen die CO 2 -Einsparungen den Werten, die sich erzielen lassen, wenn ein Fünftel des Kohlestroms stattdessen mit Gas erzeugt wird. Dieser Ansatz eines direkten Umstiegs birgt indes ebenfalls Probleme. Erstens wird bereits zusätzliche Wind- und Sonnenenergie benötigt, um die fehlenden Kapazitäten durch den Atom- ausstieg auszugleichen. Da dürfte es schwierig werden, auch noch zusätzliche Kapazitäten für den Verkehr zu schaffen. Hinzu kommt, dass der Umstieg auf Elektrofahrzeuge mit geringeren Steuereinnahmen aus der Energiesteuer einher- ginge. Dank rapide sinkender Kosten, flexibler Ladeoptionen und sogar Vehicle to grid-Lösun- gen (bei denen in der Autobatterie gespeicherte Energie in Zeiten großer Netzlast in das Strom- netz eingespeist wird) könnte der Anteil erneuer- barer Energien an der Stromerzeugung dennoch deutlich steigen. Während in der Politik viel über die großen Ziele diskutiert wird, möchten die Anleger vor allem Gewissheit darüber, wie diese Zie- le im Einzelnen umgesetzt werden. Unsere DeCAF-Analyse zeigt auf, in welcher Weise die Anlagerenditen dadurch beeinflusst werden, wie Dekarbonisierung erreicht wird. Die Einfüh- rung eines effektiven Kohlenstoffpreises würde beispielsweise den Wert von sauberen Strom- kapazitäten am Markt deutlich steigern und dazu beitragen, dass bestehende Gaskraftwerke besser ausgelastet und neue Gaskapazitäten ge- schaffen werden. Ein rascher Umstieg von Kohle auf Gas würde deutschen Autobauern außerdem einen Anreiz liefern, ihre Verbrennungsmotoren schrittweise zu verbessern, bevor sie eine radi- kalere Dekarbonisierung des Transportwesens in Angriff nehmen. Ein Verzicht auf eine Umstellung von Kohle auf Gas würde bedeuten, dass man bei der Dekarbonisierung darauf setzt, den Ausbau der Wind- und Sonnenenergie und die Entwicklung geeigneter Batterien und Elektrofahrzeuge noch schneller voranzutreiben, und dass entsprechend Kapital in diese Technologien fließt. Der Bedarf an neuer Infrastruktur für die Stromerzeugung mit Gas könnte deutlich geringer ausfallen, sodass Investitionen in transformative Technolo- gien sinnvoller erscheinen. Die geringe Auslastung bestehender Gas- kraftwerke zeigt, dass die deutschen Stromer- zeuger bereits darunter gelitten haben, dass sie ihre Kapazitäten zehn Jahre zu früh ausgebaut haben. Die neue Regierung wird ihre Energiepo- litik und die Dekarbonisierungsziele präzisieren müssen, um Anreize für den richtigen Einsatz frischen Kapitals zu schaffen und so die Reduzie- rung des CO 2 -Ausstoßes in Deutschland wieder auf Kurs zu bringen. Das Carbon Alignment Framework der Deutschen Bank (DeCAF) wurde Anfang des Jahres vorgestellt. Weitere Informationen finden Sie in Konzept #10 unter www. dbresearch.de oder in unserem ausführlichen Research- Bericht zu DeCAF, den Sie auf Anfrage erhalten. 18 Konzept Wealth Management—es ist nicht alles Gold, was glänzt In der Zeit nach der Finanzkrise entwickelte sich das Wealth Management zu einem der we- nigen Hoffnungsträger im Bankensektor. Kaum Handelsrisiken, nur geringe Eigenkapitalanforde- rungen, keine Subprime-Kredite: Damit konnte dieser Bereich sowohl bei nervösen Anlegern als auch bei in Bedrängnis geratenen Bankenchefs punkten. So erreichen die Bewertungen von Wealth Management-Unternehmen heute fast Rekordni- veau. Bei Banken mit Wealth Management-Ge- schäft macht diese Sparte mittlerweile ein Drittel der gesamten Sum of the Parts-Bewertung aus. Damit hat sich deren Bewertungsanteil in den letzten zehn Jahren mehr als verdoppelt. Doch auch wenn es durchaus verständlich ist, was An- leger und Bankmanagement gleichermaßen für diesen Bereich einnimmt, darf nicht übersehen werden, dass auch das Wealth Management mit seinen ganz eigenen Problemen zu kämpfen hat. Beginnen wir mit dem einfachsten und dennoch am schwierigsten zu lösenden Prob- lem, der wachsenden Bedeutung von Größe in diesem Geschäftsfeld. Vor fünf Jahren ver- zeichneten große Häuser Bruttomargen von etwa 100 Basispunkten, während mittelgroße es immerhin noch auf 75 Basispunkte brach- ten. Seither sind die Margen zwar auch bei den großen Häusern geschrumpft, bei den kleinen und mittelgroßen Playern aber doppelt so stark. Damit ist das Margengefälle zwischen diesen beiden Gruppen größer geworden. Das Thema einer sich immer schneller drehenden Größenspirale betrifft dabei nicht nur die Finanzzentren in den Industrieländern. Die alte Faustregel, dass eine Plattform mit USD 20 Mrd. an Vermögensmasse ein Wealth Management-Unternehmen in einer Emer- ging Markets-Region trägt, gilt nicht mehr. Die Entwicklung geht mittlerweile in Richtung USD 30 Mrd. Ohne eine grundlegende Neuaus- richtung ihres Geschäftsmodells wird ein Drittel aller Wealth Manager auch noch 2020 an dieser Hürde scheitern. Konsolidierung heißt daher das Gebot der Stunde. Sonst droht das Aus. Sinkende Margen und der Wettlauf um das kostengünstigste Produkt haben die Wealth Manager gezwungen, ihre eigene Kostenstruktur unter die Lupe zu nehmen. Viele waren dabei zu Kinner Lakhani Konzept 19 zögerlich mit dem Rotstift. In den vergangenen drei Jahren sind die Kosten in der Branche stär- ker gestiegen als die Erträge. Bei der Aufwand/ Ertrag-Relation liegen die Werte in der Branche mittlerweile im oberen 70er Bereich. Das sind zehn Prozentpunkte mehr als vor der Krise. Dieses Problem wird sich noch weiter zu- spitzen, wenn das Ertragswachstum unter Druck gerät. Ein potenzielles Risiko für Ertragseinbußen in naher Zukunft ist der anhaltende Druck zur Regularisierung von in Offshore-Zentren verwal- tetem Vermögen. Die Deutsche Bank geht davon aus, dass mehr als eine Billion US-Dollar oder etwa ein Viertel des gesamten in Offshore-Zen- tren verwalteten Vermögens von den Offsho- re-Konten abgezogen wird. Dieser Kapitalabfluss wird sich größtenteils bis Ende 2018 vollziehen. Auch wenn dieses Kapital teilweise bei Onsho- re-Managern neu angelegt wird, dürften annä- hernd USD 900 Mrd. endgültig für die Branche verloren sein, was jährlichen Ertragseinbußen von knapp USD 13 Mrd. entspricht. Die Hoffnungen der Branche auf Besserung ruhen derzeit auf einer Kombination aus drei Faktoren. Zunächst einmal verspricht man sich viel von einer Deregulierung der Finanzmärkte. Sollte die Unmenge an immer neuen regulatori- schen Anforderungen nach der Krise nun wieder reduziert werden, könnte die Branche ihr Back Office verschlanken und damit Kosten sparen. Hoffnungsvoll sieht man auch wieder steigenden Zinsen entgegen, vor allem am US-Dollar-Markt. Steigende Zinsen bedeuten eine höhere Zinsspanne für Banken, da sich die Zinsanpassung bei Krediten und Forderungen schneller vollzieht als bei den Einlagen. Außer- dem werden Überschusseinlagen in Wertpapiere mit höheren Renditen investiert. Dieses Mal dürften sich die Dinge jedoch etwas anders entwickeln. Da besonders ver- mögende Kunden mittlerweile einen größeren Anteil am verwalteten Vermögen haben, könnten Zinserhöhungen stärker an Einlagenkunden wei- tergegeben werden. Die Deutsche Bank schätzt, dass das Deposit-Beta, also die Veränderung der Einlagesätze im Verhältnis zu Leitzinsänderun- gen, in diesem Zyklus voraussichtlich auf 55 Pro- zent steigt und damit zehn Prozentpunkte über dem Niveau früherer Zinserhöhungszyklen liegt. Dies wird den positiven Ertragseffekt steigender Zinsen für Wealth Manager dämpfen. Zum Dritten hofft die Branche, dass stei- gende Volatilität am Markt ihr Ertragszuwächse im Handelsgeschäft beschert. Den bisherigen Erfahrungswerten nach zu urteilen, dürfte sich diese Hoffnung jedoch kaum erfüllen. Vergan- genheitsdaten liefern keine Anhaltspunkte für eine Korrelation von Marktvolatilität und Margen- entwicklung im Handel bei Wealth Managern. Anstatt auf Rettung durch externe Faktoren zu hoffen, sollten Wealth Manager selbst aktiv werden. Zuallererst muss die Wealth Manage- ment-Branche stärker auf Technologie setzen. Viele Wealth Manager ließen ihren großen Worten hier kaum Taten folgen. Nur so ist es zu erklären, dass sich so viele Fintech-Startups am Markt etablieren konnten. Und während viele Wealth Manager den Schwerpunkt bei ihren Technologieinitiativen ganz auf das Front Office gelegt haben, ließen sich die operativen Aufwendungen im Middle und Back Office mit digitalen Prozessen wie Ma- chine Learning und Advanced Data Science um ein Zehntel senken. Ein möglicher Ansatzpunkt wäre der Bereich Kredit- und Betrugsmodellie- rung, um nur ein Beispiel zu nennen. Konzept 20 Bei der Digitalisierung der Geschäftsprozes- se im Kundenkontakt sollte man sich klarma- chen, dass nicht alle dasselbe darunter verste- hen. In Asien ist es für zwei Fünftel aller Anleger sehr wichtig, mit ihrem Wealth Manager über Social Messaging kommunizieren zu können. Digitaler Finanzplanung können sie indes nichts abgewinnen. Anleger in Europa und den USA hingegen zeigen kaum Interesse an Social Mes- saging, stehen einer automatisierten Zielbestim- mung jedoch sehr positiv gegenüber. Große Chancen liegen für die Branche auch im Bereich Kapitalanlagen in Alternative Investments. Eine Erhöhung des Marktdurch- dringungsgrads bei Alternative Investments um einen Prozentpunkt hat eine entsprechende Stei- gerung der Provisionserträge zur Folge. Außer- dem besteht hier starke Nachfrage. Kundenwün- schen zufolge sollte der Anteil von Alternative Investments an ihren Portfolios bei 14 Prozent liegen. Gegenüber dem durchschnittlichen Ni- veau heute würde dies eine Verdoppelung und in absoluten Zahlen einen Zuwachs von USD 5 Bill. bedeuten. Doch von diesen kurzfristigen Ansatz- punkten einmal ganz abgesehen, müssen Wealth Manager längerfristige Entscheidungen in Bezug auf ihre Geschäftsmodelle treffen. Die Kundenprofile werden immer heterogener. Schon heute passt ein Drittel aller Kunden nicht mehr so richtig in die traditionellen Kategorien von Anlegertypen wie Selbstentscheider und Beratungskunden. Und dieser Anteil dürfte sich noch weiter erhöhen, da Prognosen zufolge in den kommenden fünf Jahren zwei Drittel des Vermögenswachstums auf Emerging Markets entfallen wird. Kunden mit einem Profil jenseits traditioneller Kategorien machen dort einen größeren Anteil aus. Inmitten all dieser Veränderungen könnten sich Wealth Manager gezwungen sehen, sich für eines der folgenden drei Geschäftsmodelle zu entscheiden: Amazon, Uber oder Salesforce. Geschäftsmodell Nummer 1 ist Nachfrageaggre- gation, Stichwort Amazon. Diese Unternehmen zeichnen sich dadurch aus, dass sie ihren Kun- den ein Rundumangebot bieten. Dieses Modell passt gut für große traditionelle Wealth Manager mit einer starken Kundenbasis. Geschäftsmodell Nummer 2 ist der Plattformanbieter, Stichwort Uber. Bei diesem Modell stellt der Wealth Manager die Plattform zur Verfügung, über die viele Wealth Manager und Kunden über digitale Ökosysteme hinweg miteinander vernetzt werden. Sie verdienen an Abonnementgebühren oder transaktionsbasier- ten Gebühren. Geschäftsmodell Nummer 3 ist der Kom- ponentenzulieferer, Stichwort Salesforce. Diese Wealth Manager werden Produkte anbieten, die sich nahtlos in Branchenprozesse und Kundener- lebnisse integrieren lassen. Dieses Geschäfts- modell ist besonders für Wealth Manager mit überragenden Nischenprodukten und -kompe- tenzen attraktiv. Kein Wealth Manager dürfte über die ge- samte Wertschöpfungskette ganz vorne mitspie- len. Daher müssen schwierige Entscheidungen getroffen werden, in welche Teile des Unterneh- mens investiert und wo gekürzt wird. Nur so werden sie im Wettbewerb mit der Vielzahl von Fintech-Startups und anderen Konkurrenten mit einer schlanken Kostenstruktur bestehen können. Lesen Sie auf gmr.db.com „Time to Advance and Defend“, unseren ausführlichen Bericht über die internationale Wealth Management-Branche in Kooperation mit Oliver Wyman, oder wenden Sie sich an uns. Konzept 21 Luke Templeman Können US- Unternehmen dem Ende von QE gelassen entgegensehen? Jeder kennt sie, die Grafiken, die zeigen, wie sich fast synchron zum Kursanstieg am US-Aktienmarkt die Bilanz der Federal Reserve immer weiter aufgebläht hat. Im Umkehrschluss lässt dies nichts Gutes ahnen. Wenn die Federal Reserve ihre Bilanz nun wieder abschmilzt, dürfte dies die Kurse auf Talfahrt schicken. Man sollte Koinzidenz jedoch nicht mit Kausalität verwechseln. Anleger sollten sich vielmehr fragen, über welche Kanäle ein Ausstieg aus dem Quantitative Easing (QE) Auswirkungen auf die Aktienmärkte haben könnte. Konzept 22 Ein Ende des Quantitative Easing könnte sich über zwei Schienen ne- gativ auf die Aktienmärkte auswirken. Wir wollen hier im Folgenden beide genauer unter die Lupe nehmen. Zunächst gehen wir der Frage nach, ob QE ein positiver Sondereffekt für die Unternehmen war und sich deren Fundamentaldaten ohne diesen künstlichen Stimulus nun zwangläufig ver- schlechtern. In einem zweiten Schritt beschäftigen wir uns damit, ob QE für irrationale Euphorie unter Anlegern gesorgt und so dazu geführt hat, dass diese ihre Anlageentscheidungen losgelöst von den Fundamentalda- ten getroffen haben. Wenn dem so wäre, würde die Kursentwicklung jeder fundamentalen Grundlage entbehren und der Ausstieg aus dem QE die Anleger wieder klarer sehen lassen. Beginnen wir bei der Entwicklung der Fundamentaldaten von Unter- nehmen und der Eigenkapitalrendite als Messgröße für die Ertragskraft eines Unternehmens ohne Sondereffekte. Lässt man die Sektoren Finan- zen und Energie außen vor, liegt die durchschnittliche Eigenkapitalrendite der Unternehmen im S&P 500 mit 14 Prozent derzeit auf dem höchsten Stand seit Jahrzehnten. Ist dieser Höhenflug bei den Eigenkapitalrenditen auf QE zurückzuführen? Um dies zu beantworten, müssen wir analysieren, durch welche Faktoren dieser Renditeanstieg im Einzelnen bedingt ist. Da- bei lässt sich feststellen, dass höhere Eigenkapitalrenditen in den meisten Fällen auf höheren Gewinnmargen und einen höheren Verschuldungsgrad zurückzuführen sind. Besteht bei einem dieser Faktoren ein Zusammen- hang zu QE? Es ist nicht wegzudiskutieren, dass die Margen der Unternehmen seit Beginn des QE-Programms um ein Viertel auf zehn Prozent gestiegen sind. Damit setzt sich jedoch lediglich ein schon länger anhaltender Trend stei- gender Margen fort, der bereits vor 25 Jahren, Anfang der 1990er Jahre begonnen hat. Konjunkturelle margensteigernde Impulse durch QE haben diese strukturelle Entwicklung lediglich verstärkt. Das QE-Programm könn- te in Zukunft sogar eine margendämpfende Wirkung haben, hat es doch zu einer Verbesserung der Lage am Arbeitsmarkt beigetragen. Die niedrige Arbeitslosigkeit könnte nun zu steigenden Lohnkosten führen. Aus einem weiteren Blickwinkel betrachtet sollte der bestimmende Faktor für die Margenentwicklung allerdings der Wettbewerbsdruck in einer Branche sein. In der Theorie sind extrem hohe Gewinne in einer gut funktionierenden Marktwirtschaft immer nur ein vorübergehendes Phänomen, da sie langfristig neue Wettwerber anziehen und damit für zusätzliche Konkurrenz sorgen. Wenn diese neuen Akteure auf den Markt drängen, fallen die Gewinnmargen in der Branche und somit auch die Eigenkapitalrenditen. Die Realität sieht jedoch anders aus. In den USA hat sich die Markteintrittsrate, also die Anzahl neu ge- gründeter Unternehmen im Verhältnis zur Gesamtzahl aller Unternehmen, in den letzten drei Jahrzehnten auf acht Prozent halbiert. Die Branchen- konsolidierung infolge der Kartellrechtsänderungen in den 1980er Jahren hat parallel dazu dafür gesorgt, dass der Anteil der Branchen des verar- beitenden Gewerbes, in dem vier große Unternehmen mehr als die Hälfte des Marktes beherrschen, von 30 auf 40 Prozent gestiegen ist. Dies deutet darauf hin, dass der Wettbewerbsdruck bei steigenden Renditen nachge- lassen hat anstatt sich zu intensivieren. Einer der Gründe für den nachlassenden Wettbewerbsdruck sind neue Markteintrittsbarrieren, insbesondere im Technologiesektor. So hat beispielsweise das Internet zu Netzwerkeffekten bisher unbekannten Ausmaßes geführt. Selbst wenn es gelänge, ein neues Facebook, Amazon oder Uber auf die Beine zu stellen, würde die kritische Masse der Menschen, die bereits die bestehenden Plattformen nutzen, einen Markt- eintritt prohibitiv erschweren. Gleichermaßen verzeichnen zwar viele Technologieunternehmen phantastische Renditen, beklagen jedoch einen Konzept 23 permanenten Fachkräftemangel. Aus diesem Grund zählen Technologie- unternehmen zu den größten Arbeitgebern für qualifizierte Fachkräfte aus dem Ausland. Um ein neues Technologieunternehmen auf die nötige Größe wachsen zu lassen, müssen also teure Fachkräfte von bestehenden Unternehmen abgeworben werden. Für einen kleinen Newcomer mit knappem Budget dürfte das kaum zu stemmen sein. Doch selbst ohne Wettbewerbsdruck durch neue Marktteilnehmer sollten hohe Margen die etablierten Unternehmen dazu veranlassen, ihre Kapazitäten auszubauen und zusätzlichen Kapitalstock aufzubauen. Dies scheint jedoch auch nicht der Fall zu sein. Ganz im Gegenteil deuten die Daten darauf hin, dass das private Anlagevermögen ohne Wohnimmo- bilien – ein Indikator für die Entwicklung von Immobilien, Maschinen und sonstigen Anlagen von Unternehmen – immer älter wird. Im Durchschnitt ist der Kapitalstock 16 Jahre alt. Das ist der höchste Wert seit fünfzig Jahren. Überdies hat sich der Alterungsprozess seit der Jahrtausendwende beschleunigt und vollzieht sich nun fast doppelt so schnell wie im Durch- schnitt der letzten drei Jahrzehnte. Anleger, die eine Margenerosion bei den Unternehmen fürchten, soll- ten sich lieber mit regulatorischen Maßnahmen und anderen strukturellen Veränderungen auseinandersetzen, die für härteren Wettbewerb sorgen werden. Doch so wichtig diese Themen auch sein mögen, sie haben nichts mit dem Ende des QE-Programms zu tun. Damit kommen wir zum Verschuldungsgrad, dem anderen Faktor, der für den Anstieg der Eigenkapitalrenditen bei US-amerikanischen Unterneh- men ursächlich war. Manche Stimmen behaupten, das QE-Programm habe Unternehmen dazu veranlasst, billig Fremdkapital aufzunehmen und sich zu verschulden. Lässt die Fed das QE-Programm nun auslaufen, würden sich die Zinsen normalisieren und die Unternehmen sich gezwungen sehen, entweder Schulden abzubauen oder höhere Finanzierungskosten in Kauf zu nehmen. Beides schmälert die Renditen. Es ist nicht von der Hand zu weisen, dass der Verschuldungsgrad der Unternehmen seit der Krise auf das höchste Niveau seit Jahrzehnten gestiegen ist. So beträgt der Wert der Unternehmensvermögen heute das Dreifache des Eigenkapitals, was einem Anstieg um ein Fünftel in zehn Jahren entspricht. Dies ist, neben der verstärkten Emission von Schuld- titeln, auch auf Aktienrückkäufe zurückzuführen. Die Unternehmen im S&P 500 haben in den vergangenen drei Jahren jährlich Aktien im Wert von USD 600 Mrd. zurückgekauft. Damit bewegen sich die Rückkäufe auf einem nur vorübergehend vor der Krise erreichten Niveau und sind doppelt so hoch wie bei Ankündigung des QE-Programms. Eine Drosse- lung der Aktienrückkäufe wird den Anstieg bei der Verschuldung und den Eigenkapitalrenditen bremsen. Aktienrückkäufe sollten jedoch lediglich als bilanztechnische Anpassung gesehen werden. Wenn ihr einziger Zweck in der Veränderung der Kapitalstruktur des Unternehmens besteht, sollten sie sich nicht auf dessen eigentlichen Wert auswirken. Was die Zinskosten anbelangt, ist es zwar richtig, dass Fremdkapital für Unternehmen bei steigenden Zinsen teurer wird. Die Unternehmen haben jedoch ausreichend Zeit, sich darauf vorzubereiten. Die gewichtete durchschnittliche Laufzeit der Schulden US-amerikanischer Unternehmen liegt bei rund zehn Jahren. Davon entfällt der Löwenanteil auf festver- zinsliche Anleihen, sodass noch für eine gewisse Zeit niedrige Zinskosten gesichert sind. Und auch wenn die Spreads am Markt für Unternehmens- anleihen sich derzeit auf niedrigem Niveau bewegen, sind sie wahrschein- lich weniger anfällig als allgemein angenommen. (Lesen Sie hierzu auch das nächste Feature mit dem Titel „Credit Spreads – Alarmstufe Rot oder alles im grünen Bereich?“) 24 Können US-Unternehmen dem Ende von QE gelassen entgegensehen? Es ist daher festzustellen, dass steigende Margen und der Leverage durch mehr Fremdkapital zwar die Eigenkapitalrenditen beflügelt haben, dabei aber auch Faktoren eine Rolle gespielt haben, die nichts mit QE zu tun haben. Anleger können also durchaus darauf vertrauen, dass die Fun- damentaldaten der Unternehmen solide bleiben, auch wenn die Geldpolitik schrittweise normalisiert wird. Was ist dann mit der zweiten Sorge der Anleger, dass zwar die Fun- damentaldaten der Unternehmen solide sind, das QE-Programm jedoch eine irrationale Euphorie ausgelöst hat, die zu Übertreibungen an den Märkten geführt hat? Tatsächlich sind bei einigen Standardkennzahlen wie dem Kurs-Gewinn-Verhältnis (KGV) und dem Kurs-Buchwert-Verhältnis (KBV) mittlerweile historische Höchststände erreicht. Ausgehend vom Shiller-KGV, das aktuelle Aktienkurse mit den durchschnittlichen Gewinnen über zehn Jahre vergleicht, sind die Bewertungen von US-Aktien auf den höchsten Stand seit mehr als hundert Jahren geklettert, ausgenommen die Jahre 1929 und 1999. Diese Standardkennzahlen greifen jedoch zu kurz. Insbesondere, da sie durch kurzfristige Gewinne, zufällige Volatilität und zyklische Effekte verzerrt sind. Um zu prüfen, ob die durch den Margen- und Verschuldungsanstieg verursachten höheren Unternehmensgewinne nachhaltig sind, sollte man besser den Tobin Quotienten betrachten, der den Marktwert der Aktien zu den Wiederbeschaffungskosten des Unternehmensvermögens ins Verhältnis setzt. Da diese Kennzahl die Unternehmensbewertungen damit vergleicht, was es kosten würde, diese Unternehmen aufzubauen, wird für Anleger transparent, wie groß der Anreiz für Unternehmer ist, mit den etablierten Akteuren in Wettbewerb zu treten und die hohen Eigenkapital- renditen zu drücken. Obwohl sich der S&P 500 seit seinem Tief 2009 fast vervierfacht hat, ist Tobins Quotient für US Nicht-Finanzunternehmen nur um knapp zehn Prozent gestiegen. Dies deutet darauf hin, dass zwar ein gewisses Maß an Überschwang an den Märkten herrscht, die Kurssteigerungen jedoch zu einem großen Teil fundamental unterfüttert sind. Anders ausgedrückt haben Anleger nicht mehr für die Aktien bezahlt, als auch durch den Wert- zuwachs beim Unternehmensvermögen gerechtfertigt war. Zudem liegt der Quotient derzeit knapp über eins, was bedeutet, dass der Marktwert der Unternehmen in etwa dem Unternehmensvermögen entspricht. Der aktuelle Wert liegt nur ein Zehntel über dem Durchschnitt der vergangenen 25 Jahre und deutlich unter den Werten der späten 1990er Jahre, als unter den Anlegern das „Internetfieber“ grassierte und der Marktwert der Unternehmen in keinem Verhältnis mehr zum Unterneh- mensvermögen stand. Der aktuelle Wert liegt auch nur ein Zehntel über dem Stand von vor der Krise, den er bereits vor Beginn des QE-Programms erreicht hatte. Selbst wenn der Q-Faktor derzeit steigt, zeigt die Erfahrung, dass sich eine solche Entwicklung über einen langen Zeitraum vollzieht. Seit Kriegs- ende ist es zweimal vorgekommen, dass der Q-Faktor stark gestiegen ist. Das erste Mal, Mitte des letzten Jahrhunderts, dauerte dies 15 Jahre. Das zweite Mal begann der Anstieg Anfang der 1980er Jahre und dauerte fast zwei Jahrzehnte an, bevor er gemeinsam mit der Technologieblase in sich zusammenfiel. Verglichen mit diesen Zyklen ist der aktuelle Anstieg noch nicht sehr alt, denn der Q-Faktor steigt erst seit 2009 und damit gerade einmal seit 8 Jahren. Ob wir es hier mit überzogenen Erwartungen, irrationaler Euphorie Konzept 25 oder einer Blase am Aktienmarkt zu tun haben, ist jedoch nicht die ent- scheidende Frage. Denn das werden wir, wie Alan Greenspan sagte, erst im Nachhinein wissen. Die wichtigere Frage ist vielmehr, inwiefern all dies auf QE zurückzuführen ist und ob der Ausstieg aus dem QE-Programm da- her einen wesentlichen Effekt haben wird. Anlegereuphorie ist schließlich nichts Neues. Unternehmensbewertungen durchlaufen ständig Zyklen von Überhitzung und Korrektur. Zwar deutet wenig darauf hin, dass QE einen maßgeblichen Anteil an dem Aufwärtstrend bei den Fundamentaldaten der Unternehmen gehabt oder überschwänglichen Optimismus in Anlegerkreisen genährt hat. Den- noch ist eine Entwicklung an den Märkten nach der Krise zumindest teil- weise auf QE zurückzuführen. Das erkennt man jedoch nur, wenn man die Fundamentaldaten und Bewertungen nicht für den Gesamtmarkt, sondern auf der Ebene der einzelnen Unternehmen betrachtet. Seit der Krise sind die Kurse von Unternehmen mit unterschiedlichen Fundamentaldaten in einer ähnlichen Größenordnung gestiegen. Genauer gesagt ist die Streubreite der Renditen am Aktienmarkt gesunken, obwohl die Entwicklung bei den Fundamentaldaten stärker auseinandergelaufen ist. So hat die Streubreite bei den Eigenkapitalrenditen der Unternehmen in den letzten zehn Jahren um mehr als die Hälfte zugenommen. Anders ausgedrückt sind die Anleger seit der Krise weniger anspruchsvoll und be- scheren damit Unternehmen mit schwächeren Fundamentaldaten ähnliche Kursgewinne wie Unternehmen mit stärkeren Fundamentaldaten. Dies ist ein neues Phänomen, denn in der Vergangenheit haben sich die Streuung der Fundamentaldaten der Unternehmen und der Renditen am Aktien- markt tendenziell parallel entwickelt und dabei immer wieder auf einen Mittelwert eingependelt. Diese Anomalie ist durch verschiedene Faktoren bedingt. Drei davon wollen wir hier näher beleuchten: niedrige Zinsen durch QE, die Beliebtheit passiver Investmentfonds und die wachsende Bedeutung von Technolo- gieunternehmen und anderen wenig kapitalintensiven Unternehmen. QE spielt in diesem Zusammenhang zumindest eine gewisse Rolle. Von der mit dem Ende von QE zu erwartenden Korrektur dürften daher be- sonders renditeschwache Unternehmen betroffen sein, die bislang davon profitiert haben. QE hat die Renditen am Anleihemarkt sinken lassen. Damit sind die verschiedensten Anlageklassen ins Blickfeld renditeorientierter Anleger gerückt. Dividendenstarke Aktien sind besonders gefragt. Die Titel von Un- ternehmen, die ihre Dividenden erhöht haben, erfreuen sich wachsender Beliebtheit und verzeichnen starke Kursgewinne. So viel zur Finanztheorie, die besagt, dass die Dividendenpolitik sich nicht auf den fundamentalen Wert eines Unternehmens auswirken sollte. Dieses Phänomen zeigt sich am besten in der Wertentwicklung der sogenannten Dividendenaristokraten. Das sind Unternehmen, die über einen längeren Zeitraum gleichbleibende Dividenden ausgeschüttet oder ihre Dividenden kontinuierlich erhöht haben. Die Dividendenaristokraten haben sich deutlich besser entwickelt als der Gesamtmarkt. Auch in den letzten zehn Jahren ist die Hälfte dieser Outperformance wieder an die Anleger zurückgeflossen, sodass das KBV dieser Aktien heute ein Viertel über dem Niveau des Gesamtmarktes liegt. Kein Wunder, dass Titel mit hohen Barrenditen bei Anlegern hoch im Kurs stehen, auch wenn dies seinen Preis hat. Die Beliebtheit von Dividendenwerten hat dazu geführt, dass die Un- ternehmen im S&P 500 inzwischen 38 Prozent ihrer Gewinne ausschütten 26 Können US-Unternehmen dem Ende von QE gelassen entgegensehen? und damit ein Drittel mehr als vor zehn Jahren. Höhere Dividenden sind durchaus positiv zu bewerten, wenn ein Unternehmen über die nötigen Liquiditätsspielräume verfügt und seinen Kapitalbedarf decken kann. Doch auch hier täuscht die Betrachtung des Gesamtmarktes über eine beunruhi- gende Entwicklung hinweg. Die Streubreite der Dividendenrenditen von US-Aktien ist seit der Krise kontinuierlich gefallen und hat inzwischen fast den Tiefstand von vor der Krise erreicht. Die Streubreite der Ausschüttungsquoten hingegen ist um ein Viertel gestiegen. Damit besteht mittlerweile die größte Diskrepanz zwischen diesen beiden Kennzahlen seit mindestens zwanzig Jahren. Dies bedeutet, dass die Unternehmen darauf aus sind, ungeachtet ihrer Aus- schüttungsquote eine gewisse Dividendenrendite zu bieten. Viele US-Un- ternehmen haben Dividendenausschüttungen sogar mit der Emission von Schuldtiteln finanziert, obwohl die Gewinne in manchen Fällen zu einem Großteil im Ausland erzielt und nicht einfach repatriiert werden können. Das Risiko besteht darin, dass Unternehmen sich durch die Anlegerer- wartungen unter Druck gesetzt sehen und mehr ausschütten, als sie sich leisten können. Sowohl die Erfahrung als auch die Mathematik lehren uns, dass sich die Lücke zwischen Ausschüttungsquoten und Dividendenrenditen schlie- ßen muss. Wenn sich die Geldpolitik normalisiert und Dividendenwerte aufgrund höherer Zinsen für renditeorientierte Anleger uninteressanter werden, dürften sich Anleger wieder stärker an den Fundamentaldaten orientieren. Unternehmen, die sich mit ihren Dividendenausschüttungen übernommen haben, könnten dann die Quittung bekommen. Auch die ebenfalls mit QE in Zusammenhang stehende Zunahme passiver Investments hat zu der wachsenden Diskrepanz zwischen der Streuung bei den Fundamentaldaten und der Streuung bei den Marktren- diten beigetragen. So machen passive Aktienfonds inzwischen mehr als zwei Fünftel des Aktienfondsmarktes aus, doppelt so viel wie vor zehn Jahren. Da bei passiven Anlegern nicht die Differenzierung zwischen guten und schlechten Unternehmen im Vordergrund steht, verlieren Funda- mentaldaten mit einem größeren Anteil passiven Anlagekapitals effektiv an Bedeutung für die Wertentwicklung am Markt. Schlecht geführte Unternehmen profitieren, während Unternehmen mit guten Fundamental- daten abgestraft werden. Der dritte Grund, aus dem Anleger nicht mehr so stark auf die Eigen- kapitalrendite als Indikator für die fundamentale Gesundheit eines Unter- nehmens achten, ist die zweite Welle an Technologieunternehmen. Seit Anfang der 2000er Jahre ist die durchschnittliche Eigenkapitalrendite eines US-Technologiewertes von fünf auf 20 Prozent gestiegen. Die Streubreite der Werte für die verschiedenen Unternehmen hat im selben Zeitraum um die Hälfte zugenommen. Einige technologieorientierte Anleger argumen- tieren sogar, dass die Eigenkapitalrendite als Kennzahl für diese eher weni- ger kapitalintensiven Unternehmen ungeeignet sei. So erscheint es absurd, die zehn Prozent Eigenkapitalrendite von Amazon mit den 36 Prozent von Apple zu vergleichen. Doch die wachsende Bedeutung weniger kapitalintensiver Unterneh- men ist kein auf den Technologiesektor beschränktes Phänomen. Inzwi- schen macht der Bruttowert der Sachanlagen des Median-Unternehmens (ohne Finanzsektor) in den USA nur noch ein Drittel des Gesamtvermögens aus – knapp halb so viel wie noch vor 25 Jahren. Der Trend hin zu weniger kapitalintensiven Unternehmen fällt mit dem Anstieg der Renditen zusam- men, die diese Strategie bietet. So verzeichnen die Unternehmen, die bei Konzept 27 den Eigenkapitalrenditen im obersten Dezil liegen, nur sehr geringe Inves- titionsausgaben im Verhältnis zum Umsatz. Natürlich ist diese Entwicklung maßgeblich von Technologieunternehmen geprägt, der Trend geht jedoch in den meisten Branchen in dieselbe Richtung. Zusammenfassend lässt sich feststellen, dass der starke Aufwärts- trend an den Aktienmärkten seit der Finanzkrise zwar zeitlich mit mehreren Runden des QE-Programms zusammengefallen ist. Anleger sollten hier aber nicht Koinzidenz mit Kausalität verwechseln. Das Kursniveau steht noch immer im Einklang mit den Fundamentaldaten und ist angesichts höherer Eigenkapitalrenditen und eines höheren Wertes der Unterneh- mensvermögen durchaus gerechtfertigt. US-Unternehmen scheinen fundamental ertragsstark genug, um den Ausstieg aus dem Quantitative Easing verkraften zu können. Die Ängste vor einem Kursrutsch auf breiter Front, wenn die Zentralbank ihre Bilanz wieder abschmilzt, dürften also überzogen sein. Die Beendigung des QE-Programms könnte sich jedoch durchaus in veränderten Präferenzen der Anleger für unterschiedliche Arten von Aktien niederschlagen. So hat die Jagd nach Rendite Aktien guter und weniger gut geführter Unternehmen gleichermaßen Auftrieb gegeben. Wenn sich nun die Spreu vom Weizen trennt, könnte dies dazu führen, dass Anleger künftig wieder stärker differenzieren. Wenn der Ausstieg aus dem QE-Pro- gramm zur Folge hat, dass Fundamentaldaten bei Anlageentscheidungen wieder den Ausschlag geben, kann man dies nur begrüßen. Angst haben muss man davor nicht. 28 Können US-Unternehmen dem Ende von QE gelassen entgegensehen? Credit Spreads— Alarmstufe Rot oder alles im grünen Bereich? John Tierney Konzept 29 Seit der Finanzkrise wird dem Markt für Unternehmensanleihen immer wieder der bevorstehende Kollaps prophezeit. Da die Fremdkapitalkosten für Unternehmen in den vergangenen zehn Jahren immer weiter gesunken sind, werden die Kassandrarufe nun immer lauter. Die Märkte für Unternehmensanleihen haben sich jedoch bislang besser behauptet, als viele erwartet hatten, denn noch haben sich diese nicht von der Entwicklung in der Vergangenheit, der Entwicklung an anderen Finanzmärkten oder den Unternehmensbilanzen entkoppelt. Konzept 30 Als Warnsignal gilt den Untergangspropheten in der Regel allen voran das extrem niedrige Niveau bei den Fremdkapitalkosten. Daran gibt es nichts zu deuteln, doch die Fremdfinanzierungskosten für Unternehmen sind nur eine Folgeerscheinung extrem niedriger Renditen am Staatsanlei- henmarkt. Die Credit Spreads, also der Renditeaufschlag, den Unterneh- men im Vergleich zu Staatsanleihen zahlen müssen, sind immer noch ein gutes Stück von ihren Tiefstständen in vorhergehenden Zyklen entfernt. So liegen die Spreads für US Investment Grade Anleihen derzeit bei etwa 135 Basispunkten. Im Jahr 2007 war der Renditeabstand auf 110 Basispunkte zusammengeschmolzen, 1997 waren es sogar nur noch 85 Basispunkte. Am Markt für US High Yield-Anleihen bietet sich dasselbe Bild: Mit aktuell 390 Basispunkten sind wir noch weit von den 260 Basis- punkten entfernt, auf die die Spreads in den Jahren 1997 und 2007 zusam- mengeschrumpft waren. Im europäischen Investment Grade Segment liegt das Spreadniveau indes derzeit bei 110 Basispunkten. Zum Vergleich: 2007 waren es noch knapp 60 Basispunkte. 1 Die Credit Spreads müssen im aktuellen Zyklus ja nicht zwangsläufig die Tiefststände vorangegangener Zyklen testen. Ein klareres Bild liefert eine Positionsbestimmung im Vergleich zu anderen Indikatoren. Dazu haben wir im Folgenden drei aussagekräftige Größen ausgewählt: Ausfall- quoten, Aktienkurse und Bilanzkennzahlen. Beginnen wir mit den Ausfallquoten. Credit Spreads reagieren sehr stark auf Prognosen in Bezug auf diesen Indikator. Das ist keine große Überraschung. Als die US High Yield Spreads 2014 bei 345 Punkten den höchsten Stand in diesem Zyklus erreicht hatten, lag die gleitende 12-Mo- nats-Ausfallquote bei etwa 1,7 Prozent, 1997 und 2006/2007 hingegen nur bei 1,4 Prozent bzw. 1 Prozent. Nach der Long Term Capital Manage- ment-Krise im September 1998 kletterten die High Yield Spreads über die folgenden zwei Jahre von 300 auf 630 Basispunkte und spiegelten damit die Entwicklung der Ausfallquote wider, die sich konstant von 2,5 auf 6,3 Prozent erhöht hatte. Die Spreadausweitung wurde dabei vermutlich noch von der sich bildenden Dotcom-Blase abgemildert, die an den Aktienmärk- ten Kurszuwächse von 50 Prozent über diesen Zeitraum brachte. Doch man braucht gar nicht so weit in der Zeit zurückzugehen: Als der Energiesektor infolge sinkender Ölpreise im Jahr 2015 unter Druck geriet, war für den Rohstoffsektor 2016 mit 22 Prozent ein sprunghafter Anstieg der Ausfallquoten zu verzeichnen. Für den Gesamtmarkt ohne Rohstoffsektor erhöhte sich die Ausfallquote auf 3 Prozent. Dement- sprechend kletterten die High Yield Spreads für den Gesamtmarkt ohne Rohstoffsektor von 350 auf 700 Basispunkte und auf 1.700 Basispunkte für Anleihen von Rohstoffunternehmen. Analog dazu war bei den Invest- ment Grade Spreads von einem niedrigen Stand von 115 Basispunkten im Jahr 2014 ein Ausreißer nach oben bis auf 180 Basispunkte ohne Roh- stoffsektor und 430 Basispunkte für Anleihen von Rohstoffunternehmen zu verzeichnen. Nachdem die Ölpreise wieder angezogen hatten und die schwächsten Papiere vom Markt verschwunden waren, ist die Ausfall- quote wieder erheblich gesunken. Für die USA liegt die Ausfallquote über den Zeitraum der letzten 12 Monate mittlerweile bei 3,6 Prozent und wird Prognosen von Moody‘s zufolge im Laufe des nächsten Jahres weiter 1 Der europäische Index für IG-Unternehmensanleihen liegt grundsätzlich unter dem Stand des US-Pendants, da hier die Laufzeit um einige Jahre kürzer ist und die Ratings im Durchschnitt um eine halbe bis eine Stufe höher sind. Bereinigt um diese Faktoren und Währungseffekte liegen beide Indizes in etwa gleich auf. Konzept 31 auf 2,6 Prozent fallen. 2 Ist das aktuelle Spreadniveau am High Yield-Markt also vor dem Hintergrund der Prognosen für die Entwicklung der Ausfallquoten gerecht- fertigt? Um Anleger für das Ausfallrisiko zu entschädigen, sollte der Spread dem Produkt aus Ausfallquote und der Differenz aus eins und der Recovery Rate entsprechen. Auf der Grundlage einer prognostizierten Ausfallquote von 3 Prozent und einer Recovery Rate-Standardannahme von 40 Prozent ergibt sich ein Spread von knapp 180 Basispunkten. Dieses Spreadniveau wäre angemessen, wenn man davon ausgeht, dass die Ausfallquoten auch noch einige Jahre lang weiter niedrig bleiben. Greift man bei der Annahme für die Entwicklung der Ausfallquoten mit 4,5 Prozent etwas höher, um dem Trend beim Ausfallrisiko über den Konjunkturzyklus besser Rechnung zu tragen, erhöht sich der implizite Spread auf 270 Basispunkte. Natürlich sind die Spreads fast immer höher als das Niveau, das die Konsensschätzung zur Ausfallquote impliziert, da Anleger auch einen Ren- diteaufschlag für das Liquiditätsrisiko, das Downgrade-Risiko und andere Unwägbarkeiten verlangen. In einem Markt ohne akute Stressfaktoren bewegen sich die High Yield-Risikoaufschläge in der Regel zwischen 100 und 150 Basispunkten. Daraus ergibt sich ein Gesamtspread von 370 bis 420 Basispunkten. Nach dieser Faustregel ist das aktuelle Spreadniveau also keineswegs beunruhigend. Stellt sich als nächstes die Frage, ob die Credit Spreads auch in einem gesunden Verhältnis zur Preisentwicklung an anderen Finanzmärkten und insbesondere zur Kursentwicklung an den Aktienmärkten stehen. Letzten Endes beziehen sowohl Unternehmensanleihen als auch Aktien ihren Wert aus demselben Unternehmensvermögen und denselben Unternehmens- gewinnen. Daher erscheint es nur folgerichtig, dass die positive Stim- mung, aus der sich ein Aufwärtstrend am Aktienmarkt speist, auch die Bonitätsspreads bei Unternehmensanleihen sinken lässt. Phasen wie der Dotcom-Boom, in denen sich der Markt für Unternehmensanleihen vom Aktienmarkt entkoppelt, sind eher die Ausnahme als die Regel. Abgesehen von den empirischen Belegen für diesen Zusammenhang gibt es dafür auch fundierte theoretische Argumente. Wie der Volkswirt Robert Merton 1974 in einer berühmten Arbeit gezeigt hat, können Aktien und Anleihen als Optionen auf das Vermögen eines Unternehmens be- trachtet werden. 3 Aktien entsprechen dem Kauf einer Call-Option. Wenn sich das Unternehmen gut entwickelt, partizipieren die Aktionäre an dem Aufwärtstrend, während ihr Risiko nach unten auf null begrenzt ist. Unter- nehmensanleihen entsprechen dem Verkauf einer Put-Option. Wenn im Insolvenzfall das Eigenkapital des Unternehmens ganz aufgezehrt ist, ge- hen die Aktionäre leer aus und verkaufen im Endeffekt das Unternehmens- vermögen an die Anleihegläubiger. Merton hat auch gezeigt, dass Aktien und Unternehmensanleihen (zumindest theoretisch) mit dem Black-Scho- les-Optionspreismodell bewertet werden könnten. 2 Die durchschnittliche Ausfallquote für das High Yield-Segment über die vergangenen 30 Jahre liegt bei etwa 4,5 Prozent. Das hat aber nicht viel zu sagen, da es bei den Ausfallquoten keinen Mean Reversion-Effekt gibt. In Boomphasen sind auch die Ausfallquoten deutlich niedriger, in einer konjunkturellen Talsohle sind sie hingegen wesentlich höher und bewegen sich in einer Spanne zwischen 10 und 12 Prozent. Und dazwischen korrelieren sie ebenfalls mit dem Trend im Konjunkturverlauf. 3 Robert Merton, „On the Pricing of Corporate Debt: The Risk Structure of Interest Rates“, Journal of Finance, Vol. 29, No. 2, Mai 1974 32 Credit Spreads—Alarmstufe Rot oder alles im grünen Bereich? Es sei nochmals daran erinnert, dass sich der Preis einer Option in Abhängigkeit vom Preis des Basiswertes, vom Ausübungspreis („Stri- ke-Price“) sowie von Volatilität und Zinsniveau bestimmt. 4 Bei Unterneh- mensanleihen ist der Basiswert das Unternehmensvermögen. Und der Ausübungspreis der Standardoption ist dann erreicht, wenn das Eigenkapi- tal auf null zusammengeschmolzen ist oder, anders ausgedrückt, wenn der Marktwert des Unternehmensvermögens unter den Nennwert des Fremd- kapitals gefallen ist. Anleihegläubiger, die gewissermaßen eine Put-Option verkauft haben, erhalten eine Optionsprämie in Form des Credit Spreads. Mit diesem Bewertungsrahmen können wir nun analysieren, wie Optionsprämie oder Credit Spread auf Veränderungen bei den anderen Variablen reagieren. Mit steigenden Aktienkursen steigt auch der Marktwert der Basis- werte, sodass ein Ausfall unwahrscheinlicher wird. Damit bewegt sich die Standard-Put-Option weiter aus dem Geld, d.h. sie verliert an Wert, und der Verkäufer der Option erhält nur eine geringe Prämie oder einen kleinen Spread. Dies erklärt, warum hohe Kurse am Aktienmarkt, wie wir sie aktu- ell erleben, mit engen Credit Spreads einhergehen. Ähnlich verhält es sich bei niedriger Volatilität am Aktienmarkt: Die Ausübungswahrscheinlichkeit ist dann ebenfalls gering, und die Option verliert an Wert. Zudem hat eine Option, die weit aus dem Geld ist, auch ein geringes Delta und reagiert damit kaum auf Veränderungen beim Preis des Basis- wertes oder der Volatilität. Auch bei einer ungebrochenen Rallye am Ak- tienmarkt und weiter sinkender Volatilität dürften sich die Credit Spreads daher von ihrem aktuellen Niveau aus allenfalls noch in kleinen Schritten weiter abwärts bewegen. Das Zinsniveau hat an den heutigen Märkten nur wenig Einfluss auf den Optionswert. Es sei aber dennoch erwähnt, dass sich der Wert einer Put-Option bei sonst konstanten Faktoren invers zum Zinsniveau verhält. 5 In einem Niedrigzinsumfeld sind Put-Optionen daher mehr wert und die Credit Spreads dementsprechend größer. Dies ist ein Grund dafür, dass die Spreads die Tiefststände vorhergehender Zyklen, als die Zinsen noch höher waren, noch nicht getestet haben. Außerdem impliziert dies, dass die Spreads sich mit steigenden Zinsen durchaus noch verringern könnten, sofern die Konjunktur weiter rund läuft und der Wert des Eigenkapitals bei den Unternehmen stabil bleibt. Das Optionspreismodell nimmt nicht explizit Bezug auf fundamentale Unternehmenskennzahlen. Dies heißt aber nicht, dass Fundamentaldaten dafür ohne Belang sind. Der Credit Spread oder der Wert der Option hängt von der distance to default, also dem Abstand zum „Insolvenzpunkt“ ab. Diesen bestimmt man mit einer Kombination aus Marktwert des Eigenka- pitals und Fremdkapital. Da ein Unternehmen mit höherem Verschuldungs- grad einen vergleichsweise geringeren Eigenkapitalpuffer hat, ist seine Überlebenswahrscheinlichkeit in einem Stressszenario geringer als bei einem weniger stark verschuldeten Unternehmen. Wie sehen die Fundamentaldaten der Unternehmen heute aus? Es ist eine schrittweise Verschlechterung der zentralen Bonitätskennzahlen zu beobachten, insbesondere im US Investment Grade Sektor. In den vergangenen fünf Jahren ist der Verschuldungsgrad bei Nichtfinanzunter- 4 Ein möglicher Bewertungsmaßstab für Finanzanlagen im Rahmen dieses Optionspreismodells ist der Enterprise Value oder die Summe aus Marktwert von Fremd- und Eigenkapital. 5 Unterstellt man, dass der Käufer einer Option die Optionsprämie finanziert, werden sich mit steigenden Zinsen auch die Opportunitätskosten für den Kauf der Option erhöhen, was deren relative Attraktivität mindert. Konzept 33 Im Gegensatz zu vorherigen Zyklen waren US High Yield-Unternehmen, insbesondere außerhalb des Energiesektors, in den vergangenen Jahren stark darauf bedacht, das Verhältnis von Fremdkapital zu Eigenkapital bzw. EBITDA in etwa konstant zu halten. 34 Credit Spreads—Alarmstufe Rot oder alles im grünen Bereich? nehmen im S&P 500 6 stetig von 0,6 auf 0,85 gestiegen. Damit hat er sich dem Höchststand von 2002 angenähert und liegt weit über der Marke von 0,7 aus dem Jahr 2009. Auch die Debt-to-EBITDA Kennzahlen sind von 1,5 auf 2,4 geklettert. Der Höchststand aus dem Jahr 2009 lag bei 1,8. Bei den europäischen Investment Grade Unternehmen ist ebenfalls ein leichter Ne- gativtrend bei den Verschuldungskennzahlen zu beobachten. Beide Kenn- zahlen liegen jedoch nach wie vor unter den Höchstständen von 2009. Im Gegensatz zu vorherigen Zyklen waren US High Yield-Unterneh- men, insbesondere außerhalb des Energiesektors, in den vergangenen Jahren stark darauf bedacht, das Verhältnis von Fremdkapital zu Eigen- kapital bzw. EBITDA in etwa konstant zu halten. In einer Rezession ist das High Yield-Segment anfällig. Bislang hat man sich jedoch bemüht, dieses grundsätzlich bestehende Ausfallrisiko nicht noch weiter zu erhöhen. So haben US-Unternehmen zur Finanzierung von Aktienrückkäufen zwar verstärkt Fremdkapital aufgenommen, im Gegenzug aber auch das Niedrigzinsumfeld genutzt, um ihre Zinsbelastung zu reduzieren und ihren Zinsdeckungsgrad zu verbessern. Dieses Argument zieht also nicht so recht, insbesondere in Anbetracht der Tatsache, dass viele Unternehmen ihre Fälligkeiten zeitlich nach hinten verlagern konnten. Damit ist es un- wahrscheinlicher geworden, dass sie sich gezwungen sehen, ihre Verbind- lichkeiten zu refinanzieren, selbst wenn es mittelfristig zu einer Rezession kommen sollte. Den Aktienmärkten bereitet dieses Thema jedenfalls keine Sorge: Auch wenn sich der Fremdkapitalanteil im Verhältnis zum Buchwert des Eigenkapitals stetig erhöht hat, ist er im Verhältnis zur Marktkapitali- sierung mehr oder weniger konstant geblieben. Aus der Perspektive des oben erwähnten Optionspreismodells hat sich der Verschuldungsgrad daher kaum verändert. Vor allem aber hat sich dieser Faktor noch nicht auf die Erwartungen zur Entwicklung der Ausfallquoten ausgewirkt. Dies zeigt sich besonders deutlich an den von den Ratingagenturen veröffentlichten Upgrade-/ Downgrade-Kennzahlen. Für die USA ist diese Kennzahl nach einem durch die Herabstufung von Rohstoffunternehmen bedingten Rückgang in den Jahren 2015-16 nun mehr oder weniger unverändert. In Europa hat sie jetzt ins Plus gedreht. Dies ist bemerkenswert, da die Ratingagenturen in den vergangenen zwanzig Jahren Unternehmen bei einer Verschlechterung ihrer Funda- mentaldaten deutlich schneller herabgestuft haben. Daher kommt es oft schon Monate vor Rekordständen an den Aktienmärkten im Vorfeld einer Rezession zu einer Ausweitung der Credit Spreads. Dies war in den späten Neunzigerjahren und in der zweiten Jahreshälfte 2007 zu beobachten. Ein erstes Alarmsignal könnten daher eine wachsende Zahl von Downgra- de-Warnungen der Ratingagenturen sein. Dies lässt auch den Schluss zu, dass die Kreditmärkte noch nicht überhitzt sind. Wer sich über die Credit Spreads Gedanken macht, sollte sich auch über die Bewertungen am Aktienmarkt Gedanken machen. 6 Die Analyse der IG-Bonitätskennzahlen basiert auf den in den Aktienindizes S&P 500 und Stoxx Europe 600 enthaltenen Nichtfinanzunternehmen, bei denen es sich größtenteils um Investment Grade-Unternehmen handelt. Konzept 35 Wie sind nun also die aktuellen Credit Spreads in der Gesamtbetrach- tung aller wichtigen Einflussfaktoren zu beurteilen? Der Zusammenhang zwischen Credit Spreads einerseits und Ausfallquoten, Verschuldung, Aktienkursen und Volatilität andererseits lässt sich mit einer Regressions- analyse quantitativ beschreiben. Auf der Grundlage wöchentlicher Daten für den Zeitraum seit 2000 sind alle Variablen hochsignifikant. Im August lagen die US High Yield Spreads etwa acht Basispunkte unter dem mit dem Regressionsmodell ermittelten Wert, US Investment Grade Spreads hingegen etwa drei Basispunkte darüber. Für das europäische Investment Grade-Segment sind es fünf Basispunkte weniger als der Modellwert. Hier schlägt sich unter Umständen die zusätzliche Nachfrage durch das laufen- de Anleihekaufprogramm der EZB nieder. 7 Alles in allem ist das aktuelle Spreadniveau nicht weit von den Ergebnissen des Modells entfernt. Das Modell ist nicht darauf ausgelegt, einen exakten „Richtwert“ für Credit Spreads zu produzieren. Die Modellergebnisse lassen jedoch darauf schließen, dass die Spreads in Anbetracht der erwarteten Ausfallquoten, der Kursentwicklung am Aktienmarkt und der Verschuldungssituation bei den Unternehmen im historischen Vergleich in etwa im Rahmen liegen. Mit überhitzten Kreditmärkten ist in der Untergangsrhetorik in der Regel eine wesentlich stärkere Fehlbewertung gemeint als ein paar magere Basispunkte bei den Spreads. Natürlich sind die Kreditmärkte wie auch die Aktienmärkte nicht immun gegen unerwartete Schocks. Credit Spreads sind tatsächlich be- sonders anfällig für Ereignisse wie die Herabstufung von Ford- und General Motors-Anleihen auf Junk-Status im Jahr 2005, die Lehman-Pleite 2008, die Schuldenkrise in den USA 2011, die Euro-Krise 2012 und den Einbruch des Ölpreises 2015. Solche Ereignisse sorgen für große Unsicherheit in Bezug auf Veränderungen bei den Fundamentaldaten der Unternehmen und die Entwicklung der Ausfallquoten. Außerdem kommt es an den Ak- tienmärkten oft zu einem Kursrutsch und einem sprunghaften Anstieg der Volatilität. Sicherlich weiten sich die Credit Spreads tendenziell wesentlich stär- ker aus, als durch diese Auslöser gerechtfertigt wäre, denn der Markt für Unternehmensanleihen ist ein OTC-Markt, der im Falle eines Schocks sehr illiquide werden kann. Solche Phasen waren in der Vergangenheit gute Kaufgelegenheiten. Trotz der anhaltenden Unkenrufe, die Kreditmärkte seien überhitzt, liegen die Spreads am Markt für Unternehmensanleihen mit Blick auf tra- ditionelle Einflussfaktoren wie Aktienkurse, Bilanzkennzahlen und künftige Ausfallwahrscheinlichkeiten durchaus im Rahmen. Mit einer Eintrübung der konjunkturellen Perspektiven wird es aller Voraussicht nach zu einer Spreadausweitung kommen. Ansonsten dürften sich die düsteren Prog- nosen der Untergangspropheten jedoch nur im Falle eines unerwarteten makroökonomischen Schocks bewahrheiten. 7 Im Rahmen ihres Corporate Sector Purchase Programme (CSPP) kauft die EZB seit Juni 2016 monatlich Unternehmensanleihen in einem Volumen von EUR 7,5 Mrd. an. 36 Credit Spreads—Alarmstufe Rot oder alles im grünen Bereich? Das transatlantische Bewertungsgefälle— noch ein unverschämter Vorteil? John Tierney, Sebastian Raedler Konzept 37 In Amerika ist alles eine Nummer größer – Autos, Häuser, Portionen und sogar die Bewertungen am Aktienmarkt haben ganz andere Dimensionen. So sind Anleger derzeit der Ansicht, dass US-Unternehmen gut das Dreifache ihres Buchwertes wert sind. Mit einem Kurs-Buchwert- Verhältnis (KBV) von 1,8 scheinen europäische Aktien im Vergleich geradezu spottbillig. 1 1 Sofern nicht anders angegeben, sind mit „US-Unternehmen“ oder „amerikanischen Unternehmen“ in diesem Artikel die Unternehmen im S&P 500 und mit „europäische Unternehmen“ die Unternehmen im STOXX 600 gemeint. Konzept 38 Dass US-Aktien bei Anlegern höher im Kurs stehen als europäi- sche Titel, ist keine vorübergehende Anomalie, sondern eine anhaltende Grundtendenz. Das KBV für amerikanische Unternehmen lag in den letzten zwanzig Jahren im Durchschnitt fast 50 Prozent über dem KBV für den eu- ropäischen Aktienmarkt. Mit aktuell 70 Prozent bewegt sich dieser Bewer- tungsaufschlag am oberen Rand des Spektrums für diesen Zeitraum. Doch selbst am unteren Rand bestand in den zwei Jahren vor dem Ausbruch der Finanzkrise 2008 immer noch ein Bewertungsgefälle von 20 Prozent. Warum bewerten Anleger amerikanische Unternehmen grundsätz- lich höher? Vor der Beantwortung dieser Frage wollen wir kurz auf eine mögliche Erklärung eingehen, die letztendlich allerdings keinerlei prakti- sche Relevanz hat: die ganz unterschiedliche Branchenstruktur der großen amerikanischen und europäischen Aktienindizes. Zunächst einmal klammern wir den Finanzsektor aus, der in der Tendenz zu verzerrten Vergleichsergebnissen führt. Doch selbst ohne Finanzwerte ergibt sich für den S&P 500 noch ein KBV von 3,6, das damit um einen Faktor 2,3 über dem Wert für den Stoxx 600 liegt. Der Bewer- tungsaufschlag bleibt ein Faktum, auch wenn man Finanzunternehmen zu Vergleichszwecken unberücksichtigt lässt. Von den Finanzwerten einmal ganz abgesehen, wird oft argumentiert, schwerfällige Industrie-Dinosaurier belasteten das Bewertungsniveau an den europäischen Märkten, während der Unternehmenssektor in den USA mit einer Vielzahl an hoch bewerteten Technologieriesen gesegnet sei. Anleger sprechen heute ganz selbstverständlich von FAANG (Facebook, Amazon, Apple, Netflix und Google). Diese neue Modeerscheinung im Bör- senjargon bringt die Dominanz von Technologie-Highflyern am US-Markt auf den Punkt. Doch selbst wenn man die offensichtlichen Ausreißer nach oben herausrechnet, liegt das KBV für den S&P 500 ex Financials immer noch bei etwa 3,3. Und auch bei Betrachtung des US-Marktes ohne den gesamten Technologiesektor und den Sektor für zyklische Konsumgüter verharrt der US-Index bei einem KBV von 3,1. Das Bewertungsniveau des europäischen Index sinkt unter Ausklammerung derselben Sektoren entsprechend. Unterschiede in der Branchenstruktur allein erklären das Bewertungsgefälle zwischen den USA und Europa also nicht. Welche Erklärung greift dann? Bei der Beantwortung dieser Frage hilft das Gordon-Growth-Modell. Diesem Modell zufolge ist das Kurs-Buchwert-Verhältnis eine Funktion der Eigenkapitalrendite, der Eigen- kapitalkosten und des Dividendenwachstums. 1 Diese Gleichung impliziert, dass sich das KBV erhöht, wenn Eigenkapitalrendite oder Dividenden- wachstum steigen oder aber die Eigenkapitalkosten sinken. Mit diesen Variablen lässt sich gut arbeiten, steht doch die Eigenkapitalrendite für die fundamentale Gesundheit eines Unternehmens, während die Eigenkapi- talkosten die Renditeerwartungen der Anleger in Bezug auf das Unterneh- men widerspiegeln. 1 Gordon-Formel: KBV = (Eigenkapitalrendite – g) / (Eigenkapitalkosten – g), wobei g für das Dividendenwachstum steht. Konzept 39 Mit diesem Ansatz können wir das KBV-Bewertungsgefälle zwischen den USA und Europa in zwei Komponenten aufgliedern: die besseren Funda- mentaldaten und die niedrigeren Renditehürden für US-Unternehmen. Sehen wir uns diese beiden Faktoren nun jeweils genauer an. Beschäftigen wir uns dabei zunächst mit der Frage, wie viel besser die Fundamentaldaten in der neuen Welt im Vergleich mit der alten Welt in den letzten zwanzig Jahren auf Basis der Eigenkapitalrendite tatsächlich waren. Über den Zeitraum von 1997 bis 2005 lagen die Eigenkapitalren- diten amerikanischer Unternehmen fast durchweg etwa zwei bis drei Prozentpunkte über den Eigenkapitalrenditen in Europa. Dementsprechend waren die KBVs 40 bis 70 Prozent höher. Ab etwa 2005 holten die europä- ischen Unternehmen auf, und die Eigenkapitalrenditen in beiden Regionen konvergierten. Das Kurs-Buchwert-Verhältnis am europäischen Aktien- markt stieg von zwei auf 2,5, während es in den USA bei etwa 3 konstant blieb. Damit verringerte sich der Bewertungsabstand zwischen den USA und Europa auf 20 Prozent. Seit 2008 läuft die Entwicklung bei der Eigenkapitalrendite diesseits und jenseits des Atlantiks wieder stark auseinander. Während US-Unter- nehmen seit 2011 konstant Eigenkapitalrenditen in einer engen Spanne von 14 bis 15 Prozent erzielen, konnte die europäische Konkurrenz mit durchschnittlich 11,2 Prozent in den letzten fünf Jahren nicht mithalten. Der Bewertungsaufschlag für amerikanische Unternehmen ist also zum Teil auf deren höhere Eigenkapitalrenditen zurückzuführen. Doch was macht US-Unternehmen so viel profitabler? Auch bei der Beantwortung dieser Frage hilft uns wieder ein Analyseinstrument: das DuPont-Schema. Dieses Kennzahlensystem wurde in den 1920er Jahren von dem US-Che- miekonzern DuPont entwickelt, um die einzelnen für die Ertragsentwick- lung des Unternehmens bestimmenden Faktoren besser zu verstehen. Im Kern ist die Eigenkapitalrendite nach diesem Ansatz das Produkt aus drei Faktoren – Verschuldung, Kapitalumschlag und Umsatzrendite. 2 Welche dieser drei Komponenten ist nun ausschlaggebend für die höheren Eigenkapitalrenditen amerikanischer Unternehmen? Beginnen wir mit der Verschuldung, also dem Vermögen eines Unternehmens im Verhältnis zu seiner Eigenkapitalbasis. Europäische Unternehmen weisen durchweg einen höheren Fremdkapitalanteil auf. An sich hätte dies jedoch höhere anstatt niedrigere Eigenkapitalrenditen erwarten lassen. So beläuft sich das Vermögen der Stoxx 600-Unternehmen aktuell auf etwa das Achtfache ihres Eigenkapitals, während diese Kennzahl für den S&P 500 bei 4,5 liegt. Selbst wenn man den Finanzsektor zu Vergleichszwecken he- rausrechnet, liegt das Verhältnis von Vermögen zu Eigenkapital für Europa immer noch bei 3,1 gegenüber 2,8 für die USA. Stärkerer Fremdkapitalein- satz ist also nicht die Ursache für die höheren Eigenkapitalrenditen jenseits 2 DuPont-Formel: Eigenkapitalrendite (RoE) = Gewinn/Eigenkapital = (Vermögen/ Eigenkapital)*(Umsatz/Vermögen)*(Gewinn/Umsatz) 40 Das transatlantische Bewertungsgefälle—noch ein unverschämter Vorteil? Über den Zeitraum von 1997 bis 2005 lagen die Eigenkapitalrenditen amerikanischer Unter- nehmen, abgesehen vom Dotcom-Crash, durchweg etwa zwei bis drei Prozentpunkte über den Eigenkapitalrenditen in Europa Konzept 41 Bei der Eigenkapital- rendite konnte die europäische Konkurrenz mit den US-Unternehmen nicht mithalten. Der „unverschämte Vorteil“, den die USA mit dem Dollar als internationaler Leitwährung haben, bringt ihnen mit höheren Bewertungen am Aktienmarkt noch einen weiteren Vorteil 42 Das transatlantische Bewertungsgefälle—noch ein unverschämter Vorteil? des Atlantiks. 3 Der Kapitalumschlag, definiert als das Verhältnis von Umsatz zu Unternehmensvermögen, ist der zweite bestimmende Faktor für die Eigenkapitalrendite. Bei dieser Kennzahl schneiden US-Unternehmen mit einem Wert von 0,33 deutlich besser ab als die europäische Konkurrenz mit 0,18. Der Finanzsektor verzerrt hier jedoch das Bild. US-Banken verkau- fen die qualitativ besten Hypotheken in der Regel an Fannie Mae, Freddie Mac und Konsorten, während sie in Europa tendenziell in den Büchern der kreditgebenden Banken verbleiben. Klammert man den Finanzsektor aus, reduziert sich das Gefälle beim Kapitalumschlag von 83 auf 33 Prozent, mit nunmehr 0,68 für europäische und 0,51 für amerikanische Unternehmen. Damit liefern diese beiden Kennzahlen, Verschuldung und Kapitalum- schlag, zusammen noch keine hinreichende Erklärung für die höheren Eigenkapitalrenditen von US-Unternehmen. Für die Gesamtindizes ergibt sich bei Kombination beider Kennzahlen in etwa dasselbe Bild. Für Nicht-Finanzwerte erklären diese beiden Faktoren in Kombination nur eine Eigenkapitaldifferenz von etwa 15 Prozent und damit bei Weitem nicht die gesamte Outperformance des US-Aktienmarktes. Erst bei der Umsatzrendite, dem dritten für die Eigenkapitalrendite bestimmenden Faktor, lassen US-Unternehmen die europäische Konkur- renz weit hinter sich. In dem Zweijahreszeitraum vor der Finanzkrise, als europäische Unternehmen bei den Margen fast mit ihren US-Pendants gleichgezogen hatten, näherten sie sich auch bei der Eigenkapitalrendite dem US-Niveau an. Damit schmolz der Bewertungsabstand zusammen und sank auf den tiefsten Stand der letzten Jahre. Seit 2012 lag die Um- satzrendite für den S&P 500 jedoch bei etwa 10 Prozent, während es die Stoxx 600-Unternehmen nur auf knapp die Hälfte brachten. Ohne den Finanzsektor ergibt sich eine Umsatzrendite von rund 8,5 Prozent für den US-Markt im Vergleich zu 5 Prozent für Europa. US-Unternehmen erzielen durchweg höhere Margen, egal welche Ergebnisgröße man zugrunde legt: Bruttoergebnis, Betriebsergebnis, EBITDA, Vorsteuerergebnis oder Reingewinn. Diskrepanzen bei den Brut- tomargen und operativen Margen sind größtenteils auf die unterschiedli- chen Marktstrukturen diesseits und jenseits des Atlantiks zurückzuführen. So ist die Marktkonzentration in den USA erheblich höher, was für höhere Bruttomargen sorgt. In den verschiedensten Branchen, egal ob Fluggesell- schaften, Mobilfunkbetreiber oder Banken, haben die vier oder fünf größ- ten Unternehmen einen Marktanteil, von dem die europäische Konkurrenz nur träumen kann. (Lesen Sie dazu auch unser erstes Feature „Können 3 Verwendet man andere Verschuldungskennzahlen wie das Verhältnis von Fremdkapital zu Eigenkapital (Debt/Equity) oder von Fremdkapital zu EBITDA (Debt/EBITDA), ergibt sich für den STOXX 600 eine niedrigere Verschuldung als für den S&P 500. Dies liegt darin begründet, dass US-Unternehmen stärker auf Fremdkapital setzen, während eu- ropäische Unternehmen sich über andere Verbindlichkeiten, u.a. kurzfristige Verbindli- chkeiten finanzieren, die nicht zwangsläufig als Fremdkapital eingestuft werden. Der Anteil des Fremdkapitals an den Gesamtverbindlichkeiten liegt für die S&P 500-Un- ternehmen bei 52 Prozent und für die Stoxx 600-Unternehmen bei 45 Prozent. Umgekehrt machen die kurzfristigen Verbindlichkeiten ohne kurzfristiges Fremdkapital in Europa einen Anteil von rund 32 Prozent an den Gesamtverbindlichkeiten aus, in den USA sind es lediglich 22 Prozent. Daran wird deutlich, wie stark sich Unternehmen jeweils über Banken oder den Kapitalmarkt finanzieren. Konzept 43 US-Unternehmen dem Ende von QE gelassen entgegensehen?“, in dem wir uns mit dem Thema sinkenden Wettbewerbsdrucks in den USA be- schäftigen.) Aufgrund flexiblerer Arbeitsmärkte und weniger Regulierung können US-Unternehmen ihren bereits bei der Bruttomarge bestehenden Vorsprung bei den operativen Margen noch weiter ausbauen. Geht man in der Gewinn- und Verlustrechnung noch eine Ergeb- nisgröße weiter, konnten US-Unternehmen bei der Vorsteuermarge den Abstand vergrößern, weil sie mit der Emission von Schuldtiteln und der Refinanzierung von Fremdkapital mehr aus dem Niedrigzinsumfeld ge- macht haben. 2007 lagen die Zinskosten für Investment Grade-Nichtfinanz- unternehmen sowohl in den USA als auch in Europa bei rund 5,5 Prozent des ausstehenden Fremdkapitals. Seit damals konnten US-Unternehmen ihre Zinsbelastung auf 3,8 Prozent drücken, während sie in Europa nach wie vor bei 4,8 Prozent liegt. Noch größer wird der Abstand schließlich bei der Nettomarge, da US-Unternehmen weniger Steuern zahlen. Auch wenn der Körperschaft- steuersatz auf dem Papier in den USA im Industrieländervergleich mit am höchsten ist, liegt die effektive Steuerbelastung bei vielen Unternehmen weit darunter. Bis 2015 lag die Gesamtsteuerbelastung 4 der Unternehmen im S&P 500 in etwa einen Prozentpunkt unter dem entsprechenden Niveau für die Unternehmen im Stoxx 600. Diese Differenz ist seither auf mehr als drei Prozentpunkte angewachsen. In der DuPont-Analyse oben haben sich höhere Margen klar als Haupttriebfeder der höheren Eigenkapitalrenditen amerikanischer Unter- nehmen herauskristallisiert. Das Margengefälle macht fast die gesamte Differenz bei der Eigenkapitalrendite für die Gesamtindizes aus. Selbst unter Ausklammerung des Finanzsektors sind noch mehr als vier Fünftel des Vorsprungs von US-Unternehmen bei der Eigenkapitalrendite in den letzten Jahren höheren Margen zuzuschreiben. Der Rest ist auf einen hö- heren Kapitalumschlag zurückzuführen, während die niedrigere Verschul- dung einen leicht gegenläufigen Effekt hat. Eine höhere Eigenkapitalrendite erklärt den Bewertungsaufschlag für US-Unternehmen jedoch auch nur zum Teil. Unternehmen mit derselben Eigenkapitalrendite werden von Anlegern nämlich durchaus nicht immer gleich bewertet. Um dies zu verstehen, müssen wir uns nun noch mit dem anderen Haupteinflussfaktor in Bezug auf das transatlantische Bewer- tungsgefälle beschäftigen, den Eigenkapitalkosten. Nach neuesten Daten liegen die Eigenkapitalkosten für S&P 500-Un- ternehmen bei knapp acht Prozent, verglichen mit 8,4 Prozent für den Stoxx 600. 5 Dieser scheinbar nur kleine Unterschied fällt stark ins Gewicht. 4 Einschließlich aller auf Bundesebene, von den US-Bundesstaaten und lokalen Gebietskörperschaften erhobenen Steuern. 5 Nach dem Gordon-Growth-Modell gilt: Eigenkapitalkosten = Dividendenrendite + g, wobei g = (Eigenkapitalrendite)*(1-Ausschüttungsquote). In der hier zugrunde gelegten Dividendenrendite sind sowohl Bardividenden als auch über Rückkäufe an die Aktionäre zurückgeflossene Liquidität enthalten. 44 Das transatlantische Bewertungsgefälle—noch ein unverschämter Vorteil? Würden die Eigenkapitalkosten in den USA auf das Niveau in Europa steigen, würde das Kurs-Buchwert-Verhältnis für US-Unternehmen ceteris paribus um fast ein Zehntel von drei auf 2,7 sinken. Damit würde sich der Bewertungsaufschlag für US-Unternehmen von 70 auf 50 Prozent redu- zieren. Der scheinbar geringe Unterschied bei den Eigenkapitalkosten ist daher für fast ein Drittel des gesamten Bewertungsgefälles zwischen den USA und Europa verantwortlich. US-Unternehmen haben über weite Strecken der letzten zwanzig Jahre von niedrigeren Eigenkapitalkosten profitiert. Warum sind diese hier grundsätzlich im Vorteil? Oder, anders gefragt, warum geben sich Anleger bei Anlagen am US-Aktienmarkt mit einer niedrigeren Risikoprämie zufrie- den? Eine strukturelle Erklärung dafür liegt in den im Vergleich zu Europa vielschichtigeren Kapitalmärkten. Auch der Umstand, dass US-Aktien in US-Dollar notieren, macht sie für internationale Anleger attraktiv, da die Rolle des Greenback im internationalen Finanzsystem die Nachfrage nach Dollar-Anlagen verstärkt. Der „unverschämte Vorteil“, den die USA mit dem Dollar als internationaler Leitwährung haben, bringt ihnen mit höhe- ren Bewertungen am Aktienmarkt noch einen weiteren Vorteil. Der Kostenvorteil amerikanischer Unternehmen beim Eigenkapital ist durch die jüngsten Marktentwicklungen noch größer geworden. So war die realisierte Volatilität an den US-Aktienmärkten seit der Finanzkrise allgemein niedriger als in Europa. Im vergangenen Jahr lag sie bei rund acht Prozent für den S&P 500 gegenüber 10,5 Prozent für den Stoxx 600. Anleger verlangen grundsätzlich eine gewisse Risikoprämie für höhere Volatilität. Die niedrigere Volatilität an den US-Märkten trägt damit zu den im Vergleich niedrigeren Eigenkapitalkosten für amerikanische Unternehmen bei. Ein wesentlicher Faktor zur Erklärung der Differenz bei den Eigenka- pitalkosten sind schließlich auch die unterschiedlichen Ausschüttungsstra- tegien amerikanischer und europäischer Unternehmen sowie die Unter- schiede in der steuerlichen Behandlung dieser Ausschüttungen. In Europa werden Ausschüttungen an Aktionäre in erster Linie in Form von Divi- denden vorgenommen, die zu persönlichen Spitzensteuersätzen in einer Größenordnung von 35-40 Prozent versteuert werden müssen. In den USA werden Dividenden als „ordinary income“ besteuert. Die persönlichen Spitzensteuersätze bewegen sich hier auf ähnlichem Niveau wie in Europa. Der entscheidende Unterschied zwischen beiden Märkten liegt jedoch im Stellenwert der Aktienrückkäufe. Während Aktienrückkäufe in den USA mehr als die Hälfte des gesamten Ausschüttungsvolumens ausmachen, entfallen darauf in Europa nur knapp fünf Prozent. Ausschüt- tungen in Form von Aktienrückkäufen werden in den USA als „capital gains“ behandelt und damit nur mit 15 oder 20 Prozent besteuert. Damit reduziert sich die effektive Steuerbelastung der gesamten Ausschüttungen an Aktionäre für Anleger am US-Aktienmarkt auf 25-30 Prozent. Deshalb sind Anleger bei US-Aktien auch mit einer niedrigeren Vorsteuerrendite zufrieden, als sie dies sonst wären. Es hat also durchaus seinen Grund, dass US-Aktien bei Anlegern hoch im Kurs stehen und gegenüber europäischen Titeln mit einem erheb- lichen Aufschlag beim Kurs-Buchwert-Verhältnis bewertet werden. Dies ist größtenteils darauf zurückzuführen, dass amerikanische Unternehmen margenstärker sind und daher höhere Eigenkapitalrenditen erwirtschaften. Konzept 45 In den letzten fünf Jahren sind die Eigenkapitalkosten von US-Unternehmen von 10,5 Prozent auf acht Prozent gesunken. Dieser Rückgang resul- tiert aus den von 50 Prozent des Reingewinns auf 75 Prozent erhöhten Ausschüttungen amerikanischer Unter- nehmen an ihre Aktionäre – einschließlich Dividen- den und Rückkäufe 46 Das transatlantische Bewertungsgefälle—noch ein unverschämter Vorteil? Darüber hinaus profitieren US-Unternehmen auch von niedrigeren Eigen- kapitalkosten, bedingt durch die starke internationale Nachfrage nach An- lagen in US-Dollar, eine geringere realisierte Volatilität und eine niedrigere effektive Steuerbelastung von Ausschüttungen an Aktionäre. Wenn man die für das Bewertungsgefälle bestimmenden Faktoren kennt, sieht man auch klarer, was passieren muss, um dieses einzuebnen. Eine Konvergenz bei den Eigenkapitalrenditen setzt wohl eine entspre- chende Konvergenz bei den Margen voraus. Wie stehen die Chancen dafür? Auf kurze Sicht könnte die bessere Arbeitsmarktsituation durch höhere Lohnzuwächse an den Margen von US-Unternehmen zehren. In Europa und insbesondere in Frankreich stehen derweil Strukturreformen zur Flexibilisierung des Arbeitsmarktes auf der politischen Agenda. Wenn diese erfolgreich umgesetzt werden, können europäische Unternehmen auf steigende Margen hoffen. Ob diese Veränderungen auf der Kostenseite an die Verbraucher weitergegeben werden oder zu nachhaltigen Margensteigerungen führen, hängt jedoch von der Wettbewerbssituation ab. Es ist durchaus möglich, dass amerikanische Unternehmen mit steigenden Löhnen ihre Preise erhöhen, während der Wettbewerbsdruck Unternehmen in Europa dazu zwingt, Kosteneinsparungen über Preissenkungen weiterzugeben. Bei diesem Thema trennen die Politik diesseits und jenseits des Atlantiks nach wie vor Welten. Wie die jüngsten Maßnahmen gegen große Technolo- gieunternehmen zeigen, fahren die Behörden in Europa einen härteren Kurs in der Wettbewerbspolitik als in den USA. Ein Kurswechsel im Ton diesseits oder jenseits des Atlantiks sollte Anlegern Anhaltspunkte dafür liefern, ob es Potenzial für substanzielle und nachhaltige Verschiebungen in der Margenentwicklung gibt. Veränderungen bei den Fundamentaldaten dürften sich ohnehin nur langsam und allmählich vollziehen. Wesentlich schneller und abrupter könn- te es durch Marktbewegungen und Veränderungen in der Wahrnehmung der Anleger zu einer Anpassung bei den Eigenkapitalkosten kommen. Konzept 47 Was könnte zu einem plötzlichen Anstieg der Eigenkapitalkosten für US-Unternehmen führen? Ein mögliches Szenario wäre, dass Anleger mit dem Ausstieg aus dem Quantitative Easing-Programm und weiteren Zinserhöhungen durch die Federal Reserve nicht mehr ganz so auf Baraus- schüttungen von Unternehmen fixiert sind. In den letzten fünf Jahren sind die Eigenkapitalkosten von US-Unternehmen stark von 10,5 Prozent auf acht Prozent gesunken. Dieser Rückgang resultiert daraus, dass amerikani- sche Unternehmen die Ausschüttungen an ihre Aktionäre – einschließlich Dividenden und Rückkäufe – von 50 Prozent des Reingewinns auf 75 Pro- zent erhöht haben, und dies sogar bei weitgehend konstanten Eigenkapi- talrenditen. 6 Rein theoretisch sollten Anleger keinerlei Reaktion auf diesen Anstieg der Ausschüttungsquoten zeigen. Höhere Ausschüttungen sollten bei unveränderten Aktienkursen nach Lehrbuch zu höheren Ausschüttungs- renditen führen und damit die Eigenkapitalkosten konstant halten. Die Praxis sieht anders aus. Ertragshungrige Anleger belohnten Unternehmen für höhere Barausschüttungen mit kräftigen Kurssteigerungen. Damit blieb die Ausschüttungsrendite im S&P 500 bei etwa vier Prozent konstant. Anstatt sich die Frage zu stellen, wie lange es Unternehmen durchhalten können, drei Viertel ihres Gewinns in bar auszuschütten, schafften Anleger mit steigenden Kursen und niedrigeren Eigenkapitalkosten noch Anreize für dieses Verhalten. Wenn Barerträge generierende Aktien in der Welt nach QE für Anleger an Faszination verlieren, könnte dies zu steigenden Eigenkapitalkosten und damit sinkenden Kurs-Buchwert-Verhältnissen bei US-Unternehmen führen. Fazit: In den vergangenen zwanzig Jahren wurden die Aktien ameri- kanischer Unternehmen grundsätzlich mit einem Bewertungsaufschlag ge- genüber der Konkurrenz aus Europa gehandelt. Viele langfristige struktu- relle Faktoren erklären dieses transatlantische Bewertungsgefälle, das sich durch das Anlegerverhalten in den letzten Jahren jedoch noch zusätzlich ausgeweitet und damit fast Rekordniveau erreicht hat. Selbst wenn diese strukturellen Faktoren auf absehbare Zeit intakt bleiben, könnte mit dem Ende von Quantitative Easing die Begeisterung für das Kursfeuerwerk am US-Aktienmarkt nachlassen. 6 Auch in Europa waren die Eigenkapitalkosten in den letzten fünf Jahren rückläufig, allerdings nicht ganz so stark wie in den USA. Außerdem sind die Ausschüttungsquoten im Bereich von 50 bis 60 Prozent stabil geblieben. 48 Das transatlantische Bewertungsgefälle—noch ein unverschämter Vorteil? Konzept 49 Columns 50 Buchrezension—The Reckoning 52 Konferenzberichte 54 Infografik—QE im Kontext 50 Konzept Buchrezension— The Reckoning Luke Templeman Man muss schon bis zum Ende seines Buches lesen, bis Jacob Soll die humoristisch anmutende, gleichzeitig aber durchaus tiefgrün- dige Frage stellt, warum heute eigentlich keine Buchhalter mehr in Gemälden verewigt werden. Im Louvre und anderen großen Museen rund um die Welt hängen viele Werke von Künstlern des 15. und 16. Jahrhunderts, in denen Buchhalter als fromme und aufrechte Bürger dargestellt werden. Die naheliegendste Antwort dürfte wohl sein, dass das Image dieser Berufsgruppe durch Skandale wie die Steuersünden von Al Capone oder den Bilanzschwindel von Enron schwer beschädigt wurde. Soll hingegen sieht den Hauptgrund dafür darin, dass Buchhaltung heute einen anderen wirtschaftlichen und kulturellen Stellenwert hat als früher. Dabei stützt er sich auf verschiedene Beispiele, die zeigen sollen, welche Rolle die Finanzbuchhaltung beim Auf- stieg oder Fall einiger der größten Imperien der Geschichte gespielt hat. Zuerst gilt es sich daran zu erinnern, dass schon der römische Kaiser Augustus seine politi- sche Legitimität unmittelbar mit der Transparenz seiner Finanzen verknüpfte. Heute findet man römische Ziffern allerdings nur noch in Stein ge- meißelt, sind doch schon kompliziertere Brüche damit kaum darstellbar. So ließen sich Betrug und Korruption in großem Stil lange vertuschen, bis das römische Reich schließlich mit daran zugrunde ging. Es war auch kein Zufall, dass nach den dunklen und mageren Jahren des Mittelalters die Wirtschaft in der Renaissance eine neue Blüte- zeit erlebte, nachdem Fibonacci die Verwendung des arabischen Zahlensystems in Europa propa- giert hatte. Komplexe mathematische Rechen- operationen wurden so zum Kinderspiel, das Rechnungswesen florierte, und die italienischen Stadtstaaten konnten ihren Reichtum mehren. Cosimo de Medici, der größte Geschäfts- mann zur damaligen Zeit, begann seine be- rufliche Laufbahn schon als junger Mann im Bankgeschäft. Selbst im Zenit seines Erfolgs prüfte er die Bücher zahlreicher Filialen noch selbst und war dafür bekannt, diese Zeile für Zeile persönlich durchzugehen. Dass ein CEO sich heutzutage damit abgibt, ist ein geradezu abstruser Gedanke. Auch für den spanischen König Philipp II. war Buchhaltung noch Chefsache. Er rechnete aus, dass die Kosten für den Unterhalt sei- ner Armee doppelt so hoch waren wie seine Einnahmen und die Schulden des Königreichs das Fünfzehnfache betrugen, was eine Gefahr für seine Macht darstellte. Wären die Finanzen daraufhin nicht in Ordnung gebracht worden, wäre die spanische Armada 1588 wohl kaum für den Krieg gegen England gerüstet worden. Dann wäre dem Land aber auch das durch deren Nie- derlage ausgelöste finanzielle Desaster erspart geblieben, das allerdings den Ruf nach noch um- fassenderen Reformen der Staatsfinanzen und Bilanzprüfungen lauter werden ließ. Dies stieß auf heftigen Widerstand bei den Plutokraten, sodass mit dem Tod Philipps II. auch bald die Reformbestrebungen im Sande verliefen. Wie in Rom wütete auch hier die Korruption, und die Monarchie musste innerhalb kürzester Zeit den Staatsbankrott erklären. Der Aufstieg der Niederlande zu einer der führenden Handelsmächte war ebenso einem soliden Rechnungswesen zu verdanken, war dies doch eine Grundvoraussetzung für die Entstehung von Unternehmen mit einer Vielzahl von Gesellschaftern wie der Niederländischen Ostindien-Kompanie, die trotz nur sporadischer Buchprüfungen zur ersten börsennotierten Aktiengesellschaft der Welt avancierte. Auf der anderen Seite des Ärmelkanals machte der britische König Karl II. von sich reden, als er innerhalb des Schatzamts einen Rechnungshof einsetzte und damit das Parla- ment in Sorge versetzte, die Macht des Königs könne dadurch zu groß werden. Im Grunde Konzept 51 verschaffte sich der König durch saubere Bücher Zugang zu weiteren Einnahmequellen. Doch nach nur zehn Jahren hatte das Parlament genug Geld zur Verfügung, um die Glorious Revolution zu finanzieren und Karl II. vom Thron zu stürzen. Wenig später machte sich Robert Walpole einen Namen als Finanzgenie. In Anbetracht der Tatsache, dass 60 Prozent der Staatseinnah- men des Landes in die Zinsen für die Schulden flossen, die zur Finanzierung des Krieges gegen Frankreich aufgenommen worden waren, sprach sich Walpole für eine Umschuldung über die South Sea Company aus. Als die Südseeblase schließlich platzte, stellte sich heraus, dass die Gewinne Makulatur waren und das gesamte Unternehmen von einem Geflecht aus Beste- chungen durchzogen war. Walpole geriet in den Fokus der Ermittlungen. Zum Glück für ihn floh der Schatzmeister des Unternehmens mit dem sogenannten „Green Book“, in dem all die Personen verzeichnet waren, die Bestechungs- gelder erhalten hatten. Walpole kam ungescho- ren davon und wurde Großbritanniens erster Premierminister. Und hier lässt sich wieder die Brücke zur Ausgangsfrage schlagen. Vielleicht gäbe es die Gemälde von Führungspersönlichkeiten in Politik und Wirtschaft wie Augustus, de Medici, Philipp II. oder Walpole gar nicht, wenn sie nicht so versierte Buchhalter gewesen wären. Doch heute sieht man in Buchhaltern nicht die Macher, sondern nur noch die Zahlenreiter. Und genau darin liegt laut Soll die Gefahr einer neuen Krise. 52 Konzept Konferenzberichte Virtuelle Realität, künstliche Intelligenz, Maschinenlernen, Internet der Dinge. Wo sonst könnte man sich besser über die neuesten technologischen Trends und Innovationen informieren als im Silicon Valley? Dorthin hat sich auch unser Konferenzspion vergangenen Monat begeben, um zu hören, was die Bran- chenexperten bei der ersten Internet Conference der Deutschen Bank in Palo Alto zu berichten hatten. Einige der Highlights hat der Konferenz- spion an dieser Stelle für uns zusammengefasst. Im Diskussionsforum zum Thema virtuelle Realität erfuhren die Konferenzteilnehmer, dass der Verbrauchermarkt für virtuelle Realität trotz der massiven Investitionen von Facebook und Co. in naher Zukunft vermutlich keine signifi- kante Größe erreichen wird. Die Technologie ist jedoch bereits massentauglich und steht beim Einsatz durch Unternehmen derzeit vor einem Wendepunkt. Unternehmen können die Techno- logie bei der Schulung von Mitarbeitern nutzen, da die virtuelle Realität es den Schulungsteilneh- mern ermöglicht, in unbekannte und schwierige Szenarien einzutauchen, ohne einem Risiko aus- gesetzt zu sein. Wal-Mart beispielsweise nutzt die VR-Technologie bereits bei der Weiterbildung seiner Mitarbeiter. Zudem könnte die Techno- logie unter anderem für Flugsimulationen, bei Fertigungs- und Verpackungsanlagen und sogar bei der Simulation schwieriger Managementge- spräche zum Einsatz kommen. Das Fazit der Diskussionsrunden zu künstli- cher Intelligenz und Maschinenlernen fiel ähnlich aus, handelt es sich doch in beiden Fällen um noch junge, sich rasant entwickelnde Technolo- gien. Zweifelsohne hat KI einen spürbaren Ein- fluss auf Unternehmen und unsere Gesellschaft. KI ist der Schlüssel zur Verarbeitung riesiger Datensätze und liefert wertvolle Erkenntnisse mit weit höherer Aussagekraft als herkömmliche Kundenverhaltensmuster, die sich aus offen- sichtlichen Attributen wie Geschlecht, Alter oder Herkunft ableiten lassen. Immer besser gelingt es, maschinengestützt überraschende Zusam- menhänge aufzuzeigen, und die noch in den Kinderschuhen steckende künstliche Intelligenz entwickelt sich rasch von einer wissenschaftli- chen Spielerei zu einer Technologie mit immer mehr Praxisrelevanz. Kritiker befürchten zwar, dass der vorrangi- ge Einsatz von KI dazu führen wird, dass letztlich nur einige wenige Unternehmen und Personen von den Vorzügen der Technologie profitieren. Das Diskussionsforum zeigte jedoch einige Gründe auf, die dagegensprechen, dass KI-Tech- nologien von ganzen Branchen Besitz ergreifen und Arbeitsplätze vernichten werden. Sicherlich wird sich die Art zu arbeiten in einigen Bereichen ändern, Umwälzungen in Gesellschaft und Arbeitswelt wie bei einer in- dustriellen Revolution sind durch die wachsende Verbreitung von KI jedoch kaum zu befürchten. Große Technologieunternehmen haben bei- spielsweise vor Kurzem versuchsweise Roboter eingesetzt, die Fragen der Öffentlichkeit beant- worten sollten. In einigen Fällen musste das Experiment bereits nach kürzester Zeit abgebro- chen werden, da die Maschinen anfingen, Dinge zu sagen, die bei PR-Mitarbeitern die Alarmglo- cken schrillen ließen. Maschinen können Menschen schlichtweg nicht ersetzen, solange sie nicht in der Lage sind, komplexe Gespräche mit unerwartetem Verlauf auch nur annähernd so zu führen, wie dies in der Geschäftswelt notwendig ist. Doch natürlich wird sich die Technologie weiterentwickeln und es werden sich zahlreiche Bereiche finden, in denen sie immer erfolgreicher eingesetzt werden kann. Eine andere Technologie, die sich nach und nach durchsetzt, war Gegenstand einer weiteren Diskussionsrunde, die sich mit den Nutzererleb- nissen in Online-Reisebüros beschäftigte. Muss- te man sich vor 15 Jahren für eine Hotelbuchung noch durch ein Gewirr PC-basierter Webseiten kämpfen, ist es auf dem Smartphone heute ein Kinderspiel, das richtige Hotel zu finden und Notizen von der Internet Conference der Deutschen Bank Konzept 53 zu reservieren. Die Optimierung des mobilen Nutzererlebnisses war daher auch eines der zentralen Themen dieses Diskussionsforums. Die mobile Benutzeroberfläche einer Plattform ist nach wie vor das entscheidende Kriterium für ein positives Nutzererlebnis, eine erfolgreiche Anwendung und somit letztlich für den Unter- nehmenserfolg. Weitere wichtige Kernpunkte waren die zunehmende Verbreitung von künstlicher Intelligenz und Maschinenlernen. Algorithmen unterstützen die Reisebranche bei der Erhebung von Daten und der Erstellung von Kundenpro- filen und schaffen so die Voraussetzung für die Bereitstellung stärker personalisierter Plattfor- men für Suche und Buchung. Die Unternehmen können so ihr Angebot anpassen und flexibler auf Preisänderungen reagieren. Gespannt lauschten die Konferenzteilneh- mer auch den Berichten über den USD 12 Mrd. schweren Markt für das abobasierte Chartern von Privatjets. Zwar hat der Bereich mit zu ge- ringer Auslastung und schrumpfenden Margen zu kämpfen, birgt jedoch durchaus Potenzial bei Last-Minute-Buchungen im privaten Luftverkehr. 54 Konzept Infografik—QE im Kontext US (in Bill. $) Verschuldung Unternehmen* Jährliche Wirtschaftsleistung Marktkapitalisierung Aktienmarkt Bilanzsumme Zentralbank 4,5 0,9 21,2 7, 9 13,7 10,7 19,2 14,5 Heute 2008 * Verschuldung Nicht-Finanzunternehmen in den USA und der Eurozone. Konzept 55 Verschuldung Unternehmen* Jährliche Wirtschaftsleistung Marktkapitalisierung Aktienmarkt Bilanzsumme Zentralbank 4,3 1,5 8,0 3,7 14,6 12,9 11,1 9,5 Europa (in Bill. €) Konzept 56 Disclaimer Originalveröffentlichung in englischer Sprache: 2. Oktober 2017. Veröffentlichung der deutschen Ausgabe: 9. Oktober 2017. Die vorstehenden Angaben stellen keine Anlage-, Rechts- oder Steuerberatung dar. Alle Meinungsaussagen geben die aktuelle Einschätzung des Verfassers wieder, die nicht notwendigerweise der Meinung der Deutsche Bank AG oder ihrer assoziierten Unternehmen entspricht. Alle Meinungen können ohne vorherige Ankündigung geändert werden. Die Meinungen können von Einschätzungen abweichen, die in anderen von der Deutsche Bank veröffentlichten Dokumenten, einschließlich Research- Veröffentlichungen, vertreten werden. Die Deutsche Bank kann geschäftliche Transaktionen in Wertpapieren, als Eigenhandelsgeschäft oder für Kunden, durchführen, die nicht mit der in diesem Researchbericht dargestellten Sichtweise übereinstimmen. Das Risiko von Verlusten bei Termin- und Optionsgeschäften kann weitgehend sein. Wegen des hohen Ausmaßes einer Fremdmittelfinanzierung der Termin- und Optionsgeschäfte können die auflaufenden Verluste höher sein als die ursprünglich in die Geschäfte investierten Beträge. Die vorstehenden Angaben werden nur zu Informationszwecken und ohne vertragliche oder sonstige Verpflichtung zur Verfügung gestellt. Für die Richtigkeit, Vollständigkeit oder Angemessenheit der vorstehenden Angaben oder Einschätzungen wird keine Gewähr übernommen. In den Vereinigten Staaten von Amerika wird dieser Researchbericht verantwortet und verbreitet von der Deutschen Bank Securities Inc., Mitglied der FINRA. In Deutschland wird dieser Bericht von Deutsche Bank AG Frankfurt genehmigt und/oder verbreitet, die über eine Erlaubnis zur Erbringung von Bankgeschäften und Finanzdienstleistungen verfügt und unter der Aufsicht der Europäischen Zentralbank (EZB) und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) steht. Im Vereinigten Königreich wird dieser Bericht durch Deutsche Bank AG, Filiale London, Mitglied der London Stock Exchange, genehmigt und/oder verbreitet, die von der UK Prudential Regulation Authority (PRA) zugelassen wurde und der eingeschränkten Aufsicht der Financial Conduct Authority (FCA) (unter der Nummer 150018) sowie der PRA unterliegt. In Hongkong wird dieser Bericht durch Deutsche Bank AG, Hong Kong Branch, in Korea durch Deutsche Securities Korea Co. und in Singapur durch Deutsche Bank AG, Singapore Branch, verbreitet. In Japan wird dieser Bericht durch Deutsche Securities Inc. genehmigt und/oder verbreitet. In Australien sollten Privatkunden eine Kopie der betreffenden Produktinformation (Product Disclosure Statement oder PDS) zu jeglichem in diesem Bericht erwähnten Finanzinstrument beziehen und dieses PDS berücksichtigen, bevor sie eine Anlageentscheidung treffen. Dieser Resarchbericht darf nicht ohne vorherige Erlaubnis der Deutsche Bank AG vervielfältigt, verbreitet und/oder veröffentlicht werden. Bei Zitaten wird um Quellenangabe „Deutsche Bank Research“ gebeten. Konzept 57 Konzept 57