1. Research
  2. Produkte & Themen
  3. Publikationsreihen
  4. Konzept
30. Juni 2016
Eine lahmende Wirtschaft, die massive Flüchtlingskrise und ein wenig vertrauenerweckendes Bankensystem – allem Anschein nach steht Europa vor unlösbaren Problemen. Zwar existieren vernünftige Lösungen. Umsetzen lassen sich diese jedoch nur, wenn althergebrachte und liebgewonnene Ansichten und die ökonomischen Dogmen der vergangenen Jahrzehnte über Bord geworfen werden. Politische Entscheidungsträger müssen mutig und entschlossen neue Wege gehen, wenn sie Europas Zukunft sichern wollen. [mehr]
KONZEPT Ausgabe 08 Wie können die drei größten Probleme Europas gelöst werden? Juni 2016 Eine lahmende Wirtschaft, die massive Flüchtlingskrise und ein wenig vertrauenerweckendes Bankensystem – allem Anschein nach steht Europa vor unlösbaren Problemen. Zwar existieren vernünftige Lösungen. Umsetzen lassen sich diese jedoch nur, wenn althergebrachte und liebgewonnene Ansichten und die ökonomischen Dogmen der vergangenen Jahrzehnte über Bord geworfen werden. Politische Entscheidungsträger müssen mutig und entschlossen neue Wege gehen, wenn sie Europas Zukunft sichern wollen. Cover story Wie können die drei größten Probleme Europas gelöst werden? Willkommen zur achten Ausgabe unseres Magazins Konzept – Flaggschiff von Deutsche Bank Research und Plattform für große Ideen, wichtige Themen und ungewöhnliche Analysen. In dieser Ausgabe befassen wir uns mit drei der heikelsten Probleme, denen Europa derzeit gegenüber steht: ein dahinsiechendes Wirtschaftswachstum, die Flüchtlingskrise und ein Bankensektor, der selbst acht Jahre nach der Finanzkrise noch damit zu kämpfen hat, irgendwen zufrieden zu stellen. In unseren drei Sonderbeiträgen zeigen wir auf, dass vernünftige Lösungen durchaus existieren, sofern Regierungen, politische Entscheidungsträger, Investoren und auch die Öffentlichkeit bereit sind, althergebrachte und liebgewonnene Ansichten und ökonomische Dogmen zu überwinden. Als erstes fordern wir von der Europäischen Zentralbank, ihre anhaltende Lockerung der Geldpolitik zu beenden. Mag sein, dass dieser Pfad einst der richtige war – zum aktuellen Zeitpunkt jedoch wird der Preis, der dafür zu zahlen ist, immer höher. Es gibt jede Menge Verzerrungen, Sparer werden abgestraft, Spekulanten belohnt, und gleichzeitig wurde in ganz Europa der schmerzhafte Reformdruck auf Regierungen erheblich gelockert. Auch für die Flüchtlingskrise in Deutschland zeigen wir drei zentrale Bereiche auf, in denen Gegner und Befürworter von Zuwanderung in der Lage sein sollten, eine gemeinsame Grundlage zu finden und damit die Immigrationsdebatte voranzubringen. Am wichtigsten dabei ist, dass das Problem von Kosten und Ungerechtigkeit nur durch Reformen des Sozialstaates zu lösen ist, sodass Neuankömmlinge erst nach und nach Ansprüche auf Sozialleistungen erwerben. Wir erläutern, dass ein stufenweiser Ansatz für das Sozialsystem keineswegs die verabscheuungswürdige Ausnahme ist, als die sie von manchen dargestellt wird. Tatsächlich handelt es sich dabei um eine Praxis, die auf der ganzen Welt weit verbreitet ist. Unser letzter Sonderbeitrag befasst sich mit den Banken in Europa und legt dar, dass es an der Zeit ist, dem Sektor die Möglichkeit zu geben, seine Aufgaben richtig zu machen. Es besteht sicherlich kein Zweifel daran, dass der Finanzsektor schon vor der Krise vom rechten Pfad abgekommen ist und viele Reformen überfällig sind; dennoch ist durchaus die Frage berechtigt, ob sich eine Regulierung, wie sie im Versorgungssektor angewandt wird, nicht als kontraproduktiv erweisen könnte. Banken sind zu nervös, um Kredite zu vergeben; ächzen unter zu starken Belastungen, um für Liquidität an den Märkten zu sorgen; und sie sind zu eingeschränkt in ihrem Handlungsspielraum, um unternehmerische Risiken mit Blick in die Zukunft einzugehen. Die Auswirkungen auf das Wirtschaftswachstum werden allmählich jedem bewusst. Ebenso stellen wir in Frage, ob das System insgesamt wirklich sicherer ist, selbst wenn es die Banken sicherlich sind. Wir bieten praktische Lösungen für diese drei großen Probleme, denn schließlich handelt es sich dabei keineswegs um intellektuelle Gedankenspiele. Das Projekt Europa wird derzeit von vielen Seiten attackiert, nur wenn jedes dieser Probleme relativ reibungslos gelöst wird, kann Europa langfristig bestehen. Wir greifen noch nicht einmal das Thema Brexit oder Griechenland oder russischer Revanchismus in dieser Editorial Konzept Konzept Konzept Wenn Sie Ihr Feedback geben oder mit den Verfassern in Kontakt treten möchten, wenden Sie sich bitte zunächst an Ihren Kundenbetreuer der Deutschen Bank oder schreiben Sie an das Team research.haus@db.com. Ausgabe auf. Dennoch mangelt es uns nicht an Hoffnung, und wir bitten die Entscheidungsträger inständig, allen Ideen ein offenes Ohr zu schenken, seien diese noch so ungewöhnlich. Mit einem breiten Themenspektrum blicken wir in unseren kürzeren Artikel über den europäischen Tellerrand hinaus. So erläutern wir, wie fahrerlose Technologie zwar zu weniger Autos auf den Straßen führen könnte, den Autobauern gleichzeitig aber immer noch einen Nachfrageanstieg bescheren würde. Treibender Nachfragefaktor hinter allem – von Autos in Indien bis hin zur Unfallversicherung in den USA – ist das Wetter, und wir untersuchen die Auswirkungen, die ein für dieses Jahr vorhergesagter Umschwung von einem El- Niño- auf ein La-Niña-Wetterphänomen hätte. Noch eine Branche wartet verzweifelt auf eine Verbesserung der Wetterbedingungen: das aktive Fondsmanagement. Bei dieser Thematik legen wir die günstige Lage für Stock Picking, also die gezielte Auswahl von Einzeltiteln, dar. Und schließlich geht es noch um den Kampf, der um Ihren nächsten Gehaltsscheck toben wird, und darum, wie sich die Höhe Ihrer Gehaltserhöhungen auf die Renten- und Aktienmärkte auswirkt. Die Rubriken auf den hinteren Seiten des Magazins beinhalten u.a. eine Rezension von „Bloodsport“, ein Buch, das die Geschichte der amerikanischen Unternehmenslandschaft durch Übernahmedeals erzählt. Die besten Einblicke in die Deutsche Bank Konferenz „Access Asia“ liefert Ihnen der Konferenzspion. Und ganz am Schluss bringt Sie unsere Infografik zurück nach Europa, denn darin beleuchten wir, wie sehr die Realität auf diesem Kontinent von dem abweicht, was die Menschen wahrnehmen. David Folkerts-Landau Chefvolkswirt der Deutschen Bank und Global Head of Research Konzept Articles 06 Wie sieht die Zukunft der Automobilbranche aus? 08“Scrip dividends”—eine große Mogelpackung 11 El Niño—oder wie ist das Wetter? 14 Die Rückkehr der Stockpicker 17 Löhne, Unternehmensgewinne und Preis— Verteilungskonflikte Columns 56 Buchrezension—Von blutigen Übernahmen 57 Konferenzberichte—dbAccess Asia 58 Infografik—Wahrnehmung und Realität Konzept Konzept Features Rückkehr in positive Gefilde—Argumente für eine Zinserhöhung durch die EZB 21 Bankenregulierung— lasst die Banken ihren Job machen 44 Zuwanderung— Wie sich Arbeit bezahlt macht 30 Konzept5 In den Augen der Skeptiker sind die Unsummen, die Autobauer in die Entwicklung autonomer Fahrzeuge stecken, pure Geldverschwendung. Unweigerlich werden vielfach Parallelen zur Concorde gezogen. Dieses Überschallflugzeug war zwar eine technische Pionierleistung, konnte die Investitionskosten jedoch bis zum Ende nicht wieder reinholen. Viele dieser Pessimisten machen es sich jedoch zu leicht, wenn sie dies einfach auf die Entwicklung in der Automobilindustrie übertragen. In diesem Fall liegt die Motivation der Autobauer nämlich nicht darin, durch Investitionen in diese technischen Neuerungen das Fundament für einen neuen Wachstumsmarkt zu legen, sondern vielmehr darin, dass es verheerende Folgen hätte, hier den Anschluss zu verpassen. Zahlreiche wissenschaftliche Studien sagen eine drastische Reduzierung der Anzahl der Fahrzeuge auf unseren Straßen durch selbststeuernde Autos voraus. Laut einer Studie der University of Utah könnte ein einziges Robo-Taxi de facto zwölf konventionelle Fahrzeuge ersetzen. Eine andere Studie kommt zu dem Ergebnis, dass ein Drittel der aktuellen Anzahl an Fahrzeugen auf Singapurs Straßen ausreichen würde, um sämtliche Einwohner der Stadt ans Ziel zu bringen, wenn diese Autos ausnahmslos autonom fahren würden. Unheil droht außerdem durch die zunehmende Verbreitung von On-Demand- Taxidiensten wie Uber und Lyft. Im vergangenen Jahr belief sich der in den USA erwirtschaftete Umsatz dieser Unternehmen auf USD 30 Mrd. – und das, obwohl nach wie vor nur 0,1 Prozent der gefahrenen Meilen auf diese Akteure entfielen. Die Theorie besagt, dass immer mehr Autos von den Straßen verschwinden werden, je billiger und einfacher es wird, einen Fahrdienst zu rufen. Einer Studie des MIT zufolge wären bei Wie sieht die Zukunft der Automobilbranche aus? Rod Lache, Tim Rokossa, Ross Seymore, Johannes Schaller einem Umstieg auf On-Demand-Fahrzeuge zwei Fünftel der 13.500 New Yorker Taxis überflüssig. Da überrascht es wohl kaum, dass der Preis für eine Taxi-Lizenz in New York, der vor zwei Jahren bei rund USD 1 Mio. lag, inzwischen um die Hälfte gesunken ist. Und damit nicht genug – auch die Einstellung zum eigenen Auto scheint sich zu wandeln. Legen nach wie vor mehr als 75 Prozent der Amerikaner Wert auf das eigene Auto, sind es bei der jüngeren Bevölkerungsgruppe der „Generation Y“ oder auch „Millennials“ nur noch 64 Prozent, die Autos als bevorzugtes Transportmittel ansehen. Zudem ist seit dem Jahr 2000 der Anteil der 16- bis 24-Jährigen mit Führerschein von 76 Prozent auf aktuell 71 Prozent geschrumpft. In Europa lassen sich ähnliche Trends feststellen. So verlockend für die meisten die Aussicht auf staufreiere Straßen ist, in den Augen der Automobilhersteller birgt sie die Gefahr eines strukturellen Niedergangs des Automobilmarktes, und das ausgerechnet, nachdem man sich nach der Krise wieder mühsam berappelt hat. Doch diese Sorge ist unbegründet. Zwar wird die Zahl der Fahrzeuge auf den Straßen durch die zunehmende Verbreitung von On-Demand- Diensten und autonomen Fahrzeugen ohne Zweifel zurückgehen, doch das Phänomen verspricht für die Branche tatsächlich einen Umsatzschub. Wie ist das möglich? Hier lohnt ein Blick auf den Effekt, den sinkende Kosten auf die künftige Nachfrage haben. On-Demand-Dienste wie Uber und Lyft erfreuen sich eines fulminanten Wachstums, weil sie nicht nur praktisch sind, sondern auch massive Kosteneinsparungen bringen. In den 20 größten Ballungsgebieten der USA, in denen mehr als ein Drittel der US- Haushalte angesiedelt sind, könnten unseren Schätzungen zufolge vier Prozent der Haushalte ihre Kosten durch den Verzicht auf ein eigenes Auto und den Umstieg auf On-Demand-Dienste sofort drosseln. Für dicht besiedelte städtische Gebiete wie New York oder San Francisco ist dieser Wert sogar mit 14 Prozent anzusetzen. Dieser Schätzung liegen durchschnittliche Kosten für die Nutzung von UberX in Höhe von rund Konzept 6Konzept 6 USD 1,50 pro Meile zugrunde. Übertragt man dies auf eine Welt, in der autonome Taxis regieren, bei denen die Kosten unserer Ansicht nach zwei Drittel niedriger liegen könnten, gehen einem die Argumente für ein eigenes Auto allmählich aus. Weniger Autos im Straßenverkehr bedeuten jedoch nicht unbedingt auch weniger verstopfte Straßen. Dies liegt daran, dass sich das Fahrverhalten in der Zukunft insgesamt verändern wird. Tatsächlich legen für On-Demand-Dienste genutzte und autonome Fahrzeuge mehr Kilometer zurück als die Autos, die sie ersetzen. Dieser Aspekt ist deshalb von Bedeutung, weil die Lebensdauer eines Autos an der Fahrleistung (ca. 210.000 Meilen) und nicht in Jahren gemessen wird. Wenn nun also weniger Autos mehr Strecke zurücklegen, müssen sie häufiger ausgetauscht werden. Für die Automobilhersteller verheißt dies folglich eine Absatzsteigerung. Betrachten wir beispielsweise eine vierköpfige Familie mit zwei Autos. In diesem Fall könnten die beiden Autos durch ein selbstfahrendes Modell ersetzt werden, das für Chauffeurdienste eingesetzt wird, solange die Eltern bei der Arbeit sind. Spinnen wir dies weiter und gehen davon aus, dass in Zukunft 15 Prozent aller privat genutzten Autos in den USA autonom fahren und 10 bis 20 Prozent der Zeit führerlos unterwegs sind. Allein daraus ergäbe sich nach unserer Schätzung für die Automobilindustrie ein jährliches Absatzplus von drei Prozent. Wenn man nun auch noch bedenkt, dass Taxis, und vor allem das durchschnittliche New Yorker Taxi, im Durchschnitt fast die Hälfte der zurückgelegten Strecke unbesetzt ist, ergibt sich, dass dieser Anteil durch autonomes Fahren noch weiter steigt, da die Leerzeiten ständig auf andere Taxis in der Stadt umverteilt werden, um die Abholzeiten möglichst gering zu halten. Zu berücksichtigen sind außerdem andere Nachfragequellen, die sich aus On-Demand- Diensten und selbstfahrenden Autos ergeben. Insbesondere für junge Leute und ältere Menschen würde dies bessere Mobilität bedeuten. Einer Studie von KPMG zufolge würde die insgesamt zurückgelegte Strecke durch die größere Mobilität dieser Bevölkerungsgruppen um schätzungsweise 13 Prozent zunehmen. Für Automobilgiganten wie GM, Ford und Chrysler liegt die Zukunft jedoch vor allem in der Entwicklung eigener Mobilitätsnetze. Auf On-Demand-Dienste und autonome Fahrzeuge zu setzen, ist also ein probates Mittel zur Neuausrichtung des Geschäftsmodells und Absicherung gegen das Risiko, dass das Auto zur Ware wird. Erfahrungsgemäß legen Kunden, die über On-Demand-Plattformen einen Fahrdienst ordern, keinen Wert auf die Marke des bestellten Fahrzeugs. Mit steigendem Absatz von Autos an On-Demand-Anbieter, der jüngsten Schätzungen von McKinsey zufolge auf ein Zehntel des weltweiten jährlichen Absatzvolumens klettern könnte, droht den Autobauern ein ähnliches Schicksal wie vielen Mobilfunkherstellern, die zu bloßen Lieferanten margenschwacher Bauteile für das Android-Gerät von Google degradiert wurden. Die Schaffung eines eigenen Mobilitätsnetzes birgt für Automobilhersteller zudem die Chance, eines ihrer größten Probleme, nämlich die fehlende Rentabilität beim Verkauf herkömmlicher Kleinwagen, an der Wurzel zu packen. Derzeit machen die großen Autofirmen mit jedem in den USA verkauften Pkw einen Verlust von rund USD 4.700 und schreiben nur dank des Lkw-und SUV-Absatzes schwarze Zahlen. Jeder Pkw, der im Rahmen eines On-Demand-Mobilitätsnetzes genutzt wird, könnte pro Jahr wiederkehrende Umsätze von USD 53.000 einbringen. Dies entspricht einem Ergebnis vor Zinsen und Steuern von USD 15.400 bzw. einer Rendite auf das eingesetzte Kapital von 20 Prozent. Durch die zunehmende Ausrichtung auf wiederkehrende Umsätze würde zudem die Konjunktursensitivität der Branche verringert. Kurzum: Jene Skeptiker, die Parallelen zwischen den Investitionen der Automobilhersteller und dem Bau des Überschallflugzeugs Concorde ziehen, sollten sich einen wesentlichen Unterschied vor Augen führen. Im Gegensatz zur Concorde richten sich die neuen Trends in der Automobilbranche nicht an die Superreichen, sondern an die breite Masse. Und wenn sich dadurch auch noch das Problem chronischer Unrentabilität beim Pkw-Absatz lösen lässt, ist das Geld erst recht gut investiert. Konzept7 Unser ausführlicher Bericht „Pricing the car of tomorrow, Part II – Autonomous vehicles, vehicle ownership, and transportation“ steht unter gmr.db.com oder auf Anfrage zur Verfügung. “Scrip dividends”— eine große Mogelpackung Sahil Mahtani Für viele Anleger gilt bei Dividenden „Nur Bares ist Wahres“, ganz im Sinne von Rockefeller, der einst sagte: „Wissen Sie, was das einzige ist, was mir Freude bereitet? Zu sehen, wie meine Dividenden hereinkommen.“ In den letzten Jahren haben Anleger jedoch ihre Erträge in nicht mehr ganz so reeller Form erhalten. Viel diskutiert wurde in diesem Zusammenhang die wachsende Zahl von Aktienrückkäufen. Doch wie sieht es mit dem etwas handfesteren Pendant, den “Scrip dividends”, also der Dividendenzahlung in Aktien, aus? Wie wir in diesem Artikel erläutern werden, ist diese Praxis bestenfalls ein sinnloses Ablenkungsmanöver und schlimmstenfalls eine gefährliche Täuschung. Anleger sollten dieser neuen Mode daher mit größerer Skepsis begegnen. Die Anzahl europäischer Großunternehmen, die eine Aktiendividende anbieten, ist in den letzten Jahren drastisch gestiegen. Im vergangenen Jahr haben sich 60 im STOXX 600 vertretene Unternehmen dieses Mittels bedient, 2007 waren es nur acht. Nach der Finanzkrise war die Aktiendividende für klamme Banken ein bequemer Weg, ihre Eigenkapitalquoten zu schonen. Und neuerdings haben auch Energieunternehmen, die unter dem Ölpreisrückgang leiden, Aktiendividenden für sich entdeckt. Bei mehr als einem Viertel ist die Ausschüttung einer Aktiendividende bereits gängige Praxis, während dieses Instrument vor 2008 in der Energiebranche noch fast unbekannt war. Interessant ist die Aktiendividende für Unternehmen deshalb, weil sie damit an der Ausschüttungshöhe festhalten können, aber wertvolles Eigenkapital sparen. Die großen europäischen Ölunternehmen haben 2014 insgesamt gut USD 40 Mrd. an Dividende ausgeschüttet. Zwei Jahre später, nachdem sich der Ölpreis mittlerweile halbiert hat, ist das Ausschüttungsvolumen nur um ein knappes Zehntel gesunken. Das ist angesichts in diesem Zeitraum um ein Drittel gesunkener operativer Cashflows eine erstaunliche Leistung. Rechnet man jedoch die “Scrip dividends” heraus, die sprunghaft von USD 4 Mrd. auf USD 10 Mrd. angestiegen sind, stellt man fest, dass die Bardividenden auch um ein Drittel zurückgegangen sind. Ein typisches Beispiel ist der französische Ölriese Total, der 2014 eine optionale Quartals “Scrip dividend” eingeführt hat. Das Unternehmen hat dabei Aktien mit einem Abschlag von zehn Prozent auf ihren Kurswert angeboten, so dass sich 54 Prozent der Aktionäre für diese Dividendenoption entschieden. Damit hat das Unternehmen in einem Quartal EUR 700 Mio. an Liquidität gespart. Auf das Gesamtjahr hochgerechnet entspricht dies einem Zehntel der Investitionsausgaben für 2015. Alternativ hätte Total nur die Dividende um die Hälfte kürzen können oder seine Eigenkapitalbasis um EUR 2,8 Mrd. verbreitern müssen, was beides zu negativen Schlagzeilen geführt und damit den Aktienkurs belastet hätte. Stattdessen hatte die Konzept 8Konzept 8 Ankündigung der “Scrip dividend” keine Auswirkungen auf den Kurs der Total-Aktie, der an diesem Tag sogar leicht gestiegen ist. Doch während eine Dividendenkürzung und eine Kapitalerhöhung negativ wahrgenommen werden, scheint sich daran niemand zu stören, wenn das Kind einen neuen Namen bekommt und als “Scrip dividend” deklariert wird. Zudem verschleiern sie den wahren Grund für den Dividendenrückgang und verhindern so eine kritische Prüfung der Kapitalentscheidungen des Managements. So schütten fünf der zwanzig STOXX 600 Energieunternehmen in diesem Jahr eine höhere Dividende aus, als sie an Gewinnen erwirtschaftet haben. Die Dividendenausschüttungen konnten in der Branche in den vergangenen zehn Jahren nicht aus dem organischen Free Cashflow finanziert werden. Stattdessen wurden diese Finanzlöcher mit Veräußerungserlösen gestopft. Anstatt bei den Investitionen den Rotstift anzusetzen, verfallen Ölunternehmen nun auf das Mittel der “Scrip dividends”, um weiter auf einem ungesund hohen Niveau investieren zu können. Ein gutes Beispiel ist hier Royal Dutch Shell, das 2015 sein “Scrip dividends” Programm wieder aufgelegt hat. Doch angesichts der Tatsache, dass die Dividende nicht durch einen entsprechenden Free Cashflow in drei der vergangenen sechs Jahren gedeckt ist und der Ölpreis auf USD 65 steigen müsste, damit am Ende zumindest eine schwarze Null steht, stellt sich die Frage, ob die geplanten Investitionen in dieser Höhe sinnvoll oder nachhaltig sind. In harten Zeiten muss man sich genau überlegen, wofür das zu Verfügung stehende Kapital eingesetzt werden soll. Aber statt sich dieser Frage zu stellen, spielen Unternehmen auf Zeit, um weder ihre Investitionen zurückfahren noch Ausschüttungen kürzen zu müssen. Manchmal versuchen Unternehmen, den verwässernden Effekt von “Scrip dividends” durch parallele Aktienrückkäufe zu „neutralisieren“. Das Programm von Royal Dutch Shell beispielsweise hatte in den Jahren 2010 bis 2014 einen Verwässerungseffekt von neun Prozent, der durch den Rückkauf von sieben Prozent der Aktien des Unternehmens teilweise kompensiert wurde. Natürlich ist das eine völlig sinnlose Aktion und angesichts der anfallenden Transaktionskosten und Honorare noch nicht einmal nur ein Nullsummenspiel. Außerdem bieten Unternehmen in der Regel Abschläge auf die als “Scrip dividends” ausgegebenen Papiere an, bei Total waren es zehn Prozent, während Aktienrückkäufe zu Marktpreisen getätigt werden. Genausogut könnten auch die Aktionäre, die für eine Bardividende optieren, den Aktionären, die die “Scrip dividends” wählen, den entsprechenden Differenzbetrag überweisen. In der Praxis treibt dieses Spiel dann aber noch ganz andere Blüten. Im Fall von Shell werden Rückkäufe nach niederländischem Steuerrecht als eine Form der Ausschüttung besteuert. Um dies zu umgehen, hat Shell nur die B-Aktien zurückgekauft, nicht aber die A-Aktien, für die in den Niederlanden Quellensteuer angefallen wäre. Damit wurden de facto nur Aktien einer Gattung ausgegeben und zurückgekauft, was dazu führte, dass die B-Aktien mit einem Aufschlag von zehn Prozent auf A-Aktien gehandelt wurden. Dieses Gefälle hat sich erst wieder nivelliert, als das Aktienrückkaufprogramm im Mai 2014 eingestellt wurde. In gewisser Weise haben Unternehmen damit nur auf die steigenden Ansprüche von Anlegern reagiert, die immer höhere Ausschüttungen fordern. Die entsprechenden Daten zeigen, dass Mittelzuflüsse in europäischen Income-Fonds seit 2011 gestiegen sind und zwischen 2012 und 2014 mehr als ein Viertel aller Mittelzuflüsse in Aktienfonds ausgemacht haben. Und im Vergleich zu dem einen Prozent Rendite auf ein gemischtes Portfolio zehnjähriger europäischer Staatsanleihen sind knapp vier Prozent Dividendenrendite auf den STOXX 600 natürlich verlockend. Da renditehungrige Anleger dividenden- und ausschüttungsstarke Unternehmen belohnen, schneidet ein Korb von Aktien mit stetigen Dividendenzahlungen im Performancevergleich in sieben der vergangenen acht Jahre besser ab als der Gesamtindex. Dieser Konzept9 Korb wird im historischen Vergleich derzeit mit einem Aufschlag von 16 Prozent beim KGV und einem Aufschlag von sieben Prozent beim KBV gehandelt. Dieses Bewertungsniveau scheint jedoch überzogen. Die Eigenkapitalrendite im STOXX 600 ist von 11-12 Prozent im Jahr 2010 auf mittlerweile sieben Prozent gefallen. Kurz vor 2008 waren es noch 17-20 Prozent. Der Verschuldungsgrad der Unternehmen ist mit dem Fünffachen des EBITDA weiterhin relativ hoch. Dennoch sind die Dividenden seit 2010 durchweg stärker gestiegen als die Unternehmensgewinne. In den sechs Jahren bis Dezember 2015 war bei der Dividende je Aktie ein Anstieg um 55 Prozent zu verzeichnen, während der Gewinn je Aktie um 7 Prozent gesunken ist. Da überrascht es nicht, dass “Scrip dividends” für Unternehmen inzwischen ein probates Mittel geworden sind, um renditehungrige Investoren mit Ausschüttungen in langfristig nicht durchzuhaltender Höhe zufriedenzustellen. Dass diese Praxis nur ein Spiel auf Zeit ist, wird daran deutlich, dass sie in der Regel immer Vorbote einer Dividendenkürzung sind. Ein Fünftel aller STOXX 600-Unternehmen, die 2014 diese Dividendenform angeboten haben, mussten im Folgejahr die Dividende kürzen. Das sind doppelt so viele Unternehmen wie Dividendenkürzungen im gesamten Index. Und über einen längeren Zeitraum betrachtet mussten 40 Prozent aller Unternehmen, die 2012 eine “Scrip dividend” angeboten haben, in den darauffolgenden drei Jahren die Dividende kürzen. Dies lässt sich exemplarisch an Banco Santander zeigen. Ana Botin hat, nachdem sie 2014 die Unternehmensführung übernahm, die Dividende um zwei Drittel abgeschmolzen und sich bei Anlegern frisches Kapital in Höhe von EUR 7,5 Mrd. beschafft. Dies markierte einen Bruch mit dem Kurs der Vorkrisenjahre unter ihrem Vater Emilio Botin, der die Dividendenhöhe auf dem Papier unangetastet ließ, aber großzügig mit “Scrip dividends” gearbeitet hat. Diese attraktive Dividende erfreute die Kleinanleger, die hinter der Unternehmenspolitik der Botin-Familie standen, und wurde staatlich gefördert, da “Scrip dividends” in Spanien nicht der Einkommensteuer unterliegen. Im Ergebnis führte dies zu einer absurden Situation: In den Jahren 2010 bis 2014, den Jahren der spanischen Immobilien- und europäischen Schuldenkrise, bewegte sich die Dividendenrendite bei Santander in einer Spanne von 9-17 Prozent Allein durch die Ausschüttung von “Scrip dividends”, also ohne Berücksichtigung anderer Kapitalmaßnahmen, hat sich die Zahl der Santander-Aktien von 2010 bis 2014 um 37 Prozent erhöht. Unter Zugrundelegung von Marktpreisen zum Zeitpunkt der Emission ergibt sich eine über einen längeren Zeitraum gestreckte Rekapitalisierung durch die Hintertür in einem Volumen von EUR 16 Mrd. Als Santander dann schließlich 2014 die Dividende kürzte, wurde dies damit begründet, dass sich so die Kernkapitalquote nach neuesten regulatorische Maßstäben („fully loaded“) im Laufe des nächsten Jahres von 8,3 auf 10 Prozent anheben ließe. Durch das Pokerspiel mit der “Scrip dividend” konnte Santander das Problem der schwachen Eigenkapitalbasis viele Jahre vor sich herschieben, letzten Endes musste die Bank sich dem jedoch stellen. Natürlich ist die “Scrip dividend” für Unternehmen in Liquiditätsnöten ein bequemerer Weg, als am Aktien- oder Rentenmarkt Kapital aufzunehmen oder die Dividende zusammenzustreichen. Doch genau aus diesem Grund sollte man diese Programme als reine Verschleierungstaktik sehen, bei der Aktionäre genauer hinsehen sollten. “Scrip dividends” auszuschütten erlaubt es manchen Unternehmenslenkern, harte Allokationsentscheidungen, von denen die Zukunft des Unternehmens abhängt, auf die lange Bank zu schieben, während diese Komplexität Zeit und Geld frisst. Bestenfalls ein sinnloses Ablenkungsmanöver, schlimmstenfalls eine gefährliche Täuschung. Gehen Sie auf gmr.db.com oder kontaktieren Sie uns zu unserem Multi-Asset-Essay mit dem Titel „Dodgy dividends“. Konzept 10Konzept 10Konzept 10 El Niño— oder wie ist das Wetter? John Tierney Jeder schimpft auf das Wetter, aber keiner tut etwas dagegen. Dieses Zitat von Mark Twain trifft ziemlich genau die Haltung der Akteure am Finanzmarkt in Bezug auf die bedeutenden, gleichzeitig aber auch unberechenbaren Wettertrends. Ein eben solcher Trend scheint sich gerade zu entwickeln. Jetzt, da sich das El-Niño-Phänomen allmählich abschwächt, sagen Klimaexperten (im Mai 2016) eine 75%ige Wahrscheinlichkeit für die Entstehung seines Gegenstücks, La Niña, voraus. Anleger täten gut daran, sich ein besseres Bild von diesem Wetterphänomen und den daraus resultierenden Folgen für ihre Anlagen zu machen. Die verfügbaren Belege aus der Vergangenheit legen ganz eindeutig den Schluss nahe, dass Anleger Umkehrungen der normalen Wettersituation erst dann einpreisen, wenn das Ganze schon recht weit vorangeschritten ist. Diese Apathie der Anleger lässt sich vielleicht durch das Unvermögen der Meteorologen erklären, eine zuverlässige Prognose dazu abzugeben, wie sich neu entstehende Wettertrends (oder Wetterphänomene) in den nächsten Wochen oder gar im Verlauf der nächsten Quartale entwickeln werden. So unzuverlässig Prognosen mitunter sind, ihre Auswirkungen sind nicht zu unterschätzen. Der Erfolg internationaler Unternehmen, die Rohstoffentwicklung, ja sogar ganze Volkswirtschaften können durch die aktuelle Wetterlage beeinflusst werden. So wurden Unternehmen wie Apple und Toyota von der weltweiten Unterbrechung der Lieferketten infolge der durch das La-Niña-Phänomen verursachten Überschwemmung in Thailand 2011 in Mitleidenschaft gezogen. Die Preise für Mais und Weizen verdoppelten sich im Sommer 2010, als sich herausstellte, dass die mit La Niña in Zusammenhang stehende Dürre Auswirkungen auf die Ernteerträge haben würde. Das jährliche Produktionswachstum in Indien seit 1980 lag hingegen in den Jahren, die durch La Niña geprägt waren, durchschnittlich bei fast 9%; in anderen Jahren wurde lediglich ein Wert von 5,8% verzeichnet. Weitere gute Gründe sprechen dafür, dass Anleger ihren Blick verstärkt auch auf den derzeitigen Wetterzyklus richten sollten, der sich möglicherweise ausbreiten wird. Die momentan nachlassende El-Niño-Phase war die eine der stärksten seit entsprechenden Aufzeichnungen. Die Daten aus der Vergangenheit legen nahe, dass auf eine starke El-Niño-Phase ein heftiges La-Niña-Ereignis folgt. Zudem ist ein gemeinsamer Index für die weltweiten Meeres- und Lufttemperaturen 2015 auf einen massiven Rekordwert in die Höhe geschnellt und lag damit etwa fünf Standardabweichungen oberhalb Konzept11 Konzept 12 einer Trendlinie aus dem Jahr 1980. Der Index verzeichnet immer noch einen extrem hohen Stand. Zwar ist es möglich, dass es ganz plötzlich zu einem Rückgang in normalere Bandbreiten kommt, bis auf Weiteres scheinen sich die Risiken jedoch weitgehend auf eine starke La Niña und die Auswirkungen eines solchen Wetterphänomens zu konzentrieren. Auch wenn El Niño und La Niña für jedermann ein Begriff sind, welche tatsächlichen Mechanismen sich hinter ihnen verbergen, ist für viele immer noch ein Buch mit sieben Siegeln. Daher ist es vielleicht sinnvoll, einmal zusammenzufassen, was wirklich hinter diesen mächtigen Wetterphänomenen steckt. Bei normaler Wetterlage wehen Passatwinde von Osten nach Westen im Äquatorbereich des Pazifiks und treiben damit wärmere Wassermassen Richtung Westen. Diese sammeln sich dann in einem großen Gebiet nordwestlich von Australien und in der Nähe von Indonesien. Das wärmere Wasser verdampft, bildet Wolken und sorgt für saisonale Niederschläge in Australien und ganz Asien. Unterdessen steigen im Ost- und Zentralpazifik kühlere Wassermassen aus den Tiefen des Ozeans an die Oberfläche anstelle der zuvor durch die Passatwinde verdrängten wärmeren Wassermassen. Das Tiefenwasser des Ozeans enthält viele Nährstoffe, die das Oberflächenwasser bereichern, was wiederum der Fischereibranche zugutekommt. Ungefähr alle zwei bis sieben Jahre wird dieser normale Kreislauf unterbrochen. Diese Unterbrechung wird – so sie in Gestalt eines Nachlassens oder einer Umkehr der normalen Windströme auftritt – als El Niño bezeichnet. Umgekehrt wird eine Verstärkung der Windströme bei gleicher Windrichtung als La Niña bezeichnet. Ein El-Niño-Phänomen hat zur Folge, dass die warmen Wassermassen im Ost- und Zentralpazifik bleiben und nicht nach Westen getrieben werden. Dadurch entstehen ungewöhnlich starke Niederschläge über dem mittleren und östlichen Pazifik bei gleichzeitig deutlich geringeren Niederschlägen über dem Westpazifik, was zu Dürreperioden in Australien, Südostasien und Indien führt. Bedingt durch die Tatsache, dass nur wenig oder gar kein Wasser verdrängt wird, wird zudem der normale Kreislauf, bei dem kühleres, nährstoffreicheres Wasser an die Oberfläche aufsteigt, unterbrochen, was wiederum negative Auswirkungen auf die Fischereibranche in Südamerika hat. In den letzten 20 Jahren ist in den folgenden Jahren ein El-Niño-Phänomen aufgetreten: 1997-98, 2002-03, 2009-10, 2014-15 und 2015-16. Der derzeitige El Niño führte zu einer Rekorddürre in Südostasien und Indien. Die Auswirkungen von El Niño sind weit über den äquatorialen Pazifik hinaus zu spüren. In großen Teilen Nordamerikas, insbesondere an der Westküste und im Pazifischen Nordwesten, sind die Temperaturen milder und es kann zu stärkeren Niederschlägen kommen. Die jüngsten Witterungsbedingungen in Zusammenhang mit El Niño haben zu Rekordwerten in der Agrarproduktion und sinkenden Preisen für landwirtschaftliche Rohstoffe geführt. Zudem verringern sich durch El Niño tendenziell das Risiko und die Intensität der Hurrikansaison im Atlantik. Die Bevölkerung im Osten der Vereinigten Staaten und somit auch Anbieter von Schaden- und Unfallversicherungen können sich bei El Niño für die vergleichsweise ruhigen Herbstmonate in den letzten zwei Jahren bedanken. Nicht immer, aber häufig, folgt auf El Niño eine La-Niña-Phase – manchmal unmittelbar im Anschluss, ein anderes Mal mit einer Verzögerung von einem Jahr oder mehr. Da die von Osten nach Westen wehenden Passatwinde stärker als normal auftreten, wird das bereits vom El Niño aufgewärmte Wasser weiter nach Westen getrieben als üblich, und auch die Wassermassen, die aus den Tiefen des Ost- und Zentralpazifik aufsteigen und die wärmeren Wassermassen verdrängen, sind ungewöhnlich kalt. Die letzten La Niñas traten in den Jahren 1998-99, 1999-2000, 2007-08, 2010-11 und 2011- 12 auf. La Niña bewirkt selbstverständlich das Gegenteil von El Niño. Die Folge des Konzept 12 Konzept13 Gegenstücks von El Niño sind ungewöhnlich starke Monsunregenfälle im Osten und Norden von Australien sowie in Südostasien und Indien. Fällt das La-Niña-Phänomen stark aus, besteht in tiefliegenden Gebieten die Gefahr einer Überschwemmung. Während der La-Niña-Phase 2011 kam es zu schweren Überschwemmungen in Queensland, anderen Teilen Australiens und Thailand. Die Flutkatastrophe zerstörte weite Teile der thailändischen Produktionslandschaft und unterbrach die globalen Lieferketten für das gesamte darauffolgende Jahr, wovon internationale Unternehmen von Apple bis Toyota hart getroffen wurden. Die Fischerei im Westen Südamerikas befindet sich wieder auf dem Weg zur Normalität, doch die Landmasse könnte eine ungewöhnlich hohe Trockenheit aufweisen. Nordamerika beschert das La-Niña- Phänomen eine ungewöhnliche Hitze und Trockenheit. Im Extremfall kann eine schwere Dürreperiode im Mittleren Westen die Ernteerträge schmälern, wodurch die Preise für landwirtschaftliche Erzeugnisse in die Höhe getrieben werden könnten. In den Jahren 2008 und 2011 führte unter anderem die Trockenheit dazu, dass die Preise für Mais und Weizen um das Zwei- bis Dreifache anstiegen. Nach einer leichten Erholung erfolgte nach der Rückkehr von La Niña 2012 erneut ein sprunghafter Anstieg um 50%. Dies hat auch zur Folge, dass sich die Hurrikan-Gewalten in der Atlantik- Region verstärken. Das La-Niña-Phänomen spielte auch bei der Entstehung von Hurrikan Irene 2011 und Superstorm Sandy 2012, die im Nordosten der USA wüteten, eine Rolle. Angesichts solch weitreichender Folgen sollten Anleger dieser Thematik mehr Aufmerksamkeit schenken, wenn sich in den nächsten Monaten herauskristallisiert, ob mit einem erneuten La-Niña-Ereignis zu rechnen ist und wie stark das Wetterphänomen ausfallen wird. Ein gemäßigtes La-Niña-Phänomen wäre für Südostasien und Australien von Vorteil, da dies ein Ende für die anhaltende Trockenheit bedeuten würde und sich förderlich auf den Anbau landwirtschaftlicher Erzeugnisse wie Reis auswirken würde. Das Risiko besteht darin, dass ein ausgeprägtes La-Niña-Ereignis weitverbreitete zerstörerische Überschwemmungen verursacht, die den Nutzen von stärkeren Regenfällen in der Region wieder zunichte machen würden. Inzwischen könnten Rohstoffe wie Mais, Weizen und Sojabohnen drastischen Preisanstiegen infolge der möglichen Trockenheit und geringerer Ernteerträge in den USA und im Süden Brasiliens/im Norden Argentiniens ausgesetzt sein. Auch die Ostküste der USA könnte von einer sehr heftigen Hurrikan-Saison mit massiven Sachschäden und einer Unterbrechung der Öl- und Gasförderung im Golf von Mexiko getroffen werden. Anleger sollten nicht nach der Devise von Oskar Wilde handeln, der spitz bemerkte, Gespräche über das Wetter seien die letzte Zuflucht der Geistlosen. Stattdessen sei ihnen geraten, mehr über dieses Thema zu reden. Und anders als in der Vergangenheit sollten sie sich dabei nicht so viel Zeit lassen und – vielleicht – sogar auch etwas dagegen tun. Es ist ein Alptraum, aus dem aktive Fondsmanager aufzuwachen versuchen. Nach einer quälend langen Phase unterdurchschnittlicher Wertentwicklung waren die gravierenden Verluste, die einige der weltweit führenden Investoren in diesem Jahr erlitten haben, sicherlich das Letzte, was sich Stockpicker erhofft hatten. Nun versucht eine ganze Branche verzweifelt, ihre Existenz zu rechtfertigen. Doch bei allen Analysen zu Misserfolgen in der gezielten Auswahl bestimmter Einzeltitel und allem Scheitern spezifischer Strategien könnte ein Faktor an Bedeutung gewinnen, der bislang zu wenig Beachtung gefunden hat. Es geht um das recht eigenartige Niveau der Streuung am Markt – ein Faktor, der seit der Finanzkrise seltsamerweise in den Hintergrund getreten ist, aber nun offensichtlich wieder in Erscheinung tritt. Die Streuung ist die Differenz zwischen den Renditen unterschiedlicher Anlagen. Natürlich ist diese Differenz ständigen Veränderungen unterworfen, und es ist unter Umständen recht schwer, objektiv zu beurteilen, ob diese Veränderungen beim Vergleich unterschiedlicher Anlageklassen gerechtfertigt sind. Der Aktienmarkt ist in dieser Hinsicht jedoch anders, da sich die Wertentwicklung einfacher anhand der Veränderungen der Fundamentaldaten eines Unternehmens vergleichen lässt. Hierfür werfen wir zunächst einen Blick auf die Streuung der (Gesamt-)Renditen am Aktienmarkt, wobei Aktien des Energiesektors, dessen jüngste Krisen das Ergebnis verzerren würden, unberücksichtigt bleiben. Die Analyse zeigt, dass die Streuung im Vergleich zu den Vorkrisenjahren insgesamt um rund ein Viertel zurückging, bevor sie nun jüngst wieder leicht angestiegen ist. Anders ausgedrückt haben unterschiedliche Aktien den Anlegern zunehmend ähnliche Renditen beschert. Schaut man noch genauer hin, stellt man fest, dass sich die Streuung der Renditen zwischen einzelnen Sektoren beinahe halbiert hat. Oder anders gesagt: Die Wertentwicklungen einzelner Sektoren an den Aktienmärkten gleichen sich immer mehr. Das wäre nachvollziehbar, wenn die Unternehmen selbst sich immer stärker ähneln würden. Die Entwicklung ihrer Fundamentaldaten deutet jedoch nicht darauf hin. Daten zur Eigenkapitalrendite zeigen, dass Unternehmen mit hoher Rendite sich immer besser entwickeln, während Unternehmen mit geringer Rendite sich verschlechtern. Die Differenz zwischen dem Median der Eigenkapitalrendite für das oberste Quartil der Unternehmen und dem Median für das unterste Quartil hat sich seit der Finanzkrise um rund 25% vergrößert. Auch die Rentabilität klafft auseinander. Ordnen wir beispielsweise die Unternehmen im S&P 500-Index nach ihren EBITDA-Margen an, hat sich die Kluft zwischen dem Median des Gesamtindex und dem Median für das unterste Quartil in den letzten beiden Jahren von 12 auf 15 Prozentpunkte ausgeweitet. Diese zunehmende Lücke ist weitgehend auf die anhaltende Verschlechterung der Unternehmen im unteren Bereich des Spektrums zurückzuführen. Tatsächlich hat sich der Median für das unterste Quartil in dem betreffenden Zeitraum auf 4,5% beinahe halbiert. Die Rückkehr der Stockpicker Luke Templeman Konzept 14Konzept 14 Diese Abweichung zwischen den Fundamentaldaten und den Renditen am Aktienmarkt deutet darauf hin, dass Anleger Unterschiede bezüglich Qualität und Gewinn zwischen einzelnen Aktien ignorieren und lediglich ihr Kapital gleichmäßig auf die Unternehmen verteilen. Für dieses Phänomen gibt es mehrere Gründe. Zum einen ist da der Zustrom von Geld in den Markt für passive Investments. Im vergangenen Jahr flossen in den USA rund USD 400 Mrd. in passive Fonds, doppelt so viel wie vor fünf Jahren. Aus aktiven Fonds hingegen haben die Anleger fast USD 300 Mrd. abgezogen. Diese Differenz von USD 700 Mrd. ist der Höhepunkt eines Trends hin zu passiven Investments, der in diesem Jahrhundert Fahrt aufgenommen hat, besonders nachdem sich die Portfolios der aktiven Manager während der Finanzkrise schlechter als der Marktdurchschnitt entwickelten. Somit liegt der Gesamtbetrag des in passive Fonds investierten Kapitals in den USA bei rund USD 4 Bill., was mehr als einem Fünftel des Marktwerts des S&P 500-Index gleichkommt. Und dieser Betrag steigt rasch weiter. Zur Jahrtausendwende entsprach das in passiven Fonds verwaltete Kapital gerade einmal einem Zehntel des aktiv verwalteten Kapitals. Inzwischen hat sich dieser Anteil vervierfacht. Da die Anleger sich passiven Strategien zuwenden, verzerrt all das ambivalent angelegte Kapital allmählich den Markt. Forcierte passive Zuteilungen kommen letztlich den Unternehmen zugute, die sie nicht verdienen. Umgekehrt erhalten Unternehmen, die wesentlich besser aufgestellt sind, nicht ihren verdienten Anteil. Das lässt sich an den Kurs-Gewinn-Verhältnissen ablesen. Während der ersten zehn Jahre dieses Jahrhunderts lag das marktgewichtete Kurs- Gewinn-Verhältnis über dem Median. Seit der Krise (und zeitgleich mit der Zunahme passiver Investments) hat sich dies umgekehrt und tatsächlich hat sich die Differenz zwischen dem gleichgewichteten Durchschnitt und dem marktgewichteten Durchschnitt vergrößert. Daraus lässt sich schlussfolgern, dass ein unverhältnismäßig hoher Anteil des Kapitals in Unternehmen mit unterdurchschnittlicher Entwicklung geflossen ist. Die derzeitige Versessenheit auf Dividenden ist ein weiterer Grund für die geringere Streuung. In der Theorie sollten sich Ausschüttungsquoten nicht auf die Gesamtrendite auswirken. Anleger wollen jedoch Unternehmen mit höheren Dividendenrenditen und bewerten Aktien verstärkt nach der Höhe ihrer Ausschüttungen. De facto ist die Streuung der Dividendenrenditen seit 2000 fast auf dem niedrigsten Stand und hat sich über diesen Zeitraum halbiert. Dementsprechend erhöhen die Unternehmen ihre Dividenden, selbst wenn ihre Fundamentaldaten dies nicht rechtfertigen. Dies hat dazu geführt, dass die Streuung von Ausschüttungsquoten im gesamten S&P 500-Index in diesem Jahrhundert ihren Höchststand erreicht hat. Das gleiche gilt für Aktienrückkäufe. In den USA hat die Höhe der angekündigten Rückkäufe im vergangenen Jahrzehnt mit USD 690 Mrd. wieder die Hälfte ihres Standes des vorangegangenen Jahrzehnts erreicht. In den letzten fünf Jahren hat sich die Zahl der Rückkäufe wiederum fast verdreifacht, da nun auch Unternehmen von geringerer Qualität diesem Trend folgen. Die Unternehmen sind dadurch risikoreicher geworden: In einem Index aus 50 der zuverlässigsten Dividendenzahler hat sich die Verschuldung im Verhältnis zum EBITDA in den letzten fünf Jahren grob verdoppelt. Doch die Streuung der Renditen ist trotzdem zurückgegangen, da jeder, der einen Rückkauf durchgeführt hat, dafür belohnt wurde. Anleger sollten es sich in dieser Welt der geringen oder gleichbleibenden Rendite- Streuung nicht allzu bequem machen. Die für die Nachkrisenjahre unternehmensfreundlichen Bedingungen scheinen sich zu verschlechtern, wodurch sich die Lücke zwischen Unternehmen mit hoher und jenen mit geringer Qualität vergrößern dürfte. Während diese Schere sich weiter öffnet, wird auch die Differenz zwischen den Marktwerten immer deutlicher zu Tage treten. Konzept15 Gehen Sie auf gmr.db.com oder kontaktieren Sie uns zu unserem Multi-Asset-Essay „Return of fundamentalism“. Zum einen bewegt sich die Arbeitslosenquote in den USA seit über einem Jahr nahe der natürlichen Arbeitslosenquote von rund fünf Prozent. Lohndruck scheint unvermeidbar und dürfte besonders Unternehmen mit geringerer Qualität unverhältnismäßig stark treffen. Wenn der Ölpreis weiter steigt, werden die Unternehmen zudem in Betracht ziehen müssen, diese Kosten selbst zu tragen oder zu versuchen, sie an ihre Kunden weiterzugeben. Da diesbezüglich nicht alle Unternehmen gleichermaßen erfolgreich sein dürften, entsteht zusätzlicher Aufwärtsdruck auf die Streuung. Erste Anzeichen zunehmender Streuung an den Aktienmärkten sind bereits erkennbar. Seit die Streuung Ende 2014 ihren Tiefststand erreichte, hat sie um ein Fünftel zugenommen. Wie meist bei zunehmender Streuung der Fall, geschieht dies in Zeiten angespannter Märkte. Zur stärksten Erhöhung der Streuung kam es im 3. Quartal 2015 und im 1. Quartal 2016. Sollte dieser Trend anhalten, können sich Anleger auf unterschiedliche Weise darauf einstellen. Zunächst einmal wird aktives Management attraktiver. Denn in einem Umfeld mit hoher Streuung sollte der Marktwert einer Aktie rascher zu ihrem inneren Wert zurückkehren. Manager werden also schneller belohnt oder abgestraft, je nachdem, ob sie auf die richtigen oder die falschen Titel gesetzt haben. Nebeneffekt eines besseren aktiven Umfelds ist, dass passive Investments im Vergleich unattraktiver werden. Wenn sich der Zufluss in passive Fonds verringert, könnte die Wirkung einer steigenden Streuung noch verstärkt werden. Dies liegt daran, dass passiv verwaltetes Kapital in gewisser Weise einer Reduzierung des Streubesitzes einer Aktie gleichkommt. Wird also im Verhältnis zunehmend mehr Kapital aktiv angelegt, steigt die Volatilität der Kursrenditen. Zum anderen sollten Anleger ihr Risiko in Bezug auf Segmente in wichtigen Indizes überprüfen. In den Jahren vor und während der Krise haben sich der marktgewichtete S&P 500-Index und sein gleichgewichtetes Gegenstück gegenseitig abgebildet. Da die Differenz in der Streuung der Marktrenditen und der inneren Werte sich seither vergrößert hat, entwickelt sich der gleichgewichtete Index besser. Im Wesentlichen ist Kapital aus den größeren und in der Regel höherwertigen Aktien in die kleineren Titel geflossen. Bei weiterhin steigender Streuung am Markt insgesamt werden sich diese Kapitalflüsse vermutlich umkehren. Sollte der Trend steigender Dispersion bei den Marktrenditen die Wiederbelebung des so sehr in Mitleidenschaft gezogenen Stockpicking weiter unterstützen, wäre der wahre Alptraum für die steigende Zahl von Anlegern in passive Fonds, dass sie einfach zur falschen Zeit den falschen Markt gewählt haben. Konzept 16 Löhne, Unternehmensgewinne und Preis—Verteilungskonflikte Rineesh Bansal Wie hoch sollte Ihre Gehaltserhöhung ausfallen? Bevor Sie reflexartig eine ordentliche Gehaltserhöhung fordern, sollten Sie bedenken, dass in Folge davon Aktien- oder Anleihemärkte negativ reagieren könnten. In der vereinfachten Parallelwelt volkswirtschaftlicher Modelle sind Lohnerhöhungen dann gerechtfertigt, wenn damit ein Ausgleich für höhere Arbeitsproduktivität oder einen allgemeinen Anstieg des Preisniveaus geschaffen werden soll. Steigende Produktivität sollte sich für die Arbeitnehmer daher im Zeitablauf in einem höheren Lebensstandard, d.h. höheren inflationsbereinigten Löhnen niederschlagen. Diese Rechnung geht aber nur dann auf, wenn sich die Verteilung der Wachstumsgewinne zwischen Arbeitnehmern und anderen gesellschaftlichen Gruppen nicht im Laufe der Zeit ändert. In der realen Welt sind die Lohnzuwächse natürlich von der relativen Verhandlungsmacht von Arbeitnehmern und Arbeitgebern abhängig. Die tatsächlichen Lohnsteigerungen weichen daher von den oben erwähnten fundamentalen Faktoren, der Produktivitäts- und Inflationsentwicklung, ab, was zu Verschiebungen beim Anteil der Arbeitseinkommen am Volkseinkommen führt. In den USA waren Abweichungen entweder nach oben oder nach unten nahezu während der gesamten zweiten Hälfte des vergangenen Jahrhunderts relativ gering und nicht von längerer Dauer. Damit bewegte sich der Anteil der Arbeitseinkommen am Volkseinkommen in einer engen Spanne um den langfristigen Durchschnitt von 63 Prozent. Seit Mitte der 90er Jahre blieb die Lohnentwicklung jedoch hinter der Preis- und Produktivitätsentwicklung zurück. Dies hatte einen erheblichen Rückgang der Arbeitseinkommensquote zur Folge, der mit nur mehr 57 Prozent 2012 einen Tiefstand erreichte. Parallel dazu kam es zu einem Anstieg der Kapitaleinkommensquote. Während die Gewinnspannen in der Zeit vor 1990 stetig um einen Durchschnitt von 7,5 Prozent pendelten, war in den letzten beiden Jahrzehnten ein starker Anstieg bis auf einen Rekordstand von 12,5 Prozent im Jahr 2012 zu beobachten. Für Arbeitnehmer gibt es jedoch durchaus auch Lichtblicke, da bereits eine Umkehr dieses seit 20 Jahren zu beobachtenden Trends eingesetzt haben könnte. Die Verteilung des Kuchens verschiebt sich jedenfalls wieder zugunsten der Arbeitseinkommen und die Gewinnmargen der Unternehmen haben sich seit dem Hoch von 2012 wieder um zwei Prozentpunkte verringert. Trotz annähernd idealer Rahmenbedingungen für Unternehmen mit niedrigen Rohstoffpreisen, moderatem Konzept17 Konzept 18 Lohndruck und extrem niedrigen Zinskosten sind US-Unternehmen nach wie vor in einer Art „Gewinnrezession“ gefangen. Denn auch wenn sich die Nominallohnsteigerungen im historischen Vergleich auf niedrigem Niveau bewegen, übersteigen diese angesichts noch niedrigerer Inflationsraten und nur minimaler Produktivitätszuwächse dennoch einen reinen Inflations- und Produktivitätsausgleich. Die stagnierende Arbeitsproduktivität ist der wunde Punkt der US-Wirtschaft, der den Aufschwung nach der Finanzkrise hemmt. In den vergangenen fünf Jahren betrug das Wachstum bei der Arbeitsproduktivität in den USA im Durchschnitt lediglich 0,5 Prozent p.a. und hat damit, abgesehen von den beiden kurzen Phasen einer schweren Rezession Ende der 70er und Anfang der 80er Jahre, den niedrigsten Stand seit dem Zweiten Weltkrieg erreicht. Unter Volkswirten wird eine hitzige Debatte darüber geführt, was die Ursachen für diesen Produktivitätseinbruch sind und wie lange dieser voraussichtlich noch anhalten wird. Für Optimisten ist die Produktivitätsschwäche ein reiner Messfehler oder ein konjunkturelles Phänomen, skeptische Beobachter sprechen hingegen von einem strukturellen Problem, das uns auf absehbare Zeit begleiten wird. Je länger die Produktivitätsschwäche anhält – aktuell liegt das Produktivitätswachstum seit fünf Jahren in Folge unter der Marke von einem Prozent, ohne dass sich die Wirtschaft in einer Rezession befindet – desto mehr spricht für die strukturelle Argumentation von Volkswirten wie Robert Gordon. Angesichts des schieren Ausmaßes des aktuellen Produktivitätseinbruchs reduzierte das Congressional Budget Office seine Prognose des Potenzialwachstums für die kommenden zehn Jahre. Anleger müssen zumindest der unangenehmen Tatsache ins Auge sehen, dass das Produktivitätswachstum auf längere Sicht auf dem aktuell sehr niedrigen Niveau von 0,5 Prozent p.a. stagnieren könnte, und sich mit den Konsequenzen einer solchen Entwicklung auseinandersetzen. Welche Perspektiven gibt es in einem solchen Szenario für die Nominallohnentwicklung? Seit der Finanzkrise lagen die Lohnzuwächse in den USA im Durchschnitt nur bei gut zwei Prozent p.a. und waren damit nur noch etwa halb so hoch wie in den Jahren vor der Krise. Trotz einer moderaten Erhöhung des Lohnwachstums in den letzten Monaten zeigte sich Janet Yellen, die Präsidentin der US-Notenbank Fed, überrascht darüber, dass es trotz der Näherung an die Vollbeschäftigung keinen kräftigeren Lohndruck gibt. Die Federal Reserve hat diese Entwicklung so interpretiert, dass dies ein Zeichen für eine noch verdeckte Schwäche des Arbeitsmarktes sein könnte, und damit ein Grund, die Zinsen auf einem außergewöhnlich niedrigen Niveau zu belassen. Die Geldpolitik wird in ihrem Kurs auch durch politische Initiativen zur Steigerung des Lohnniveaus gestützt. So haben in letzter Zeit einige Bundesstaaten erhebliche Mindestlohnerhöhungen angekündigt. Die wachsende Bedeutung der „Fight for $15“-Kampagne im aktuellen US- Präsidentschaftswahlkampf unterstreicht die politische Dynamik hinter diesem Trend. Da am Arbeitsmarkt annähernd Vollbeschäftigung herrscht, orientiert sich die Federal Reserve im Hinblick auf eine Straffung der Zinszügel an der Lohnentwicklung. Mit wachsendem politischen Interesse an schnelleren Lohnzuwächsen für Arbeitnehmer ist es durchaus möglich, dass die Lohnsteigerungen wieder ihr Vorkrisenniveau von knapp vier Prozent erreichen. Doch während sich die öffentliche Debatte momentan vor allem um das Lohnwachstum dreht, geht es volkswirtschaftlich nicht nur darum, wie viel eine Arbeitsstunde kostet, sondern vor allem auch darum, wie hoch die Stundenproduktivität ist. Wenn es gelingt, bei den Lohnzuwächsen wieder an das Vorkrisenniveau von vier Prozent anzuknüpfen, die Wirtschaft beim Produktivitätswachstum aber über die aktuellen 0,5 Prozent nicht hinauskommt, wird dies schwerwiegende Konzept 18 Konzept19 Gehen Sie auf gmr.db.com oder kontaktieren Sie uns zu unserem Multi-Asset-Essay mit dem Titel „A new impossible trinity“. negative Konsequenzen für Anleger an den Finanzmärkten haben. Es könnte dann zwei mögliche Szenarien geben: Zum einen könnten die Arbeitseinkommensquote und damit auch die Gewinnmargen der Unternehmen auf dem bisherigen Niveau konstant bleiben. Damit dies eintritt, müsste die Inflation auf 3,5 Prozent steigen. Dies wäre eine bittere Pille für viele Fixed-Income-Investoren, liegen doch die aktuellen Inflationserwartungen für die kommenden fünf Jahre nur bei gut einem Prozent. Andeutungen der Federal Reserve, dass sie bereit wäre, eine Zeitlang eine gewisse konjunkturelle Überhitzung in Kauf zu nehmen und damit die Teuerungsrate über ihr Inflationsziel von zwei Prozent steigen zu lassen, sprechen durchaus auch für ein solches Szenario. Sollte die Fed keine größeren Abweichungen von ihrem Zwei-Prozent-Ziel tolerieren, dürfte die Arbeitseinkommensquote nur 1,5 Prozent p.a. wachsen. Aufgrund des historischen Zusammenhangs mit den Gewinnmargen der Unternehmen würde dies eine Halbierung der Margen von aktuell zehn Prozent im Laufe der nächsten 3-4 Jahre bedeuten. Mit einem US-Aktienmarkt im Höhenflug scheinen Aktienanleger nicht auf ein solches Szenario eingestellt. Dies sind nur zwei hypothetische Szenarien, um deutlich zu machen, welche negativen Konsequenzen es für Anleger an den Aktien- und Rentenmärkten hätte, wenn die Nominallohnzuwächse wieder auf Vorkrisenniveau steigen, während das Produktivitätswachstum auf dem aktuell niedrigen Niveau verharrt. Die Realität könnte in Bezug auf verschiedene Parameter anders aussehen, als in diesen Szenarien unterstellt. So könnte das Produktivitätswachstum, das historisch mit einer Verzögerung von zwei Jahren der Lohnentwicklung folgt, schon mit Beginn des Aufwärtstrends bei den Löhnen anziehen. Oder es könnte trotz intensiver Bemühungen nicht gelingen, bei den Lohnsteigerungen wieder an den Trend vor der Krise anzuknüpfen, da die Unternehmen auf Rentabilitätseinbußen mit Personalabbau reagieren. Oder der negative Effekt höherer als durch den Produktivitätsfortschritt gerechtfertigter Lohnsteigerungen verteilt sich auf Anleihe- und Aktienanleger. Eines steht jedoch fest: Die Kosten eines geringeren Produktivitätswachstums müssen volkwirtschaftlich von irgend jemandem getragen werden – von den Arbeitnehmern in Form eines langsamer steigenden Lohnniveaus und Lebensstandards, von Inhabern von Anleihen in Form von höherer Inflation oder von Aktienanlegern in Form von niedrigeren Gewinnmargen. Diese Zusammenhänge sollten Anleger bei ihren Überlegungen zu möglichen Zukunftsszenarien im Hinterkopf behalten. Eine in der Produktivitätsfalle gefangene Volkswirtschaft zwingt die Politik zu harten Entscheidungen. In diesem Zielkonflikt zwischen hohen Nominallohnsteigerungen, angemessener Inflation und stetigen Unternehmensgewinnen wird die Politik eines der drei Ziele opfern müssen. Konzept 20 Rückkehr in positive Gefilde— Argumente für eine Zinserhöhung durch die EZB David Folkerts-Landau Im Laufe des vergangenen Jahrhunderts haben sich die Zentralbanken als Hüter der wirtschaftlichen und finanziellen Stabilität entwickelt. Ihnen wurden die nötigen Kompetenzen verliehen, um unsere Währungen durch Drehen der Zinsschraube zu schützen. Einige Zentralbanken, wie die Bundesbank oder die amerikanische Federal Reserve, haben sich erheblichen Respekt verschafft, indem sie über viele Konjunkturzyklen hinweg und vielfach entgegen politischen Widerständen für eine stabile Geldpolitik gesorgt haben. Doch selbst Zentralbanker können mal die Orientierung verlieren und zwar für gewöhnlich dann, wenn sie stur dem gerade gültigen wirtschaftlichen Dogma folgen. In einem solchen Fall können Fehlentscheidungen verheerende Folgen haben. So wähnte sich die Reichsbank in den 1920er Jahren in dem Glauben, man könne zur Finanzierung der Staatsausgaben 2.000 Notenpressen rund um die Uhr laufen lassen, ohne eine Inflation zu riskieren. Etwa zur gleichen Zeit sah die Federal Reserve tatenlos zu, wie mehr als ein Drittel aller US-Einlagen durch Bankenpleiten vernichtet wurde, da sie der Meinung war, Bankenkrisen seien selbstregulierend. Die Folge war die Weltwirtschaftskrise. Zugegeben, diese Fehltritte liegen fast hundert Jahre zurück. Doch trotz aller institutioneller Verbesserungen, allen voran der Unabhängigkeit der Zentralbanken, und trotz verlässlicherer Daten sowie ausgefeilterer theoretischer und ökonometrischer Modelle sieht die Lage heute leider nicht wesentlich anders aus. Gerade einmal zehn Jahre sind vergangen, seit der sogenannte Jackson Hole-Konsens dazu führte, dass die Notenbanken ungezügeltes Kreditwachstum tolerierten. Als Rechtfertigung für ihre Tatenlosigkeit verwiesen sie auf die Tatsache, dass die Inflation – zumindest mit Blick auf die traditionellen Indikatoren – unter Kontrolle war. Was dann geschah, ist bekannt. Kaum zu glauben also, dass die EZB und andere Zentralbanken nach so kurzer Zeit schon wieder einen Fehler begehen. Aktuell besteht die kapitale Fehlleistung darin, die geldpolitischen Zügel immer weiter zu lockern – bis hin zu negativen Zinsen – und nahezu jede Anlageklasse innerhalb der Eurozone anzukaufen. Heute beruft man sich gerne auf das Dogma, mangelnde Nachfrage sei ausschlaggebend für die unbefriedigende Inflationsentwicklung. Hat man sich erst mal dieser Sichtweise verschrieben, lassen sich überall Argumente für die Notwendigkeit der derzeitigen Geldpolitik finden. Dieses Phänomen nennt man in der Verhaltensökonomie Bestätigungsfehler (confirmation bias). Abweichende Erklärungen werden abgetan. Konzept 22 Jene wie die EZB, die fest davon überzeugt sind, die einzig richtige analytische Sichtweise zu besitzen, bezeichnet Philip Tetlock in seinem Buch „Superforecasting – Die Kunst der richtigen Prognose“ als „Igel“ (hedgehogs). In Kombination mit dem „group-think“-Phänomen erklärt sich, warum Mario Draghi und seine Kollegen ihre immer expansivere Geldpolitik auch mit dem Argument rechtfertigen, dass doch alle anderen Zentralbanken genauso handeln. Hält sich ein Problem, wie in diesem Fall die zu niedrige Inflation, beharrlich, kann das doch nur heißen, dass die Dosis der verabreichten Medizin einfach erhöht werden muss. Das von der EZB in den vergangenen Jahren gezeigte Verhalten ist also durchaus verständlich. Dies gilt auch für die Tatsache, dass sie angesichts immer verzweifelterer Maßnahmen die Orientierung verloren hat. Nachdem die Absenkung der Zinsen auf das niedrigste Niveau seit zwanzig Generationen nicht – wie erhofft – Wachstum und Inflation befeuerte, stürzte sich die EZB in das nächste Projekt: Quantitative Easing, d.h. den massiven Ankauf von Staatsanleihen aus der Eurozone. Doch die Verkäufer dieser Papiere nutzten dieses Geld der EZB nicht für Ausgaben oder Investitionen, sondern parkten es bei den Banken, die es wiederum als Einlagen bei der EZB platzierten. Nach der internen Logik der EZB war damit die drastische Maßnahme, einen Strafzins auf Einlagen zu verhängen, zwangsläufig. Inzwischen wird fast die Hälfte der Staatsanleihen der Eurozone mit einer negativen Rendite gehandelt. Führt auch dies nicht zu höherem Wachstum und höherer Inflation, greift die Zentralbank ohne Zweifel zum Instrument des Helikoptergeldes. Studenten der Geschichte der Geldpolitik, werden bei ihrer Betrachtung dieser Ereignisse wohl ungläubig die Köpfe schütteln. Doch der geldpolitische Fehltritt der EZB beschränkt sich nicht auf die Zinsen. Mit dem sogenannten Outright Monetary Transactions-Programm tritt sie außerdem als Ankäufer der letzten Instanz für Staatsanleihen auf und bürgt de facto für die Solvenz der Mitgliedstaaten. Die Risikoaufschläge am Markt für Staatsanleihen sind damit nahezu verschwunden. Die Mitglieder der Eurozone müssen nicht länger einen Anstieg ihrer Finanzierungskosten fürchten, wenn sie Strukturreformen nicht auf den Weg bringen oder beim Schuldenabbau hinterherhinken. Tatsächlich stieg bis zuletzt die Gesamtverschuldung in der Eurozone. Als Konsequenz werden dringend notwendige Reformen am Arbeitsmarkt, im Bankenwesen, in der Politik, im Bildungssektor und im Bereich der staatlichen Verwaltung verschleppt oder gleich ganz unterlassen. Diese Fehler haben eine solche Tragweite, dass die Geldpolitik nun die größte Bedrohung für den langfristigen 23 Argumente für eine Zinserhöhung durch die EZB Konzept 24 Die Geldpolitik stellt nun die größte Bedrohung für den langfristigen Erhalt der Eurozone dar. Der Versuch, Wachstum und Inflation durch immer niedrigere Zinsen und Anleihekäufe zu stimulieren, gleichzeitig aber jeden Anreiz für Strukturreformen zu nehmen, zieht enorme Verwerfungen nach sich. Konzept 24 Erhalt der Eurozone darstellt. Erinnert man sich an Mario Draghis berühmten Satz, die EZB werde alles Notwendige tun, um die Währungsunion zu erhalten, erscheint dies Folgerung paradox. Doch der Versuch, Wachstum und Inflation durch immer niedrigere Zinsen und Anleihekäufe zu stimulieren, gleichzeitig aber jeden Anreiz für Strukturreformen zu nehmen, zieht enorme Verwerfungen nach sich. Es drohen überall Stolperfallen. Die Inflation liegt nur knapp über null Prozent und damit deutlich unter dem Zielwert der EZB. Und angesichts schwacher Wachstumsraten ist die Verschuldung einiger Länder, allen voran Italien, nur dank der potentiellen Absicherung durch das OMT-Programm der EZB tragbar. Somit droht der EZB auch in Bezug auf ihre zugewiesene Aufgabe, für nachhaltige Wirtschaftsentwicklung und finanzielle Stabilität zu sorgen, ein Scheitern. Der im Februar am Aktienmarkt zu beobachtende Ausverkauf zeigte eindringlich, wie bedrohlich nahe eine weitere Bankenkrise ist. Institute wie Versicherungsgesellschaften, Pensionsfonds und Sparkassen, in deren Hände wir unser Vermögen legen, sind schlicht nicht überlebensfähig, wenn sie nichts verdienen. So warnte auch die deutsche Finanzmarktaufsicht vergangenen Monat, niedrige Zinsen seien ein schleichendes Gift für die Finanzinstitute. Die BaFin hat Sorge, dass einige Pensionsfonds ihre Leistungszusagen nicht einhalten können, und fürchtet, dass 50 Prozent der deutschen Banken zusätzliches Kapital benötigen werden. Der Präsident der BaFin gab den Banken gar den Rat, die Gebühren zu erhöhen und Kosten zu senken. Andreas Dombret, Vorstandsmitglied der Bundesbank, schlug mit seiner Warnung, niedrige und negative Zinsen könnten die Banken zu Gebührenanhebungen zwingen, unlängst in dieselbe Kerbe. Unterdessen interpretieren der Normalbürger oder der Mittelstand, der Beschäftigungs- und Wachstumsmotor der deutschen Wirtschaft, die immer laxere Geldpolitik als Indiz für die zunehmend schlechtere Verfassung der Eurozone. In unsicheren Zeiten sparen die Leute immer mehr und die Investitionen stagnieren. Es ist naiv zu glauben, dass negative Zinsen, die als Ultima Ratio angesehen werden, an dieser Haltung etwas ändern könnten. Vielmehr bewirken sie das genaue Gegenteil. Tatsächlich scheint sich die zunächst positive Wirkung der Geldpolitik über den Vertrauenskanal zunehmend in das Gegenteil umzuschlagen. In einer Umfrage gab im November nur ein Drittel der Bürger der Eurozone an, der EZB zu vertrauen, was den niedrigsten Wert aller Zeiten markiert. In Spanien lag der Anteil bei 22 Prozent. Selbst in Deutschland bröckelt das Vertrauen, obwohl die Deutschen bis 2007 zu den treuesten Fans der EZB zählten. 25 Argumente für eine Zinserhöhung durch die EZB Seit der Feststellung von Jacques Delor im Jahr 1992, dass nicht alle Deutschen an Gott glauben, aber alle an die Bundesbank, hat sich also einiges verändert. Selbst ohne den Vertrauenskanal scheint die EZB immer weniger mit ihrer immer extremeren Geldpolitik zu erreichen. Seit letztem April nimmt die sonst so deutliche enge Korrelation zwischen dem Umfang der EZB-Bilanz und einem Index zu den geldpolitischen Bedingungen (MCI) ab, was auf nachlassende Skalenerträge schließen lässt. Dies liegt unter anderem daran, dass Kreditgeber ohne positive Spreads Kredite nicht verlängern können, selbst wenn sie dies wollten. Die Umfrage zur Kreditvergabe der Banken im ersten Quartal zeigt, wie aufgeweicht dieser Wirkungskanal inzwischen ist. Negative Zinsen ziehen de facto höhere Finanzierungskosten nach sich, da die Banken die Negativzinsen nicht an die Einleger weiterreichen können. Darüber hinaus führt das extrem billige Geld zu weiteren Verwerfungen, die sich wohl nur mit großen Kosten wieder beheben lassen. So können dank der Kapitalschwemme Unternehmen überleben, die unter normalen Bedingungen nicht lebensfähig wären. Die viel zu geringen break-even-Renditen führen zur massiven Fehlallokation von Kapital. In Branchen mit dringendem Konsolidierungsbedarf scheidet kein Unternehmen aus dem Markt, während unterdurchschnittliche Unternehmen weiterhin mit hohen Aktienkursen aufwarten können. Fakt ist, dass positive Zinsen für marktorientierte Volkswirtschaften von zentraler Bedeutung sind. Sie sind der Preis, der gezahlt werden muss, um durch heutigen Konsumverzicht morgen die Früchte aus der mit diesem Geld finanzierten Anlage ernten zu können. Im Kapitalismus sind positive Zinsen die Grundvoraussetzung für Wohlstand. Nicht nur mit Blick auf unternehmerische Entscheidungen – sondern auch im Verständnis rechtschaffener Sparer. Der gemeine Bürger bekommt den Eindruck, dass die aktuelle Geldpolitik Verschwendung und Überschuldung befördert. Für den theoretischen Volkswirt mag dies zwar einleuchtend sein, es stellt für die hart arbeitende Bevölkerung, die sich um die Absicherung im Alter sorgt, jedoch einen Affront dar. Erschwerend kommt hinzu, dass die Armen ungleich härter getroffen werden als die Reichen mit ihren Aktiendepots oder Apartments in Berlin oder München, die von den steigenden Anlagepreisen infolge extrem niedriger Fremdkapitalkosten profitieren. Die Strategie, die Zinsschraube immer weiter zu lockern, war jedoch nicht unvermeidbar. Es gab durchaus eine Alternative. Unterstützt durch die geldpolitischen Maßnahmen der EZB wären Konzept 26 Reformen möglich gewesen, die der EZB geholfen hätten, das Wachstum durch geldpolitische Maßnahmen zu stimulieren und die Inflation innerhalb der Zielspanne zurückzuführen. Stattdessen hat sich die EZB durch ihr OMT-Programm eigenmächtig zum Retter des Staatsanleihenmarktes aufgeschwungen und so ihren überschuldeten Mitgliedern Solvenz garantiert. Die Mitglieder der Eurozone müssen nicht länger einen Anstieg ihrer Finanzierungskosten fürchten, wenn sie Reformen nicht umsetzen oder beim Schuldenabbau hinterherhinken. Der Reform Responsiveness Rate-Indikator der OECD belegt eindeutig eine Abschwächung der Reformdynamik, insbesondere in jenen Ländern, die am meisten Hilfe erhalten haben. Doch selbst in Ländern wie Italien, das sich nicht unter den EURO- Rettungsschirm begeben hat, ist eine sinkende Bereitschaft zur Umsetzung von Reformen festzustellen, wenngleich der Reformprozess seit letztem Jahr wieder etwas an Dynamik gewonnen hat. Einzige Ausnahme bildet Frankreich, das schon immer Reformwillen vermissen lässt. In der Retrospektive hätte sich die EZB niemals anmaßen dürfen, die Rolle der Retterin der Eurozone zu übernehmen. Und ihr Präsident begibt sich auf dünnes Eis, wenn er die Politiker der Tatenlosigkeit bezichtigt. Vielmehr hat er selbst dazu beigetragen, dass schwere Entscheidungen aufgeschoben wurden. Eine nachhaltigere Lösung wurde so verhindert und unser demokratisches Gefüge geschwächt. Je länger die Politik vergeblich versucht, Stabilität herzustellen, und dabei für zahllose Verwerfungen an den Anlagemärkten sorgt, desto stärker gerät unsere Demokratie in Gefahr, was wiederum zu einer Aufsplitterung der politischen Kräfte führt und Politikern am rechten und linken Rand Aufwind gibt. In Deutschland hat die kontroverse Diskussion über die Politik der EZB zum Beispiel einen Punkt erreicht, an dem Finanzminister Wolfgang Schäuble die Zentralbank angeblich sogar zu 50 Prozent für den Erfolg der rechtspopulistischen AfD bei den letzten Wahlen verantwortlich macht. Zeitgleich kritisierte die CDU/CSU-Fraktion im Bundestag die EZB im April scharf für ihre Nullzins- bzw. Negativzinspolitik und stellte mit ihrer Forderung an die Bundesregierung zum Handeln indirekt die Unabhängigkeit der EZB in Frage. Welche Alternativen gibt es? Vorrangiges Ziel sollte sein, die durch die expansive Geldpolitik erzeugte Abwärtsspirale eines Vertrauensverlusts zu durchbrechen. Die EZB sollte daher eine möglichst baldige Abkehr von ihrer Negativzinspolitik in Erwägung ziehen. Positive Zinsen hätten in der gesamten Eurozone sofort vertrauensbildende Wirkung. Sparer würden jubeln, während der geringe Anstieg der Finanzierungskosten für Kreditnehmer und 27 Argumente für eine Zinserhöhung durch die EZB Anleger durch die positiven Signale einer solchen Kursänderung kompensiert würde. Modelle deuten an, dass die Zentralbanksätze schon derzeit zu niedrig sind. Der deutsche Sachverständigenrat kommt aufgrund einer Modellanalyse zu dem Schluss, dass der Refinanzierungssatz der EZB bereits Ende letzten Jahres ein nicht mehr zu rechtfertigendes Niveau erreicht hat. Unsere eigenen Schätzungen auf Basis der Taylor-Regel lassen ebenfalls auf eine zu laxe Geldpolitik schließen. Auf Basis unserer Prognosen für Inflation und BIP-Wachstum, die sich fast mit den EZB-Prognosen decken, ergibt sich in den kommenden Jahren eine zunehmende Abweichung, zu dem vom Markt erwarteten Zinspfad der EZB. Natürlich sollte die EZB nicht das Kind mit dem Bade ausschütten. Die von Vorsicht geprägte Grundhaltung, die die Federal Reserve nach ihrem ersten Zinsschritt vergangenen Dezember eingenommen hat, ist ein klarer Beleg dafür, dass mit Bedacht gehandelt werden muss. Mit zunehmender Manifestierung der Kollateralschäden der aktuellen Strategie nicht nur an den Finanzmärkten, sondern auch in der Realwirtschaft und der Politik, sollte die EZB die Märkte indes allmählich auf eine erste Zinserhöhung vorbereiten. Gleichzeitig gilt es, schrittweise wieder für eine marktbasierte Risikobewertung am Markt für Staatsanleihen zu sorgen. Die EZB sollte sich zurücknehmen und nicht länger den Rettungsanker für Papiere finanzschwächerer Staaten spielen. Vielmehr muss die Zentralbank den politischen Kräften vertrauen, Lösungen für das unausweichliche Schuldenproblem und Krisenherde in einem oder mehreren Mitgliedstaaten zu finden, und sich darauf konzentrieren, Schuldenprobleme eines Landes nicht auf die nationalen Bankensysteme, die als Bindeglied zur Geldpolitik fungieren, übergreifen zu lassen. Um das Wachstum auch für die kommenden Jahre zu sichern, muss wieder ein Anreiz für die Regierungen geschaffen werden, Strukturreformen umzusetzen. Eine politische Kehrtwende ist nie leicht, doch 1979 stellte Fed-Chairman Paul Volcker unter Beweis, dass selbst die Fed fähig ist, ihre Sicht der Dinge grundlegend zu überdenken. Die Eurozone braucht eine ähnliche Kehrtwende, bevor es zu spät ist. Je länger an einer radikalen Geldpolitik festgehalten wird, desto stärker wird die Geduld von Ländern wie Deutschland strapaziert. Der aktuelle Kurs schadet nicht nur der Wirtschaft, sondern hinterlässt auch politische Spuren – die Eurozone verliert an Rückhalt und Kritiker finden zunehmend Gehör. Selten hatte eine Institution so viel Einfluss auf die wirtschaftliche und politische Zukunft eines ganzen Kontinents. Doch in diesen Zeiten gilt es, nicht sklavisch einem zweifelhaften Konzept 28 Wirtschaftsdogma zu folgen, sondern sich stattdessen auch auf den gesunden Menschenverstand zu besinnen. Mit dem Festhalten an ihrer unorthodoxen Geldpolitik bringt die EZB in zunehmendem Maße das Projekt Europa in Gefahr – ganz im Gegensatz zu ihrer eigentlichen Absicht. Argumente für eine Zinserhöhung durch die EZB29 Zuwanderung— Wie sich Arbeit bezahlt macht Konzept 30 Zuwanderung ist ein Thema, das im besten Fall polarisiert. Das derzeit in Deutschland herrschende Zerwürfnis über die Flüchtlingskrise zwischen den Verfechtern einer nationalen kollektiven Identität auf Basis der eigenen Kultur und damit Gegnern von Zuwanderung auf der einen Seite und Liberalen als Fürsprecher von Immigration auf der anderen Seite steuert jedoch auf einen Punkt zu, an dem es kein Zurück mehr gibt. Dieser Punkt ist noch nicht erreicht, trotz nachlassender Unterstützung für die Partei von Kanzlerin Merkel bei den jüngsten Landtagswahlen und des Aufstiegs der zuwanderungskritischen Alternative für Deutschland. Daher sollte es momentan vorrangig darum gehen, einen gemeinsamen Standpunkt im Hinblick auf die beiden wesentlichen Streitthemen zu entwickeln: akzeptable Einwanderungszahlen und den damit verbundenen Kosten-Nutzen- Faktor. Sobald bei diesen beiden heiklen Themen ein Kompromiss gefunden ist, müssen praktische Wege zu einer effizienteren Integration von Einwanderern gefunden werden, beispielsweise eine Staffelung von Sozialleistungen oder die Aussetzung des staatlichen Mindestlohns. Zunächst muss der Streit um eine angemessene Zahl an Einwanderern, die im Land aufgenommen werden sollen, beigelegt werden. Diejenigen in Deutschland, die sich gegen höhere Zuwanderungszahlen aussprechen, gehen dabei von einer falschen Entscheidung zwischen Aufnahme und Abweisung von Migranten aus. Leider wird bei dieser Sichtweise nicht berücksichtigt, dass eine verstärkte Bevölkerungswanderung inzwischen weltweit unvermeidbar geworden ist. Die vergleichsweise jüngere und ärmere Bevölkerung in den Entwicklungsländern wächst schnell. Ägyptens Bevölkerung beispielsweise war 1975 halb so groß wie die Deutschlands. Ägypten hat Deutschland jedoch inzwischen mit einer Bevölkerung von aktuell mehr als 80 Millionen Menschen überholt. Die Bevölkerung von Nigeria wird bis 2050 voraussichtlich von 180 Millionen auf 400 Millionen anwachsen. Bei der Modellierung künftiger Migrationsströme kam der Wirtschaftsexperte Paul Collier zu dem Schluss, dass die Wanderungsbewegung aus armen in reiche Länder aus drei Gründen zunehmen wird. Zum einen wird auch weiterhin eine große Lücke bei Löhnen und Gehältern zwischen armen und reichen Ländern bestehen. Gleichzeitig erreichen absolut betrachtet immer mehr Migranten ein Einkommensniveau, das es möglich macht, Geld für eine Auswanderung anzusparen. Und schließlich sinken die wirtschaftlichen und sozialen Kosten der Migration, weil die Zahl der Freunde und Verwandten, die die Migranten in Empfang nehmen, weiter wächst. Daher, so argumentierte er, bewegt sich die Welt auf eine Phase des Ungleichgewichts zu, 31 Zuwanderung—Wie sich Arbeit bezahlt macht in der die Einwanderungszahlen sich ausschließlich nach oben entwickeln können. Es ist also nicht verwunderlich, dass selbst Regierungen, die eine Begrenzung der Einwanderung in ihr Land versprochen haben, feststellen mussten, dass dies nahezu unmöglich ist. Und selbst die schärfsten Einwanderungsgegner dürften vor dem Maß an Härte zurückschrecken, das für eine Einschränkung von Zuwanderung erforderlich ist – ganz zu schweigen von Maßnahmen, die für eine gänzliche Unterbindung ergriffen werden müssten. Dies erklärt vielleicht auch, warum immer mehr Länder es vorziehen, die „Drecksarbeit“ von anderen machen zu lassen. So versucht man in Europa beispielsweise bereits, die Zuwanderungsströme durch Transitländer wie die Türkei oder Mazedonien in den Griff zu bekommen. Im Gegenzug dafür, dass Zuwanderungsgegner die Unvermeidbarkeit höherer Zuwanderungszahlen anerkennen, müssten Liberale einräumen, dass die Zuströme durch eine vereinbarte und umgesetzte Obergrenze in sinnvoller Höhe beschränkt werden müssen. Kritiker der deutschen Willkommenskultur haben zudem Recht, wenn sie darauf verweisen, dass das Land bereits mehr als seinen gerechten Beitrag leistet. Von den 1,25 Millionen Asylsuchenden, die im vergangenen Jahr in die Europäische Union kamen, hat Deutschland mehr als ein Drittel aufgenommen. Gemessen an seiner Bevölkerung hat Deutschland unter den 28 Mitgliedstaaten die viertgrößte Zahl an Asylsuchenden aufgenommen. Die Aufnahme von Asylbewerbern, Flüchtlingen und anderen Migranten hat die Nettozuwanderung in diesem Jahr auf ein Rekordniveau von mehr als einer Million Menschen ansteigen lassen, was sogar die Zuwanderungszahlen der USA übersteigt. Europa erlebt derzeit zweifelsohne die schlimmste Flüchtlingskrise seit dem Zweiten Weltkrieg und das Flüchtlingshilfswerk der Vereinten Nationen berichtet von einer Million Menschen, die das Mittelmeer überqueren. Nicht sicher ist indes, ob die aktuelle Krise durch eine umfassende, EU- weite Lösung erfolgreich zu bewältigen ist. Die sogenannten Dublin-Verordnungen für die Registrierung und Aufnahme von Asylsuchenden in der Europäischen Union sind an der Wirklichkeit gescheitert. Grenzländer wie Griechenland, Italien, Ungarn und Spanien sind schlicht überfordert und haben entweder ihre Grenzen geschlossen oder lassen Asylsuchende ohne ausreichende Kontrollen nach Europa einwandern, ohne ihnen den Weg nach Norden zu versperren. Ob strengere Kontrollen oder Hilfe für Grenzländer und Unterstützung bei der Verlegung von Flüchtlingen – wie auch immer die endgültigen politischen Maßnahmen aussehen: Es muss etwas geschehen, um den Zustrom nach Konzept 32 Deutschland auf ein verträgliches Maß zu reduzieren. Dies ist Voraussetzung für eine zukünftige Lösung, mit der beide Seiten der Zuwanderungsdebatte leben können. Die Frage ist, welche Höchstgrenze anzusetzen ist, sobald der Zustrom unter Kontrolle ist. Auf Basis einer von den Wirtschaftswissenschaftlern Choi und Veugelers verwendeten Methode, bei der die Bevölkerungszahl eines Landes, seine Wirtschaftsleistung, die Arbeitslosenzahlen und die Geschwindigkeit, mit der Aufenthaltsgenehmigungen aktuell erteilt werden, zugrundegelegt werden, haben wir die theoretische Aufnahmefähigkeit Deutschlands berechnet und dabei angenommen, es würde „genauso viele“ Zuwanderer aufnehmen wie die USA im Rahmen ihres Programms für unbefristete Aufenthaltsgenehmigungen (auch als Green Card bekannt). Laut diesem Modell sollte Deutschland über einen bedeutenden Zeitraum pro Jahr 245.000 Aufenthaltsgenehmigungen gewähren können. Dies entspräche in etwa den 240.00 Aufenthaltsgenehmigungen, die Deutschland im Jahr 2014, einem Jahr mit relativ hoher Zuwanderung, tatsächlich gewährt hat. Das bedeutet nicht, dass Deutschland blind nachahmen sollte, was die USA vormachen, oder dass die Situation in den USA mit Deutschland perfekt vergleichbar wäre. Die große Zahl illegaler Einwanderer in den USA und die in Relation betrachtet jüngere Altersstruktur deutet sogar darauf hin, dass Deutschland in diesem Vergleich möglicherweise noch mehr Zuwanderer aufnehmen könnte. Doch grob geschätzt dürften 250.000 Menschen im Jahr ein vernünftiges Maß darstellen. Blickt man über die Debatte zu Zuwanderungszahlen hinaus, so ist eine aufrichtige Zurkenntnisnahme sowohl der Kosten als auch der Vorteile von Immigration notwendig. Beide Seiten müssen einsehen, dass es trügerisch und kontraproduktiv ist, jeweils nur das eine oder das andere in den Vordergrund zu rücken. Um sich bei den Zuwanderungsgegnern Gehör zu verschaffen, dürfen Deutsche mit einer offeneren Einstellung die anfänglichen Kosten für die Integration neuer Zuwanderer und insbesondere von Flüchtlingen nicht herunterspielen. Zuwanderungsgegner hingegen müssen durch die große Menge an wissenschaftlicher Literatur zum Thema Immigration überzeugt werden, in der zwar auf kurze Sicht eine Ressourcenbelastung festgestellt wird, jedoch nicht langfristig. Kanzlerin Merkel fasst dies korrekt zusammen, wenn sie erklärt, dass die Aufnahme von Flüchtlingen „Zeit, Kraft und Geld“ kosten werde, Länder jedoch immer von gelungener Einwanderung profitiert hätten, „wirtschaftlich wie gesellschaftlich“. Im Hinblick auf die anfänglichen Kosten für die jüngste Welle an Asylsuchenden hat der deutsche Staat 2014 EUR 2,4 Mrd. für Unterstützungszahlungen ausgegeben, 60% mehr als 33 Zuwanderung—Wie sich Arbeit bezahlt macht noch 2013. Ein Fünftel dieses Geldes wurde für medizinische Versorgung, ein Zehntel für Taschengelder und mehr als ein Viertel für Sachleistungen einschließlich Unterbringung und Unterhaltszahlungen verwendet, während Kosten für Verlegungen sowie Reisekosten mehr als ein Viertel der Ausgaben ausmachten. Sobald ein Asylsuchender Flüchtlingsstatus erhält oder aus anderen Gründen nicht legal ausgewiesen werden kann, hat er darüber hinaus wie jeder Aufenthaltsberechtigte Anspruch auf Grundsicherung. Hierzu zählen Hartz IV, Sozialleistungen sowie Bildungs- und Teilhabeleistungen. Natürlich entstehen auch Kosten, die über direkte finanzielle Zuwendungen hinausgehen. Deutschlands Entwicklung zum Haupteinwanderungsziel übt kurzfristig zudem enormen Druck auf das bestehende System aus. Arbeitsmärkte sind um Anpassung bemüht, da sich Arbeitnehmer durch den direkten Wettbewerb mit den Zuwanderern bedroht sehen – und das gilt nicht unbedingt nur für die schlecht ausgebildeten. Die Zuwanderung wirft auch in kultureller Hinsicht schwierige Fragen auf, und es gibt Stimmen, dass insbesondere die Integration von Menschen aus anderen Kulturkreisen in die deutsche Gesellschaft naturgemäß schwierig ist. Andere wiederum sind besorgt über das gefährliche Wiedererstarken sowohl rechts- als auch linkspopulistischer Gesinnungen. Um den Anspruch von Aufrichtigkeit und Kompromissfindung zu erfüllen, müssen kurzfristige Kosten zwar mehr Beachtung finden, allerdings sollten die Befürworter höherer Zuwanderungszahlen bessere Argumente dafür vorbringen können, warum der langfristige Nutzen die anfänglichen Kosten überwiegt. Über die Lebenszeit eines Zuwanderers werden beispielsweise die fiskalischen Kosten durch die Auswirkungen der Einwanderung auf das Rentensystem ausgeglichen. Laut einer OECD-Studie über die Auswirkungen von Zuwanderung auf die Staatsfinanzen beziehen Zuwandererhaushalte zwar 70% mehr an Sozialleistungen und 50% mehr an Wohngeld als gebürtige Staatsbürger, jedoch rund 50% niedrigere Rentenzahlungen. Die ersten beiden Kostenfaktoren sind natürlich vorgelagert, während die Vorteile erst später eintreten. Die Studie fand zudem heraus, dass direkte fiskalische Transferleistungen nicht die einzige beachtenswerte Komponente darstellen. Indirekte Folgen für den Haushalt, beispielsweise durch Umsatz- und Verbrauchssteuern oder durch öffentliche Gesundheits- und Bildungsausgaben, müssen ebenfalls berücksichtigt werden. Gleichermaßen wichtig sind die allgemeinen Auswirkungen auf die binnenwirtschaftliche Wirtschaftsleistung, Löhne und Gehälter, Beschäftigungszahlen, Kapitalstock und Produktivität. Unter Berücksichtigung dieser Konzept 34 Faktoren stellte die OECD fest, dass insgesamt die Zuwanderung auf lange Sicht gesehen weder eine Belastung noch ein Allheilmittel für den Staatshaushalt ist. Zudem basierte diese OECD-Studie auf der Annahme gleichbleibender oder gar wachsender Bevölkerungszahlen. Vor dem Hintergrund eines wie in Deutschland zu beobachtenden Bevölkerungsrückgangs werden die positiven Auswirkungen der Zuwanderung auf potenzielles Wirtschaftswachstum sogar noch wichtiger für die Stabilität der öffentlichen Haushalte. De facto ist die einheimische Bevölkerungszahl in Deutschland seit mehr als vier Jahrzehnten rückläufig. Die sich daraus ergebenden Konsequenzen wurden jedoch durch Zuwanderung verschleiert. Zwischen 2010 und 2015 beispielsweise schrumpfte die einheimische Bevölkerung um 932.000, während die Gesamtbevölkerung aufgrund von rund 1,8 Millionen Einwanderern um 820.000 Menschen zunahm. Verstärkt wird dieses Problem noch durch die schnell voranschreitende Alterung der Bevölkerung. Mit einem Durchschnittsalter von 46, das unter den Industrieländern weltweit nur durch Japan übertroffen wird, ist Deutschland das älteste Land Europas. Bereits einer von 20 Deutschen ist älter als 80 Jahre. Deutschland hat eine der niedrigsten Geburtenraten in der entwickelten Welt, während gleichzeitig die Lebenserwartung gestiegen ist. Das Ergebnis ist ein Abhängigenquotient (das Verhältnis der Bevölkerungsanteile unter 14 und über 65 zur Bevölkerung im erwerbsfähigen Alter), der seit 1985 stetig ansteigt. Und das Problem der Überalterung kann nur schlimmer werden. 1998 erreichte der Bevölkerungsanteil im erwerbsfähigen Alter in Deutschland seinen absoluten Höchststand. Wenn die Baby-Boomer-Generation der Nachkriegszeit ab 2020 verstärkt in Rente geht, hinterlässt sie ein riesiges Loch in der Zahl der potenziell Erwerbstätigen. Laut Statistischem Bundesamt wird sich die Zahl der Menschen im erwerbsfähigen Alter unter den derzeitigen politischen Bedingungen bis 2040 von 49 auf 40 Millionen verringern. Die derzeitige demografische Entwicklung stellt für den Staatshaushalt zukünftig eine schwerwiegende Belastung dar. In einem Land mit beitragsfinanziertem Sozialsystem, das direkt durch die Sozialbeiträge der Erwerbsbevölkerung finanziert wird, ist dieses Problem besonders akut. Eine Untersuchung fand heraus, dass staatliche Unterstützungsleistungen (Renten, Gesundheits- und Pflegeleistungen) für ältere Menschen in Deutschland von derzeit 17% auf voraussichtlich ein Viertel der Wirtschaftsleistung im Jahr 2040 ansteigen dürften. Kann diese Last nicht durch Steuereinnahmen ausgeglichen werden, so muss dies durch Kreditaufnahme und Umverteilung geschehen. 35 Zuwanderung—Wie sich Arbeit bezahlt macht Wenn Kreditaufnahmen für die Finanzierung all der steigenden Sozialleistungen nötig werden, wird die Nettostaatsverschuldung bis 2040 von derzeit gerade einmal 50% auf 104% der Wirtschaftsleistung steigen. Wichtiger als die reine Betrachtung der Haushaltszahlen ist jedoch, die Zuwanderung als notwendige Investition in die Zukunft Deutschlands zu vermarkten. Die Zahlen liefern hierfür schlagende Argumente. Auf Zehnjahressicht gesehen gehen unsere Prognosen für die nächsten drei Jahre von einem anhaltend hohen Flüchtlingszustrom nach Deutschland aus, der dann auf den in der ersten Dekade dieses Jahrtausends zu beobachtenden Jahresdurchschnitt von 50.000 Menschen absinken wird. Unser Modell nimmt zudem an, dass Deutschland aufgrund seiner zunehmend positiven Reputation auf internationaler Ebene sich im Wettbewerb um Talente besser schlagen kann. Unter dem Strich wird sich die Zuwanderung mittelfristig auf 200.000 Menschen pro Jahr belaufen. In diesem Szenario, das zugegebenermaßen eine relativ reibungslose Integration der Zuwanderer in den Arbeitsmarkt, hohe Anfangsinvestitionen und erhebliche gesellschaftliche Anstrengungen voraussetzt, fällt das Potenzialwachstum von derzeit 1,5% nur auf ca. 1%. Damit liegt es einen ganzen Prozentpunkt über dem Wert, der Deutschland ansonsten drohen würde, ein Rückgang auf rund 0,5% über einen Zeitraum von zehn Jahren. Der Anstieg des Wachstumspotenzials basiert auf einer Zunahme der Erwerbsbevölkerung um rund 1,7 Millionen Menschen statt eines Rückgangs von 4,5 Millionen. Bereits jetzt signalisiert die deutsche Wirtschaft Bedarf an mehr Arbeitskräften. Die Arbeitslosenquote befindet auf dem tiefsten Stand seit der Wiedervereinigung. Zudem ist die Dauer bis zur Neubesetzung einer freien Stelle deutlich gestiegen. Im Durchschnitt bleibt eine freie Arbeitsstelle in Deutschland derzeit 84 Tage lang unbesetzt. Im Jahr 2000 war der Zeitraum halb so lang. Es ist nicht schwer, sich eine Zukunft vorzustellen, in der Arbeitskräftemangel alltäglich wird. Die Immigration bietet noch weitere langfristige Vorteile, die man Zweiflern durchaus ganz klar vor Augen führen sollte. So haben Wirtschaftswissenschaftler beispielsweise herausgefunden, dass während der Phase der Masseneinwanderung in den USA im 19. Jahrhundert dem Zustrom an Arbeitskräften tendenziell ein Kapitalzufluss folgte. Eine Studie der Wirtschaftswissenschaftler Williamson, Hatton und Kevin O’Rourke veranschaulicht diesen Effekt auf dramatische Weise. Hätte die Immigration im Jahr 1870 geendet, so fanden sie heraus, wäre die daraus resultierende Knappheit an Arbeitskräften so drastisch gewesen, dass die Löhne und Gehälter Konzept 36 im Jahr 1910 um ein Viertel höher gewesen wären. In einer zweiten Simulation wurde ihr Modell jedoch um die entsprechenden Kapitalflüsse im Zusammenhang mit dem Anstieg verfügbarer Arbeitskräfte angepasst. In diesem Fall waren die Auswirkungen auf die Löhne und Gehälter mit rund 9% bedeutend geringer, was darauf schließen lässt, dass das Kapital „daheim geblieben wäre, hätte man internationale Migrationsbewegungen unterdrückt“. Und zu guter Letzt muss das wirtschaftliche Argument für höhere Zuwanderungszahlen auch qualitativ erbracht werden. Es gibt stichhaltige Belege dafür, dass diversifizierte Gesellschaften lebendiger, sozial flexibler und innovativer sind. Wirtschaftssysteme mit einem höheren Einwanderungsanteil besitzen ein höheres Maß an Dynamik und Mobilität, was die zugrundeliegende Produktivität und das Wirtschaftswachstum fördert. Einwanderer, so lautet das Argument, sind das Ergebnis einer positiven Selektion. Sie gehen Risiken ein, versuchen voranzukommen, sehnen sich nach Freiheit und wissen gleichzeitig, dass sie sich all das erst erarbeiten müssen. Es ist zum Beispiel seit jeher bekannt, dass das Silicon Valley seinen Erfolg vor allem auch den Einwanderern zu verdanken hat. Laut einer anderen Studie wurden 40% der Fortune 500-Unternehmen von Einwanderern oder Einwandererkindern gegründet. De facto wurden viele der größten Marken in den USA – Apple, Google, AT&T, Budweiser, Colgate, eBay, General Electric, IBM und McDonalds, um nur einige zu nennen – von Menschen gegründet, die als Einwanderer in die USA kamen oder deren Vorfahren Einwanderer waren. Steve Jobs von Apple war der Sohn eines Einwanderers aus Syrien; Home Depot: mitbegründet von einem Immigranten aus Russland; Clorox: Mitbegründer aus Irland; Oracle: Russland und Iran; eBay: Frankreich und Iran, und so weiter. Selbst wenn die Neuankömmlinge gering qualifiziert sind, scheint Zuwanderung aufgrund ihrer Auswirkungen auf die Spezialisierung die Innovationskraft der Wirtschaft im Einwanderungsland zu erhöhen. Während der Massenemigration von Kubanern in die USA im Jahr 1980 traten 120.000 Menschen in den US-Arbeitsmarkt ein. Rund die Hälfte von ihnen ließ sich in Miami nieder, während sich die andere Hälfte über das restliche Florida verteilte. Viele dieser Einwanderer wiesen geringe Qualifikationen auf und besaßen nur mangelhafte Englischkenntnisse. Dennoch fand eine vor kurzem durchgeführte Studie heraus, dass im Zuge dieser Immigration die Zahl der angemeldeten Patente in Florida gestiegen ist, insbesondere in den technologischen Bereichen mit geringen Eintrittsbarrieren. Dies, so wird in der Studie vermutet, könnte darauf zurückzuführen sein, dass einzelne Erfinder auf ein großes Angebot an gering qualifizierten Arbeitern zurückgreifen und diese für Hausarbeit, 37 Zuwanderung—Wie sich Arbeit bezahlt macht Kinderbetreuung und sonstige körperliche Arbeiten einsetzten. Somit konnten diese Erfinder, statt sich mit Hausarbeit zu befassen, mehr Zeit in ihre Erfindungen investieren, was zu einer Zunahme bei den angemeldeten Patenten führte. Wenn ein Konsens in Bezug auf ein angemessenes Niveau und die langfristige Erwünschtheit höherer Einwandererzahlen gefunden ist, muss sich der Fokus auf praktische Lösungen für eine effizientere Integration von Flüchtlingen richten. Es ist schließlich im Interesse aller, dass der Übergang von Kosten zu Nutzen so schnell und reibungslos wie möglich vonstatten geht. Die Priorität sollte hier in der Umgestaltung des starren und gleichmachenden deutschen Wohlfahrtssystems liegen, indem Zuwanderern erst nach und nach Ansprüche auf Sozialleistungen eingeräumt werden. Dies ist der gerechteste Weg, die Integrationskosten gering zu halten. Zuwanderungsgegner sollten sich kompromissbereiter zeigen und schließlich einsehen, dass jeder ein Recht auf Sozialleistungen besitzt. Die Liberalen hingegen müssen anerkennen, dass es nicht gerecht ist, Einwanderern sämtliche Annehmlichkeiten einer Staatsbürgerschaft zuzugestehen, ohne dass diese zuvor etwas in den sozialen Topf einbezahlt hätten. Ein stufenweiser Ansatz in Bezug auf Sozialleistungen würde dazu beitragen, eine Brücke zwischen beiden Standpunkten zu schlagen. Und es gibt Präzedenzfälle: Gestaffelte Sozialsysteme sind weltweit bereits gang und gäbe, selbst in Deutschland. Derzeit scheint man sich einig zu sein, dass der Staat Asylsuchende so schnell wie möglich in das Wohlfahrtssystem einbinden sollte, beispielsweise indem anerkannte Flüchtlinge unverzüglich Anspruch auf Hartz-IV-Leistungen erhalten. Es ist jedoch klar, dass Neuankömmlinge nicht zu Hunderten und Tausenden in das System integriert werden können, ohne dessen Funktionsfähigkeit aufs Spiel zu setzen. Es bedarf politischer Innovation, um die Integration von Einwanderern mit Deutschlands internationalen Verpflichtungen in Einklang zu bringen und gleichzeitig die Sicherheit des Sozialstaates zu gewährleisten. Berühmt ist die Aussage von Milton Friedman, freie Einwanderung sei langfristig nicht mit einem Sozialstaat vereinbar. Er brachte das provokative Argument vor, die illegale Einwanderung aus Mexiko in die USA funktioniere für die Mexikaner, den mexikanischen Staat und die USA gerade deshalb so gut, weil sie illegal sei. „Warum? Weil die Menschen, solange sie illegal sind, keinen Anspruch auf staatliche Zuwendungen, Leistungen aus der Sozialversicherung und alle anderen unzähligen Leistungen haben – Leistungen, die wir großzügig verteilen, die von unserer linken in unsere rechte Tasche wandern; und daher immigrieren sie, solange sie keine solchen Ansprüche erhalten, in die Arbeitswelt. Sie nehmen diejenigen Arbeiten an, die die meisten Einwohner dieses Konzept 38 Zuwanderungsgegner sollten sich kompromissbereiter zeigen und schließlich einsehen, dass jeder ein Recht auf Sozialleistungen besitzt. Die Liberalen hingegen müssen anerkennen, dass es nicht gerecht ist, Einwanderern sämtliche Annehmlichkeiten einer Staatsbürgerschaft zuzugestehen, ohne dass diese zuvor etwas in den sozialen Topf einbezahlt hätten. 39 39 Zuwanderung—Wie sich Arbeit bezahlt macht Landes nicht annehmen würden, sie bieten den Arbeitgebern die Art von Arbeitskraft, die diese sonst nicht bekommen könnten – es sind harte Arbeiter, zuverlässige Arbeiter –, und es geht ihnen eindeutig besser damit.“ „Besser“ ist hier natürlich im Vergleich zu den Arbeitsbedingungen zu verstehen, die diese Menschen in ihren eigenen Ländern gehabt hätten. Das ist der Grund, warum sie überhaupt erst ausgewandert sind. Friedman brachte jedoch auch folgendes Argument an: In einem Sozialstaat müssen diejenigen mit höheren Einkommen mehr zahlen als sie erhalten, während für diejenigen mit geringeren Einkommen das Gegenteil der Fall ist. Durch diese Umverteilung fließen öffentliche Mittel in Haushalte mit geringeren Einkommen. Dies führt jedoch auch dazu, dass sich Sozialstaaten grundsätzlich nicht mit einer Politik vereinbaren lassen, die eine freie Zuwanderung fördert, wenn durch diese Politik das fiskalische Gleichgewicht zu weit zugunsten der Haushalte mit geringen Einkommen verschoben wird. Natürlich würden nur sehr wenige ein Deutschland gutheißen, in dem Neuankömmlinge keinerlei Unterstützung erhalten, während die einheimische Bevölkerung alles bekommt. Die meisten würden indes ein Land akzeptieren und als gerecht erachten, in dem der Anspruch auf Sozialleistungen für Einwanderer über einen längeren Zeitraum gestaffelt angehoben würde. In einigen Bereichen ist dies in Deutschland bereits der Fall. Selbst das vergleichsweise großzügige Sozialgesetzbuch gewährt Saisonarbeitern, Studenten und Personen mit bestimmten befristeten Aufenthaltsgenehmigungen nur beschränkten Zugang zu bestimmten Leistungen, wie beispielsweise Kindergeld. Ähnlich hatten Einwanderer aus Rumänien und Bulgarien ohne Beschäftigungshistorie zwischen 2007 und 2014 keinen Anspruch auf Sozialversicherungsleistungen, selbst wenn sie zum Aufenthalt in Deutschland berechtigt waren. In letzterem Falle handelt es sich zugegebenermaßen um eine Übergangsregelung, diese hatte jedoch immerhin sieben Jahre lang Bestand. Auch heute noch sind hoch qualifizierte Arbeitnehmer aus Nicht-EU-Mitgliedstaaten im Rahmen des Blue-Card-Programms verpflichtet, für die eigene und die Krankenversicherung ihrer Familien selbst zu zahlen – Kosten, die für andere Aufenthaltsberechtigte nicht gelten. Inzwischen haben Deutschland und mehrere andere europäische Länder im Zusammenhang mit der laufenden Debatte um einen Ausstieg Großbritanniens aus der EU bestätigt, dass Mitgliedstaaten EU-Bürger von Sozialleistungen ausschließen können, wenn diese nur einwandern, um solche Leistungen zu erhalten. Zwar lassen sich nicht alle diese Beispiele auf Konzept 40 die Flüchtlingskrise anwenden; Tatsache ist jedoch, dass in Deutschland ständig Unterscheidungen im Hinblick darauf getroffen werden, wie viel die Steuerzahler verschiedenen Kategorien von Einwanderern zu zahlen haben, und eine solche Vorgehensweise kann auch weiterhin angewandt werden. De facto nimmt jedes Land mehr oder minder eine Staffelung von Sozialleistungen vor. Eine genauere Betrachtung der sozialen Sicherungssysteme für Einwanderer in der EU verdeutlicht die riesige Vielfalt sozialer Modelle. Länder verändern ständig den Zugang zu Sozialleistungen für Einwanderer, indem sie von Maßnahmen wie Mindestaufenthaltsdauer, Vorschriften zur Übertragung von Leistungen außer Landes, Mindestbeschäftigungsdauer oder migrationsspezifischen Regelungen Gebrauch machen. Häufig wird zwischen Menschen mit langfristiger Aufenthaltserlaubnis, Forschern, Blue Card- Inhabern, Inhabern einer kombinierten Erlaubnis, Saisonarbeitern und sich im Rahmen eines unternehmensinternen Transfers im Land befindlichen Personen unterschieden. Gemäß dem Diskriminierungsverbot im EU- Freizügigkeitsgesetz besitzen erwerbstätige Einwanderer weitgehend dieselben Rechte wie die Staatsangehörigen des jeweiligen Landes. Arbeitnehmer aus Nicht-EU-Ländern, die eine befristete Aufenthaltserlaubnis besitzen, fallen jedoch in eine andere Kategorie. Nehmen wir an, ein Nicht-EU- Bürger, beispielsweise aus Indonesien, ist mit einer befristeten Aufenthaltserlaubnis nach Europa gekommen und hat sechs Jahre lang gearbeitet. Würde ihm bei seiner Arbeit etwas zustoßen und er wäre daraufhin einige Jahre lang erwerbsunfähig, so hätte er in Belgien, Zypern, Estland, Deutschland, Italien und Portugal keinen Anspruch auf Krankengeldzahlungen. In Belgien, Italien, Zypern, der Tschechischen Republik, Griechenland, Portugal und Schweden erhielte er keine Invalidenrente. In zehn Mitgliedstaaten (darunter Österreich, Portugal und Slowenien) hätte er keinen Anspruch auf eine garantierte Mindestsicherung, die eine Absicherung für die ärmsten Bürger darstellt. In Finnland, Irland und Schweden besteht für einen solchen Arbeitnehmer kein Anspruch auf Leistungen während des Mutterschutzes. Was für Europa gilt, gilt andernorts erst recht. Die größten staatlichen Sozialprogramme in den USA hindern seit jeher einige Nicht-Staatsbürger daran, soziale Unterstützung in Anspruch zu nehmen, selbst wenn diese dauerhaft in den USA ansässig sind. Lebensmittelmarken, Leistungen aus dem Gesundheitsfürsorgeprogramm Medicaid ohne vorliegenden Notfall, Zuschüsse an bestimmte Personen zur Deckung von Grundbedürfnissen (Supplemental Security Income) und das Hilfsprogramm für bedürftige Familien (Temporary Assistance 41 Zuwanderung—Wie sich Arbeit bezahlt macht for Needy Families) schließen schon immer nicht registrierte Einwanderer und Einwanderer mit Arbeitsvisa aus. Nachdem 1996 neue staatliche Sozialhilfe- und Einwanderungsgesetze erlassen wurden, sind darüber hinaus auch Personen, die zwar eine rechtmäßige dauerhafte Aufenthalts- und Arbeitserlaubnis, jedoch nicht die Staatsbürgerschaft besitzen, von einigen dieser Programme ausgeschlossen. Es existieren also viele verschiedene Wege, nach Deutschland kommenden Asylsuchenden und anderen Einwanderern die Möglichkeit eines angenehmen Lebens zu bieten, ohne dadurch den Staatshaushalt über die Maßen zu belasten. Eine zeitweilige Aussetzung des relativ hohen deutschen Mindestlohns von EUR 8,50 ist ein Beispiel, das seine Berechtigung aus der Tatsache heraus hat, dass ein Großteil der Flüchtlinge bis zur Eingewöhnung mehr Zeit für Einarbeitung, Spracherwerb und Ausbildung benötigen, was auf Kosten einer effizienten Arbeitszeit geht. Die Idee besteht darin, die Löhne an ihre Produktivität anzupassen, um die Nachfrage nach eingewanderten Arbeitskräften zu erhalten. Der Mindestlohn in Frankreich, der zu einer hohen Jugendarbeitslosigkeit beigetragen hat, könnte als Beispiel genannt werden, um eine solche Maßnahme zu rechtfertigen. Auch an diesem Punkt war Deutschland bereits zuvor. Produktivitätsbasierte Löhne waren das Grundprinzip des Reformprogramms Agenda 2010 und des Lohnrückgangs in den 2000er Jahren, die zu einem umfassenden Beschäftigungswachstum führten, das man in Deutschland nie für möglich gehalten hätte. Auch die Einführung weiterer Staffelungsmechanismen wäre denkbar. Warum sollte man nicht beispielsweise von Einwanderern, jedoch nicht von Flüchtlingen, verlangen, einen höheren Steuersatz zu zahlen, bis sie die Staatsbürgerschaft erlangen? Oder Einwanderer dazu verpflichten, für eine bestimmte Dauer einen Beitrag zum sozialen Dienst zu leisten, um sich ihre Staatsbürgerschaft zu verdienen? Das grundlegende Prinzip besteht darin, physische Grenzen zu lockern und im Gegenzug stärkere Bindungen in Form von Verpflichtungen zu schaffen – in finanzieller und sonstiger Hinsicht. Eine neue Regelung in diesem Sinne könnte die derzeitige Einwanderungswelle zu einer politischen und wirtschaftlichen Chance machen, die die öffentlichen Kosten, Unannehmlichkeiten und politischen Risiken bei Weitem aufwiegen würde. Ein gestaffeltes Sozialsystem ist das effektivste Mittel, um die Belastung durch die Integration von Einwanderern zu verringern, und bietet gleichzeitig eine gerechte Lösung im Hinblick auf die berechtigten Einwände der Konzept 42 Einwanderungsgegner, dass diejenigen, die noch keine Beiträge für die Gesellschaft geleistet haben, keinen uneingeschränkten Zugang zu Sozialleistungen erhalten sollten. Es existieren jedoch auch andere Wege, um den Übergang von kurzfristigen Kosten zu langfristigem Nutzen so schnell und reibungslos wie möglich zu gestalten. Klare Beispiele sind Aus- und Weiterbildung. Auch hier würde eine aufrichtige Bewertung der Lage zu einer Mäßigung der Debatte beitragen. Die Liberalen müssen schlicht eingestehen, dass viele Einwanderer gering qualifiziert und nicht geeignet sind, um die freien Arbeitsplätze in der deutschen Wirtschaft zu besetzen. Anfängliche Beteuerungen, es kämen ausschließlich hoch qualifizierte Flüchtlinge nach Deutschland, erwiesen sich als falsch und waren damit sicherlich nicht hilfreich. Eine kürzlich unter Menschen in Flüchtlingslagern durchgeführte Umfrage des Ifo-Instituts deutet darauf hin, dass zwar ein Zehntel der Flüchtlinge einen Hochschulabschluss besitzt, rund zwei Drittel jedoch überhaupt keine formalen Qualifikationen für einen Job vorweisen können, verglichen mit 14% unter der einheimischen deutschen Bevölkerung. Natürlich sind keine verlässlichen Zahlen zur Qualifikation der Flüchtlinge in der derzeitigen Einwanderungswelle verfügbar. Andere Daten deuten tatsächlich darauf hin, dass die vermutete Qualifikation von Flüchtlingen nicht so unwirtschaftlich ist wie viele glauben. Man sollte berücksichtigen, dass ein Fünftel der derzeit freien Stellen im Land keiner formalen Qualifikation mehr bedürfen. Das sind rund 100.000 direkt verfügbare Jobs, von Sprachbarrieren mal abgesehen. Zuwanderungsgegner sollten zudem berücksichtigen, dass ein weiteres Fünftel der freien Stellen eine formale Schulbildung voraussetzen. Laut einer aktuellen Studie der schwedischen Arbeitsagentur von 2014 entspricht dies genau dem Anteil der Flüchtlinge, der angeblich einen weiterführenden Abschluss vorweisen kann. Wird die derzeitige Flüchtlingskrise nicht richtig behandelt, hat sie das Potenzial, Deutschlands hoch geschätztes konsensgesteuertes Sozialmodell zu sprengen. Sie bietet jedoch auch eine einmalige und spannende Gelegenheit, viele Probleme, die früher oder später auf das Land zukommen, aus der Welt zu schaffen. Wenn die Menschen, die in dieser Debatte unterschiedliche Sichtweisen vertreten, mehr Verständnis für die absolut gerechtfertigten Standpunkte der anderen Seite aufbringen können, dann ist eine gangbare Lösung für die Krise nicht unmöglich. 43 Zuwanderung—Wie sich Arbeit bezahlt macht Bankenregulierung —lasst die Banken ihren Job machen Konzept 44 „Es war in unseres Lebensweges Mitte, als ich mich fand in einem dunklen Walde, denn abgeirrt war ich vom rechten Wege.“ Was für Dantes Allegorie gilt, gilt seit der Krise auch für die Bankenregulierung. Sie sollte die Banken sicherer machen, Verhaltensweisen verbessern und die Kreditvergabe anregen. Doch auch acht Jahre nach der Krise bereiten die Banken weiterhin Sorgen. Die Verkaufswelle bei europäischen Bankaktien im Februar dieses Jahres war ein beunruhigendes Signal und erinnerte uns daran, dass die Märkte noch immer unsicher sind, ob das Bankensystem der Eurozone solide genug ist, um eine weitere Krise in der Zukunft zu überstehen. Unterdessen ärgern sich die Kunden über reduzierte Handelsliquidität und die geringere Kreditvergabe, während sich das Risiko auf die weniger regulierten Schattenbanken verlagert hat und so eine Illusion von Sicherheit entsteht, die uns nach der nächsten Krise sicherlich idealistisch und weltfremd erscheinen wird. Irgendwo unterwegs scheint man sich bei der Re- Regulierung der Banken verzettelt zu haben. Die Banken haben zwar ihre Kapitalbasis gestärkt und sind zweifelsohne sicherer geworden, doch unter Anlegern gelten Banken in zunehmendem Maße als „uninvestierbar“. Gewiss ist es kein gutes Zeichen, dass beispielsweise zwischen 2009 und 2013 in den USA nur zwei Banken pro Jahr gegründet wurden, verglichen mit 100 pro Jahr zwischen 1990 und 2008. Auch in Europa ist die Zahl der Banken im Vergleich zum vorherigen Jahrzehnt um ein Fünftel zurückgegangen. Diese Konsolidierung ist zwar in vielen Fällen wünschenswert, sie ist jedoch auch ein Beleg dafür, wie schwierig es offenbar für den Bankensektor geworden ist, neues Kapital einzuwerben. Auch die Anleger an den öffentlichen Märkten lassen lieber die Finger von den Banken, was dazu geführt hat, dass der europäische Bankenindex auf ein Kurs-Buchwert-Verhältnis von 0,6 gefallen ist. Dies dürfte kaum verwundern, wenn man auf die Eigenkapitalrenditen blickt, die in den vergangenen fünf Jahren die 5%-Marke nicht überstiegen haben, geschweige denn die Kapitalkosten der Banken von rund 9%. Die Bürokratie der Finanzmarktregulierung hat ungeahnte Dimensionen angenommen. Mitarbeiter im Hypothekengeschäft von JPMorgan verbrachten Berichten zufolge allein 2014 insgesamt 800.000 Stunden mit Compliance-Schulungen. Compliance- Abteilungen in großen internationalen Banken beschäftigen inzwischen Tausende von Mitarbeitern. HSBC beispielsweise hat ihre Mitarbeiterzahl im Compliance-Bereich seit 2010 um das Sechsfache auf 9.000 Mitarbeiter aufgestockt. Mittlerweile arbeitet etwa ein Zehntel der 255.000 Vollzeitkräfte der HSBC in den 45 Bankenregulierung—lasst die Banken ihren Job machen Bereichen Risiko und Compliance. Auch JPMorgan hat seit der Krise 8.000 neue Mitarbeiter für den Compliance- Bereich eingestellt. Die mit diesen personellen Aufstockungen verbundenen Kosten sind alles andere als unbedeutend. 2015 gab die HSBC fast USD 3 Mrd. für Programme zur Aufdeckung von Finanzkriminalität aus, ein Drittel mehr als im Vorjahr. Auch die UBS investierte 2014 USD 1 Mrd., ein Viertel ihres Jahresgewinns, in die Erfüllung aufsichtsrechtlicher Anforderungen. Bei einer ganzen Reihe von Banken werden die über Sparmaßnahmen errungenen Verringerungen der Kostenbasis durch immer höhere regulatorische Ausgaben aufgezehrt. Das ist kaum verwunderlich, bedenkt man, dass allein in den USA durch die dezentrale Finanzmarktregulierung große Banken der Regulierung durch sieben verschiedene Behörden unterstehen: die Securities and Exchanges Commission (SEC), die Commodity Futures Trading Commission (CFTC), die Federal Reserve, die Federal Deposit Insurance Corporation (FDIC), die Financial Industry Regulatory Authority (FINRA), das Office of the Comptroller of the Currency (OCC) und das Consumer Financial Protection Bureau (CFPB). Darüber hinaus verfügt jeder Bundesstaat über eine eigene Bankenaufsicht. Der zusätzliche Aufwand erscheint besonders sinnlos, weil nicht einmal klar ist, ob durch diese neuen Regelungen abgesehen von den grundlegendsten Verbesserungen überhaupt etwas erreicht wird. Wie britische Aufsichtsbehörden feststellten, haben die in der EU eingeführten Regelungen zur Begrenzung von Bonuszahlungen, nur dazu geführt, dass sich der prozentuale Anteil der festen Vergütung an der Gesamtvergütung erhöht hat, während die Gesamtvergütung weiterhin unverändert blieb. Die vorgeschlagene Finanztransaktionssteuer, deren Einführung von elf EU-Mitgliedstaaten vorerst verschoben wurde, würde einen Rückgang des Derivategeschäfts in Europa um 70% bis 90% zur Folge haben. Zudem würden sich europäische Unternehmen mit einer Erhöhung der Kosten für Währungsabsicherungsgeschäfte um 300% konfrontiert sehen. Diese Werte basieren auf eigenen Schätzungen der Europäischen Kommission. Diese Aufblähung der Regelwerke ist nicht nur absolut sondern auch historisch betrachtet unverhältnismäßig. So umfasste der US-amerikanische Glass-Steagall Act von 1933 gerade einmal 37 Seiten. Der Dodd-Frank Act von 2010 hingegen bringt es auf schwindelerregende 2.300 Seiten und dabei sind die 22.000 Seiten starken Regelungen, die von den mit der Erstellung des Regelwerks zum Dodd-Frank Act betrauten Behörden zum Zweck der Umsetzung des Gesetzes herausgegeben wurden, noch gar nicht berücksichtigt. Da der Prozess noch immer nicht abgeschlossen ist, sind die geschätzten 2.260.631 Arbeitsstunden, die jährlich 1 Haldane, A .„The dog and the frisbee.“ Rede in Jackson Hole, Wyoming. 31. August 2012 Konzept 46 für die Einhaltung dieser neuen Regelungen aufgebracht werden müssen, sicherlich zu niedrig angesetzt, ebenso wie die Zahl der mehr als 1.000 Vollzeitmitarbeiter, die mit dieser Aufgabe betraut sind Das Basel I-Abkommen von 1988 umfasste gerade einmal 30 Seiten, während Basel II im Jahr 2004 bereits einen Umfang von 345 Seiten hatte und Basel III 2010 es auf 616 Seiten brachte. Und auch hier sind die Millionen von Berechnungen zur Erstellung von Bankenmodellen, die einzelnen Krediten unterschiedliche Risikogewichtungen zuweisen, noch nicht mitgezählt. Andy Haldane von der Bank of England wies 2012 darauf hin, dass die Federal Reserve von Bankholdinggesellschaften bereits seit 1978 eine vierteljährliche Berichterstattung verlangt. Im Jahr 1986 umfassten diese Berichte 547 Spalten einer Excel- Tabelle, 1999 bereits 1.208 Spalten. 2011 war der Umfang der Berichte auf 2.271 Spalten angewachsen. Glücklicherweise habe sich die mögliche Spaltenanzahl in Excel über diesen Zeitraum ausreichend stark erhöht, um dieses höhere Volumen erfassen zu können. Bei der Deutschen Bank hat sich die Last der Offenlegungspflichten in einem rund 600 Seiten schweren Geschäftsbericht niedergeschlagen – sechsmal mehr Seiten als vor 25 Jahren. Doch nicht nur die Zahl der Seiten hat explosionsartig zugenommen. Lesern, die sich nicht mit AFS, CFR, CPR, CVA, DRE, DVA, EAD, FVA, IMM, LCR, LGD, MREL, NQH, NSFR, SFT, SNLP oder TLAC auskennen, dürfte es schwerfallen, viele der im Geschäftsbericht behandelten Themen zu verstehen. Statt nach der Krise die Verflechtung zwischen Staaten und ihren einheimische Finanzsektoren aufzulösen, haben die jüngsten regulatorischen Maßnahmen einem immer größer werdenden Aufsichts-/Finanzkomplex noch Vorschub geleistet. Dies sorgt dafür, dass die Einkommensaussichten für ehemalige Mitarbeiter von Aufsichtsbehörden enorm gestiegen sind, da sie zu den Wenigen zählen, die bei den vielen neuen Regelungen noch den Durchblick haben. Das fortdauernde Wachstum eines immer enger miteinander verbundenen Aufsichts-/Finanzkomplexes war sicherlich nicht das, was sich die Öffentlichkeit nach 2008 gewünscht hatte. Die Denkweise hinter dem derzeitigen Ansatz für die Bankenregulierung brachte im Februar Neel Kashkari, der neu ernannte Präsident der Minneapolis Fed, wie folgt auf den Punkt: Er forderte, Banken sollten in operativer Hinsicht wie große Atomkraftwerke behandelt werden und so viel Kapital halten, dass ein Ausfall praktisch unmöglich sei. Dieses Konzept der Betrachtung von Banken als Versorgungsbetriebe wurde auch in Europa umfassend diskutiert, und erklärt viele Aspekte der regulatorischen Agenda der Nachkrisenzeit. 47 Bankenregulierung—lasst die Banken ihren Job machen Immerhin üben die Regulierungsbehörden heutzutage in ähnlicher Weise Einfluss auf Kosten und Gebühren für Produkte, Ausschüttungsquoten und Dividenden, Vergütungen, die Anwerbung von Führungskräften, Compliance und Aufsicht sowie Finanzkontrollen aus, wie dies bei großen öffentlichen Versorgern der Fall ist. Der Vergleich mit den Versorgungsbetrieben funktioniert auch dann, wenn man bedenkt, dass Banken mit quasi-staatlichen Aufgaben, wie der Überprüfung auf kriminelle Machenschaften durch die Know-Your-Customer (KYC)-Vorgaben, der Meldung verdächtiger Transaktionen und Aktivitäten, dem Einfrieren von Konten und Transaktionen sowie der Durchsetzung von internationalen Sanktionen, betraut wurden. Dies hat große Ähnlichkeit mit den Bestimmungen für Versorger, die Klimavorgaben einhalten und Kunden mit geringen Einkommen versorgen müssen. Nur wenn Banken wie Atomkraftwerke behandelt werden, erscheint die Verbesserung ihrer Bilanzzahlen seit 2008 noch immer unzureichend. Die europäischen Banken haben seit Beginn der Finanzkrise 2008 Kapital in Höhe von knapp EUR 360 Mrd. eingeworben. Sowohl die Quantität als auch die Qualität des Kapitals hat sich erhöht, und die Kernkapitalquote für Banken der Eurozone ist von gerade mal 8% im Jahr 2007 auf 13,5% gestiegen. Es mag sein, dass neue Liquiditäts- und Verschuldungsanforderungen zu einer Zunahme der Barbestände europäischer Banken um ein Sechsfaches im Vergleich zu 2008 geführt haben, während die Verschuldung um ein Drittel zurückgegangen ist. Doch trotz alledem sind die Kritiker, die 100%ige Sicherheit fordern, noch immer nicht zufriedengestellt. Dem regulatorischen Ansatz, der auf die Behandlung von Banken als Versorgungsbetriebe abstellt, muss entschieden entgegengetreten werden. Diese Denkweise ist aus mehreren Gründen falsch. Zum einen wird dabei außer Acht gelassen, wie Versorger tatsächlich reguliert werden. Bollwerke an Bilanzen und strenge Regulierung sind nur ein Teil der Bedingungen, die in Kauf genommen werden müssen. Zum anderen gilt es zu bedenken, dass Versorgungsbetriebe private Investoren anziehen müssen, indem sie ihnen attraktive Renditen bieten. Dies geschieht üblicherweise, indem die Produkte oder Vertriebswege an einem bestimmten Markt geschützt werden, um die finanzielle Tragfähigkeit zu sichern. In Europa versprechen die Regulierungsbehörden der Versorger beispielsweise noch immer garantierte Renditen für Monopolnetzbetreiber. In Frankreich sind in der Gasversorgung reale Kapitalrenditen von 4,7% vor Steuern möglich, wobei die nominalen Eigenkapitalrenditen nach Steuern in den vergangenen zehn Jahren üblicherweise bei mehr als 10% lagen. Konzept 48 Dieses Modell ließe sich unmöglich auf den Bankensektor übertragen. Man stelle sich nur einmal den Aufschrei in der Politik vor, würden die Aufsichtsbehörden den europäischen Banken einen gewissen Betrag ihrer benötigten Mindestgewinne garantieren, indem sie den Wettbewerb ausbremsen. Zudem gibt es im Vergleich zu natürlichen Monopolen wie Stromnetzen keine bedeutenden von Banken angebotenen Finanzprodukte, die nicht auch von Nichtbanken angeboten werden könnten. Somit wäre eine Abschirmung von Produktströmen, auch wenn sie wünschenswert wäre, im Finanzdienstleistungssektor vermutlich gar nicht realisierbar. Geschäftsbanken waren früher etwa die einzige nennenswerte Anlaufstelle für große Unternehmen, um kurzfristige Kredite aufzunehmen, doch dieser Dienst wird nun auch von Geldmarktfonds angeboten. Ohne garantierte Renditen wirkt der Vergleich mit den Versorgungsbetrieben eher wie eine Warnung und nicht wie eine Orientierungshilfe. Betrachten wir zum Beispiel das Stromerzeugungssegment, in dem aufgrund europäischer Vorgaben eine Mischung aus garantierten Preisen (vorwiegend für Wind- und Sonnenenergie) und Marktpreisen (für Wasser- und Atomkraft sowie fossile Energien) bestand. Die Folge war Instabilität am Markt, verbunden mit gleichzeitig niedrigen Gewinnen und drohenden Versorgungsengpässen. Die Atomenergiebranche ist hier in der Tat das eindrücklichste Beispiel, da sie sich mit immer strengeren Sicherheitsvorgaben bei gleichzeitig immer niedrigeren Preisen und Gewinnen konfrontiert sieht. Unternehmen wie RWE und EDF sehen sich durch diesen Regulierungsansatz sogar ernsthaft bedroht, wobei besonders RWE unter dem von der deutschen Regierung geplanten Atomausstieg leidet. Ebenso wie strengere Sicherheitsauflagen bei stetig fallenden Marktpreisen unweigerlich zu Schließungen von Kernkraftwerken geführt haben, wird das Verlangen nach einem Geschäftsmodell für Banken, das neben immer höheren Kapitalanforderungen auch die stetig zunehmenden regulatorischen Vorschriften erfüllt, zum sicheren Tod der Bankenbranche führen. Genau das scheint heute zu passieren: durch die Kombination aus strenger Regulierung, einer schwachen europäischen Wirtschaft und einem negativen Zinsumfeld wurde die Rentabilität stark in Mitleidenschaft gezogen, wodurch Banken ihre Kapitalkosten nicht länger decken können. Banken können im Allgemeinen auf vier Umsatzquellen zurückgreifen: den Nettozinsertrag, Gebühren, das Handelsergebnis und sonstige Umsätze. In Europa waren diese in den letzten Jahren alle rückläufig. Zwischen 2010 und 2014 sind die Umsätze der größten europäischen Banken um 10% zurückgegangen von 49 Bankenregulierung—lasst die Banken ihren Job machen vormals EUR 500 Mrd. Die Handelsumsätze sind um ein Viertel geschrumpft, während die Zinsüberschüsse, die mehr als ein Viertel der Umsätze ausmachen, um ein Zehntel gefallen sind. Darüber hinaus hat das negative Zinsumfeld die Rentabilität der Banken beeinträchtigt, da die Banken die Negativzinsen nicht an Einlagenkunden weiterreichen können. Gleichzeitig sind auch die Kreditzinsen zurückgegangen, wodurch wiederum die Nettozinsmargen für die Banken gefallen sind. Die Auswirkungen der unkonventionellen Geldpolitik sind in Europa gravierender als in den USA. Während der Quantitative-Easing-Phase in den USA zwischen 2010 und 2014 sind die Kreditmargen der Banken um 19% zurückgegangen. Gleichzeitig lagen die Zinserträge jedoch stabil bei USD 240 Mrd., da das jährliche Wachstum des Kreditgeschäfts weiterhin solide bei rund 5% lag. In Europa hingegen ist das Kreditwachstum zu gering, um einen solchen Ausgleich zu schaffen. In Italien zeigt sich das Problem vermutlich am deutlichsten. Dort liegen die Nettomargen für neue Kredite 74 Basispunkte unter jenen für Bestandskredite. Wenn diese neuen Kredite die bisher bestehenden Kredite ablösen, könnten die Margen um rund ein Drittel gedrückt werden. Ausgehend von einem gleichbleibenden Kreditmix ohne Neubewertung der Verbindlichkeiten, wäre ein jährliches Kreditwachstum von 10% notwendig, um den Zinsüberschuss über die nächsten vier Jahre konstant zu halten. Momentan liegt das Wachstum jedoch gerade mal bei 1 Prozent. Bankgebühren stellen heutzutage die einzige wirkliche Möglichkeit für Banken dar, Gewinne zu erwirtschaften. Bei den größten europäischen Banken hat sich der Umsatzanteil von Gebühren und Provisionen auf 28% erhöht, verglichen mit 26% vor wenigen Jahren. Doch auch diese jüngste Steigerung der Erträge aus dem Provisionsgeschäft erfährt inzwischen deutlich Gegenwind. Die Höhe der von Banken erhobenen Gebühren rückt nun verstärkt in den Fokus der Europäischen Kommission, und in den USA wurde mit dem Dodd-Frank Act von 2010 eine Verbraucherschutzbehörde für das Finanzwesen eingeführt, auf deren Agenda auch die Kontrolle hoher Bankgebühren steht. Ironischerweise ist eine Ausrichtung auf Handelssicherheit und Rentabilität für Verfechter des Utility Banking letzten Endes genau die falsche Entscheidung. Dies liegt darin begründet, dass einbehaltene Gewinne die wichtigste Kapitalquelle der Banken darstellen, um den höheren Kapitalanforderungen und einem künftigen Anstieg risikogewichteter Aktiva gerecht zu werden. Als besonders krasses Beispiel können die US-Hypothekenbanken Fannie Mae und Freddie Mac herangezogen werden, die mittlerweile wieder schwarze Zahlen schreiben. Nach der Krise leiteten die beiden Unternehmen unter staatlicher Kontrolle ihre Konzept 50 gesamten Gewinne an ihren Anteilsinhabern vorbei direkt an das US-Finanzministerium weiter und hielten so ihre Eigenkapitalbasis gering. In der Folge stieg die Verschuldung von Fannie Mae und Freddie Mac zwischen 2012 und 2014 um das Zwei- bis Dreifache, während ihr Buchwert fiel, wodurch wiederum ihr Wert als eigenständige Unternehmen (sofern sie das jemals waren) schrumpfte. Insoweit ein regulatorischer Ansatz, der eine Behandlung von Banken als Versorgungsbetriebe vorsieht, selbst für Banken mit einer überdurchschnittlich guten Entwicklung zu strukturell geringeren Erträgen führt, dürfte er sich letztlich als sinnlos erweisen, mit Folgen für Wachstum und Stabilität. Es gibt noch einen dritten Grund, warum der Vergleich mit den Versorgern scheitert. Wenn ein Kernreaktor ausfällt, hat dies verheerende Auswirkungen, während die Folgen eines Ausfalls im Finanzsektor weit weniger absehbar sind. Man nehme zum Beispiel die Eisenbahnspekulationen in den USA des 19. Jahrhunderts, als Banken durch mehrere Phasen von Spekulation, Überschwang und Panikverkäufen hindurch Kredite an Eisenbahngesellschaften vergaben, die letztlich bekanntermaßen in den Wirtschaftskrisen von 1819, 1873 und 1893 gipfelten. Während der letzten Krise gingen rund 500 Banken und 156 Eisenbahngesellschaften (rund ein Viertel der bestehenden Eisenbahngesellschaften) bankrott. Nichtsdestotrotz wurden bis 1850 9.000 Meilen, bis 1900 sogar rund 200.000 Meilen an Eisenbahnstrecken gebaut. Die Eisenbahnlinien ermöglichten den Transport von Waren und Dienstleistungen, sorgten für Mobilität der Arbeitskräfte und bildeten die Grundlage für die heutige amerikanische Wirtschaft. Eine ähnliche Geschichte lässt sich über den Ausbau des Telegraphennetzes Mitte des 19. Jahrhunderts und das Verlegen von Glasfaserkabeln in den 1990er Jahren erzählen. Hat der Finanzsektor in all diesen Fällen nun versagt oder war er erfolgreich? Der starke Ausbau des Eisenbahn-, Telegraphen- oder Glasfaserkabelnetzes wäre wohl ohne diesen Zyklus aus Überschwang und Pessimismus in der Finanzbranche nicht möglich gewesen. Auf Kernreaktoren lässt sich dies unmöglich übertragen, denn wenn sie versagen, hat das keine guten Aspekte. Im Extremfall könnte ein risikofreies Finanzsystem als weniger attraktiv eingestuft werden, da Risikofreiheit auch impliziert, dass das System nicht besonders innovativ oder wachstumsförderlich ist. Für ein Atomkraftwerk wäre diese Schlussfolgerung völlig absurd. Was benötigt wird, ist ein System mit einem kohärenteren regulatorischen Ansatz, in dem Banken nicht wie öffentliche Versorgungsbetriebe behandelt werden, sondern eben wie Banken, und in dem Sicherheit und Unternehmergeist koexistieren. Angriff ist oftmals die beste Verteidigung – das Gleiche gilt für Banken: rentable Banken sind häufig die sichersten. Die Aufsichtsbehörden 51 Bankenregulierung—lasst die Banken ihren Job machen können auch weiterhin das von den Banken verwaltete Kapital erhöhen, indem sie beispielsweise schärfere Regelungen für Kapital-, Verschuldungs- und Liquiditätsanforderungen einführen. Wenn sie jedoch gleichzeitig die Kosten der Banken durch immer kleinschrittigere Regulierungsprozesse in die Höhe treiben, wirkt sich dies negativ auf die Rentabilität der Banken und ihre Investierbarkeit aus – und somit letzten Endes auch auf ihre Sicherheit. Dies alles setzt jedoch voraus, dass wir uns darüber im Klaren sind, wie ein sicheres Bankensystem aussehen sollte. Forrest Capie, Historiker der Bank of England, zeigte auf, dass die Finanzmarktregulierung das Allheilmittel einer übermäßig legalistischen Gesellschaft für das wesentlich grundlegendere Problem mangelnden Vertrauens sein könnte. Tatsächlich könnten wir einem Irrglauben unterliegen, wenn wir meinen, die letzte Finanzkrise sei das Ergebnis der Deregulierung gewesen, denn gerade der Zeitraum in der britischen Geschichte mit einer besonders schwachen Regulierung war auch die Phase mit den wenigsten Bankenkrisen. Zwischen 1866 und dem Börsencrash von 1974 gab es überhaupt keine Finanzkrisen. Die Phase in den 1930er Jahren zählt Capie zu den Wirtschaftskrisen, nicht zu den Finanzkrisen. Da unser Wissen um die Vermeidung von Finanzkrisen eher rudimentärer Natur ist, dürfte etwas Zurückhaltung angemessen sein. Heute sind die Banken auf dem Rückzug – und das gerade jetzt, wo die volatilen Märkte sie am dringendsten benötigen. Und auch der Kapitalismus steht unter massivem Druck, und das jetzt, wo das weltweite Wirtschaftswachstum dringend einen kräftigen Anschub gebrauchen könnte. Zwar müssen sich die Banken ihr Recht auf eine weniger strenge Regulierung und geringere Belastung sicherlich erst mal verdienen, zumal sie sich in der Vergangenheit nicht gerade als Meister der Selbstregulierung erwiesen haben. Die Banken zu sehr in ihren Handlungsspielräumen einzuschränken, birgt jedoch ebenfalls Gefahren. Zudem wird es nicht dazu kommen, dass Banken so sehr schrumpfen, dass sie ihre systemische Relevanz einbüßen und somit kein Thema mehr für die Regierungen sind. Solange Banken systemrelevant sind, ist Überwachung durchaus gerechtfertigt. Doch aufgrund der verheerenden Auswirkungen der Finanzkrise und der kaum noch vorhandenen Sympathie für Banken in der Öffentlichkeit ist es nachvollziehbar, dass die Regierungen und Aufsichtsbehörden überzogen reagiert haben. Die Ironie liegt darin, dass die Regulierung des Finanzsektors, die die Banken an die Grenzen ihrer Belastbarkeit gebracht hat, nun verheerende Auswirkungen für die Realwirtschaft und eben die Steuerzahler hat, die die Regierungen eigentlich schützen wollten. Konzept 52 US-Investmentbanken verdanken ihrer Vormachtstellung am riesigen Heimatmarkt nicht nur die fünf Topplätze in weltweiten Rankings, es ist ihnen inzwischen auch gelungen, sich den Löwenanteil des Europageschäfts zu angeln. Nach Daten von Thomson Reuters dürften US-Banken dieses Jahr erstmals für den Großteil der Investmentbanking-Umsätze in Europa, dem Nahen Osten und Afrika verantwortlich zeichnen und damit den europäischen Banken den Rang ablaufen. Es ist erschreckend, wie schnell sich die europäischen Investmentbanken auf die hinteren Plätze haben verweisen lassen. Seit 2013 wechseln sich J.P.Morgan und Goldman Sachs auf dem ersten Platz ab. Nachdem nun auch die Bank of America, Citigroup und Morgan Stanley mitmischen, kann sich nur noch eine nichtamerikanische Investmentbank – mein Arbeitgeber – unter den Top 5 behaupten. Nicht einmal zehn Jahre sind vergangen, seit der Anteil europäischer Investmentbanken am Heimatmarkt fast doppelt so groß war wie der amerikanischer Banken. Was sind die Gründe für diese Entwicklung? Durch stärkere Regulierung sahen sich die europäischen Finanzinstitute gezwungen, sich aus vielen Produkt- und Dienstleistungsbereichen des Investmentbankings zurückzuziehen. Das Ergebnis neuer Vorschriften zum Eigenhandel, schärferer Kapitalanforderungen und Ring-Fencing- Vorgaben war ein Rückgang risikogewichteter Aktiva um EUR 1 Bill. Unter Berücksichtigung des Hebeleffekts heißt dies, dass ganze EUR 5 Bill. weniger am Markt sind. Die US-Akteure haben hingegen seit der Finanzkrise ihre Vermögenswerte in den Bereichen Fixed Income, Rohstoffe und Devisen verdoppelt. Erschwerend kommt hinzu, dass der Rückzug der europäischen Banken mit dem rasanten Anstieg globaler Transaktionen zusammenfällt. So betrug das Gesamtvolumen weltweit gehandelter Unternehmensanleihen dieses Jahr USD 30 Bill. und lag damit doppelt so hoch wie vor zehn Jahren. Parallel dazu hat sich die Summe des über die Kapitalmärkte beschafften Eigenkapitals europäischer Unternehmen seit 2012 verdoppelt. Nur Akteure mit enormer Risikotragfähigkeit sind in der Lage, derart umfangreiche Transaktionen zu verdauen. Solange die europäischen Investmentbanken ihren Schrumpfkurs fortsetzen, wandert das Geschäft weiter an die Konkurrenz. Ist das schlimm? Schließlich muss Europa auch zusehen, wie inzwischen 90 Prozent der Suchanfragen im Internet über Google laufen. Und acht von zehn Filmen in deutschen Kinos stammen aus Hollywood-Studios. Doch die Investmentbanking-Branche kann nicht mit Biotechnologie oder alternativen Energien gleichgesetzt werden – zwei weiteren Beispielen für Sektoren, in denen die USA weltweit die Führungsposition innehaben. Investmentbanking ist ein strategisches Gut, das von zentraler Bedeutung für den freien Verkehr von Waren, Dienstleistungen und Kapital ist. Brüssel würde nie zulassen, dass Amerika die Herrschaft über die europäischen Lufträume übernimmt. Aber schon jetzt kontrollieren US-Banken 40 Prozent der Emissionen am Primärmarkt. US-amerikanische und europäische Banken im Vergleich 53 Bankenregulierung—lasst die Banken ihren Job machen Europa kann es sich nicht leisten, in diesem wichtigen Segment die Führung zu verlieren. Die amerikanischen Aufsichtsbehörden überwachen bereits jede Bank, die Geschäfte in US-Dollar macht. Wenn US-Banken auch noch den Zugang zu Anlegern und allen Märkten, an denen sie agieren, kontrollieren, bekommt das globale Finanzsystem einen noch amerikanischeren Anstrich, als dies schon jetzt der Fall ist. Es ist peinlich genug, dass Europa auf die Hilfe des US-Militärs angewiesen ist, um sich zu schützen. Ähnlich peinlich wäre es, wenn Europa als weltgrößter Importeur und Exporteur von Dienstleistungen Unterstützung von US- Investmentbanken bräuchte. Eine Abhängigkeit von amerikanischen Investmentbanken ist umso gefährlicher, als Europa verzweifelt darum bemüht ist, seine Kapitalmärkte auszubauen, um Unternehmen verstärkt Alternativen zu klassischen Bankkrediten bieten zu können. Grundvoraussetzung für erfolgreiche Kapitalbeschaffung und neue Transaktionen ist jedoch ein offenerer Umgang mit US-Banken, die über langjährige Beziehungen zu US-Unternehmen verfügen. Der sich hieraus ergebende Interessenkonflikt liegt auf der Hand. Und ob eine amerikanische Investmentbank in Krisenzeiten eher ihr Büro in Paris oder in Chicago schließen würde, sei einmal dahingestellt. Was kann Europa also tun, um zu verhindern, in einer weiteren Branche die Führung zu verlieren? Erstens müssen Unternehmen in ganz Europa ihre Heimatbanken dazu bewegen, sich nicht auf ihr nationales Geschäft zu beschränken. Dies brächte höhere Risiken und Kosten mit sich und ginge auch mit geringerer Vielfalt und geringeren Ambitionen einher. Zweitens müssen die europäischen Aufsichtsbehörden aufhören, die eigenen Banken abzustrafen, während ihre Pendants in den USA alles daran setzen, US-Banken zu unterstützen. Drittens bedarf es mehr Tiefe an den europäischen Kapitalmärkten und einer weniger starken Fragmentierung des Privatkundengeschäfts. Und zu guter Letzt muss die EZB erkennen, inwieweit ihre Politik dem Bankensystem in Europa schadet, liegt doch genau hier die Ursache für das Scheitern ihrer Politik. Der Schatten der weltweiten Finanzkrise und darauffolgenden Skandale lastet noch immer auf den Banken. Europa kann aber seine Banken fast zehn Jahre später nicht an ausgestreckter Hand verhungern lassen und den größten Wirtschaftsraum der Welt der ohnehin fitteren Konkurrenz überlassen. Es würde jahrzehntelanger Arbeit bedürfen, einen solchen historischen Fehler wieder auszubügeln. 2 „The United States dominates global investment banking: does it matter for Europe?“, Charles Goodhart und Dirk Schoenmaker, Bruegel Policy Contribution, Ausgabe 2016/06, März 2016 Konzept 54 Columns 56 Buchrezension—Von blutigen Übernahmen 57 Konferenzberichte—dbAccess Asia 58 Infografik–Wahrnehmung und Realität Konzept55 Buchrezension— Von blutigen Übernahmen John Tierney Ab einem gewissen Alter liest man erste Geschichten über Zeiten, die man selbst miterlebt und in denen man vielleicht sogar selbst eine kleine Rolle gespielt hat. „Bloodsport“ von Robert Teitelman ist eine anekdotenreiche Geschichte darüber, wie der Übernahme-Boom der 80er Jahre die amerikanische Unternehmenslandschaft veränderte, zu einem Berufsethos beitrug, das Enron schuf und die Finanzkrise von 2008-2009 hervorbrachte und vielleicht sogar zum Aufstieg von Donald Trump und Bernie Sanders geführt hat. Ihr Buchkritiker fühlt sich an Ereignisse erinnert wie eine Aufzugfahrt mit Marty Siegel, dem Übernahme- Genie von Kidder Peabody, bevor dieser in Ungnade fiel, oder DuPonts Übernahmepoker um Conoco 1981. Das Thema an sich ist zwar kein Neuland, Teitelman, ehemaliger Herausgeber des Informationsdienstes The Deal, wirft jedoch einen viel umfassenderen Blick auf die amerikanische Unternehmensgeschichte. Er beginnt mit dem Aufstieg der Konzerne in den 60er Jahren, als es an der Wall Street beim Thema Unternehmenszusammenschlüsse in erster Linie um Beziehungen und freundliche Übernahmen ging. Als die 70er Jahre eine hohe Inflation, schwaches Wachstum und stagnierende Aktienkurse mit sich brachten, begannen sich viele zu fragen, ob die USA Inc. ihre goldenen Zeiten hinter sich hatte. Feindliche Übernahmen wurden häufiger. Mit den 80er Jahren kam dann der Übernahme- Boom. Dessen wichtigste Akteure standen bereits in den Startlöchern. Die Übernahme-Anwälte Joe Flom und Marty Lipton waren bekannte Namen. Bruce Wasserstein von First Boston und Joseph Parella rollten als Zweiergespann die Welt der Blue-Chip- Beratungsdienstleistungen auf, die bisher von Morgan Stanley und Konsorten dominiert wurde. Und Michael Milken avancierte bei Drexel Bunham Lambert zum König der Junk Bonds. Diese Akteure fädelten eine ganze Reihe interessanter Deals ein, wie RJR Nabisco, Time/Warner, Unocal/Boon Pickens oder Revlon/Ronald Perelman. Teitelman beleuchtet im Detail, wie sich viele der heute gängigen Übernahmestrategien entwickelt haben. Spannend erklärt der Autor, welche ausgeklügelten Strategien hinter schnödem Finanzkauderwelsch wie „zweistufiges Übernahmeangebot“, „Giftpille“, „Weißer Ritter“, „Greenmailing“ und „Junk-Bond-finanziertes Barangebot“ stecken und lässt dabei die Akteure wieder lebendig werden. Noch interessanter als die Deal-Chroniken sind jedoch die Teile des Buches, in denen Teitelman sich mit den weitreichenderen Auswirkungen von Unternehmensübernahmen auf Corporate-Governance- Praktiken befasst. Der Paradigmenwechsel von einem Modell, in dem Unternehmen verschiedenen Interessengruppen dienen, hin zu einer Sichtweise, nach der ein Unternehmen dazu da ist, den Anteilsinhabern zu dienen, wird unter verhandlungstechnischen Gesichtspunkten beleuchtet. Zusammen mit den Akteuren an der Wall Street hat eine Gruppe von Wirtschafts- und Rechtswissenschaftlern – bekannt als die Chicagoer Schule – die Hypothese des effizienten Marktes und die Agency-Theorie aufgestellt, um das Konzept Unternehmen neu zu definieren und feindliche Übernahmen zu rechtfertigen. Bestand für Manager als Agenten ihrer Anteilsinhaber kein Anreiz, ein Unternehmen möglichst effizient zu führen, und ein Investor bot einen höheren Preis, so deutete dies im Wesentlichen darauf hin, dass ein effizienter Markt die Agency-Kosten bewertet hatte und das Unternehmen verpflichtet war, das Angebot anzunehmen. Trotz einer wachsenden Anzahl von Belegen dafür, dass Märkte durchaus ineffizient sein können und Zusammenschlüsse nicht notwendigerweise zu besseren Geschäftszahlen führen, lieferten solche wissenschaftlichen Argumente das denkerische Fundament für den Übernahme-Boom der 80er Jahre. Für ein Buch über Unternehmenszusammenschlüsse geht das Werk erstaunlich knapp auf die Arbeitnehmer ein, für die die ständigen Veränderungen und Umstrukturierungen der amerikanischen Unternehmenslandschaft in den vergangenen 40 Jahren häufig mit dem Verlust ihres Arbeitsplatzes verbunden waren. Teitelman merkt zum Ende des Buches an, dass der Trend der letzten 20 Jahre, die Interessen der Führungsebene durch Aktienoptionen mit den Interessen der Anteilsinhaber zu verzahnen, dazu geführt hat, dass Arbeitnehmer und mittleres Management bei der Unternehmensführung kein Mitspracherecht besitzen, dass sie es jedoch sind, die die breite Masse der amerikanischen Wählerschaft ausmachen und damit durchaus auch manchmal am längeren Hebel sitzen. Wenn das nächste Kapitel der Übernahme-Saga geschrieben ist, könnte es darin weniger um die neue Rekordmarke von USD 5 Billionen bei den Deals im Jahr 2015 gehen (die kaum Auswirkungen auf Wirtschafts- oder Gewinnwachstum hatten), sondern vielmehr darum, was die Stimme wütender Wähler bewirken kann. Konzept 56 Konzept57 Konferenzberichte— dbAccess Asia James Russell-Stracey In diesem Jahr hat sich unser Konferenzspion zum zweiten Mal in Folge bei der prominenten Deutsche Bank-Konferenz „Access Asia“ umgesehen. Knapp 2.000 Investoren kamen in Singapur an drei Tagen zusammen, um sich mit mehr als 200 Unternehmen zu treffen und an 70 Gruppenvorträgen teilzunehmen. Für all unsere Leser, die es in diesem Jahr nicht zu der Konferenz geschafft haben, haben wir hier die wichtigsten Highlights zusammengefasst. Insgesamt gab man sich aufgrund der Masse an globalen Risiken bei der Konferenz eher zurückhaltend – was auch in den Vorträgen der beiden Hauptredner, David Folkerts-Landau und Madeleine Albright, deutlich wurde. Es war daher nicht verwunderlich, dass der bestbesuchte Stand ausgerechnet derjenige war, an dem man in eine virtuelle Realität entfliehen konnte. Unser Spion testete die neuen Brillen von HTC und Sixsense, die als Anfangsmodelle „wie das iPhone 1“ beschrieben wurden. Doch ein Fondsmanager geriet damit jetzt schon ins Träumen: „Stellen Sie sich nur vor, wie erst das S6 sein wird!“ Zwischen diesen Vergnügungen erfuhren die Teilnehmer, dass die Spiele- und Unterhaltungsbranche zwar die ersten sind, die von der virtuellen Realität profitieren, das Potenzial für die unternehmerische Nutzung jedoch bedeutend größer ist. Unterricht, chirurgische Eingriffe, Probefahrten oder Online Shopping beispielsweise könnten sich in einer Weise verändern, die frühere Generationen nie für möglich gehalten hätten. Die nötigen Köpfe für solch bahnbrechende technologische Entwicklungen bringt nur ein Bildungssystem hervor, in dem Kreativität gefördert wird. Mit diesem Thema befasste sich Sir Ken Robinson in seinem Vortrag. Er berichtete, dass zum Beispiel in Singapur die bildungspolitische Entwicklung hin zu einer stärkeren Individualisierung des Lehrbetriebs gehe. Abgesehen davon ließen die optimistischen Vorträge zahlreicher Internet-Akteure darauf schließen, dass Unternehmen unter den jährlich sieben Millionen Absolventen in China durchaus die Talente finden, die sie brauchen. Joe Tsai von Alibaba hob zudem die Bedeutung der Finanzlage privater Haushalte – mit angesparten Vermögen von mehr als USD 700 Mrd. – hervor, um die chinesische Wirtschaft unabhängiger von Exporten und Investitionen zu machen. Da das verfügbare Einkommen um 12% jährlich steigt, wird das Wachstum von Alibaba in den kommenden Jahren vorwiegend durch Ausgaben für Unterhaltung, Freizeit und Reisen bestimmt werden. Dieser Trend verändert auch unsere Lebenswelt. Joe Tsai sagte voraus, dass Einkaufszentren ihre derzeitige 70:30 Aufteilung umkehren werden – hin zu weniger Läden und mehr Kinos, Freizeitaktivitäten und Gastronomie. Er erklärte den Kunden zudem, dass der chinesische Internetmarkt zukünftig internationaler werden wird. Die Marktposition von Uber beispielsweise wird bereits durch das Milliardenprojekt von Apple und Uber-Konkurrent Didi erschüttert, was einen Trend hin zu einer Annäherung aufzeigt, bei der Kapital in beide Richtungen fließt. Dieser Aspekt der Globalisierung stand jedoch teilweise im Gegensatz zu den Ansichten der beiden folgenden politischen Redner. Gideon Rachman von der Financial Times bezeichnete die Wahlen in den USA und den Brexit als große Risiken für den weltweiten Handel. Auch Madeleine Albright warnte, nationale Probleme und ein wachsender Nationalismus würden die Globalisierung zurückwerfen. Sie sagte, die Wähler würden zu Lösungen verleitet, die „einfach, dogmatisch und falsch“ seien. Beim Thema Asien lag der politische Fokus dann wieder auf den Spannungen im südchinesischen Meer. Die meisten waren sich einig, dass die Gebietsstreitigkeiten in der Region viele Länder näher an die USA rücken lassen. Vor dem Hintergrund von Obamas Hinwendung zu Asien wäre dies durchaus zu begrüßen. Man war sich jedoch einig, dass die Lage durchaus explosiv werden könnte, wenn eine Führung im Weißen Haus künftig stärker auf Konfrontationskurs ginge. Und was ist schließlich mit Investmentrisiken in Asien? Die Teilnehmer waren der Meinung, der chinesische Kreditmarkt sei für asiatische Portfolios derzeit besonders bedenklich. In einer Umfrage zeigte sich gut die Hälfte der Teilnehmer besorgt im Hinblick auf eine Herabstufung chinesischer Staatsanleihen. Ein Fünftel fürchtet ein Rating Downgrade für indische Papiere. Allgemeiner Konsens ist, dass die asiatischen Märkte heute ein Beta-Trade auf China oder den Ölpreis sind – was erklärt, warum die meisten Teilnehmer auf eine Aufwertung des Dollar setzen. Allgemein in Frage gestellt wurde auch, ob die Zentralbanken allein die weltweiten Probleme noch lösen können. Zumindest in einer virtuellen Welt könnten sie das mit Sicherheit. Unser Spion wird jedoch bis zur Konferenz im nächsten Jahr warten müssen, um zu erfahren, wie sich die Zentralbanken in den kommenden zwölf Monaten so schlagen. Infografik— Wahrnehmung und Realität Wie groß ist Ihrer Meinung nach der prozentuale Anteil von Ausländern an der Gesamtbevölkerung? 100% 50% 0% Deutschland Vereinigtes Königreich Frankreich Italien 100% 50% 0% Deutschland Vereinigtes Königreich Frankreich Italien Wie groß ist Ihrer Meinung nach der prozentuale Anteil der Menschen, die keiner Religion angehören? 100% 50% 0% Deutschland Vereinigtes Königreich Frankreich Italien Wie groß ist Ihrer Meinung nach der Prozentsatz übergewichtiger oder fettleibiger Menschen unter den über 20 Jährigen? Umfragewerte Realität Konzept 58 100% 50% 0% Deutschland Vereinigtes Königreich Frankreich Italien 100% 50% 0% Deutschland Vereinigtes Königreich Frankreich Italien 100% 50% 0% Deutschland Vereinigtes Königreich Frankreich Italien Welchen Anteil am Gesamtvermögen der Haushalte besitzen Ihrer Meinung nach die reichsten 1%? Wie hoch ist Ihrer Meinung nach der Prozentsatz der Frauen im erwerbsfähigen Alter, die tatsächlich berufstätig sind? Welcher prozentuale Anteil der Bevölkerung Ihres Landes lebt in ländlichen Gebieten? Die Daten stammen aus von Ipsos MORI im Oktober 2015 durchgeführten Umfragen. Nähere Einzelheiten finden sich unter „Perils of Perception 2015“ auf der Seite www. ipsos-mori.com. 59 Konzept Disclaimer deutsch: Originalveröffentlichung in englischer Sprache: 7. Juni 2016 Veröffentlichung der deutschen Ausgabe: 30. Juni 2016 Die vorstehenden Angaben stellen keine Anlage-, Rechts- oder Steuerberatung dar. Alle Meinungsaussagen geben die aktuelle Einschätzung des Verfassers wieder, die nicht notwendigerweise der Meinung der Deutsche Bank AG oder ihrer assoziierten Unternehmen entspricht. Alle Meinungen können ohne vorherige Ankündigung geändert werden. Die Meinungen können von Einschätzungen abweichen, die in anderen von der Deutsche Bank veröffentlichten Dokumenten, einschließlich Research- Veröffentlichungen, vertreten werden. Die Deutsche Bank kann geschäftliche Transaktionen in Wertpapieren, als Eigenhandelsgeschäft oder für Kunden, durchführen, die nicht mit der in diesem Researchbericht dargestellten Sichtweise übereinstimmen. Das Risiko von Verlusten bei Termin- und Optionsgeschäften kann weitgehend sein. Wegen des hohen Ausmaßes einer Fremdmittelfinanzierung der Termin- und Optionsgeschäfte können die auflaufenden Verluste höher sein als die ursprünglich in die Geschäfte investierten Beträge. Die vorstehenden Angaben werden nur zu Informationszwecken und ohne vertragliche oder sonstige Verpflichtung zur Verfügung gestellt. Für die Richtigkeit, Vollständigkeit oder Angemessenheit der vorstehenden Angaben oder Einschätzungen wird keine Gewähr übernommen. In den Vereinigten Staaten von Amerika wird dieser Researchbericht verantwortet und verbreitet von der Deutschen Bank Securities Inc., Mitglied der FINRA. In Deutschland wird dieser Bericht von Deutsche Bank AG Frankfurt genehmigt und/oder verbreitet, die über eine Erlaubnis zur Erbringung von Bankgeschäften und Finanzdienstleistungen verfügt und unter der Aufsicht der Europäischen Zentralbank (EZB) und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) steht. Im Vereinigten Königreich wird dieser Bericht durch Deutsche Bank AG, Filiale London, Mitglied der London Stock Exchange, genehmigt und/oder verbreitet, die von der UK Prudential Regulation Authority (PRA) zugelassen wurde und der eingeschränkten Aufsicht der Financial Conduct Authority (FCA) (unter der Nummer 150018) sowie der PRA unterliegt. In Hongkong wird dieser Bericht durch Deutsche Bank AG, Hong Kong Branch, in Korea durch Deutsche Securities Korea Co. und in Singapur durch Deutsche Bank AG, Singapore Branch, verbreitet. In Japan wird dieser Bericht durch Deutsche Securities Inc. genehmigt und/oder verbreitet. In Australien sollten Privatkunden eine Kopie der betreffenden Produktinformation (Product Disclosure Statement oder PDS) zu jeglichem in diesem Bericht erwähnten Finanzinstrument beziehen und dieses PDS berücksichtigen, bevor sie eine Anlageentscheidung treffen. Dieser Resarchbericht darf nicht ohne vorherige Erlaubnis der Deutsche Bank AG vervielfältigt, verbreitet und/oder veröffentlicht werden. Bei Zitaten wird um Quellenangabe “Deutsche Bank Research” gebeten. English disclaimer: Publication of the English version: June 7, 2016 Publication date of the German translation: June 30, 2016 The above information does not constitute the provision of investment, legal or tax advice. Any views expressed reflect the current views of the author, which do not necessarily correspond to the opinions of Deutsche Bank AG or its affiliates. Opinions expressed may change without notice and may differ from views set out in other materials, including research, published by Deutsche Bank. Deutsche Bank may engage in securities transactions, on a proprietary basis or otherwise, in a manner inconsistent with the view taken in this research report. The risk of loss in futures trading and options, foreign or domestic, can be substantial. As a result of the high degree of leverage obtainable in futures and options trading, losses may be incurred that are greater than the amount of funds initially deposited. The above information is provided for informational purposes only and without any obligation, whether contractual or otherwise. No warranty or representation is made as to the correctness, completeness and accuracy of the information given or the assessments made. In the U.S. this report is approved and/or distributed by Deutsche Bank Securities Inc., a member of FINRA. In Germany this information is approved and/or communicated by Deutsche Bank AG Frankfurt, licensed to carry on banking business and to provide financial services under the supervision of the European Central Bank (ECB) and the German Federal Financial Supervisory Authority (BaFin). In the United Kingdom this information is approved and/or communicated by Deutsche Bank AG, London Branch, a member of the London Stock Exchange, authorized by UK’s Prudential Regulation Authority (PRA) and subject to limited regulation by the UK’s Financial Conduct Authority (FCA) (under number 150018) and by the PRA. This information is distributed in Hong Kong by Deutsche Bank AG, Hong Kong Branch, in Korea by Deutsche Securities Korea Co. and in Singapore by Deutsche Bank AG, Singapore Branch. In Japan this information is approved and/or distributed by Deutsche Securities Inc. In Australia, retail clients should obtain a copy of a Product Disclosure Statement (PDS) relating to any financial product referred to in this report and consider the PDS before making any decision about whether to acquire the product. This report may not be reproduced, distributed or published by any person for any purpose without Deutsche Bank’s prior written consent. When quoting please cite “Deutsche Bank Research”. Konzept 60