Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
2/2016 | Theorie & Praxis
twitterlinkedInXING

Ist Smart Beta eine Falle?

Von Faktor-Investing und Smart Beta versprechen sich Investoren attraktive Ertragschancen zu günstigen Kosten. Dabei lauern große Gefahren, die die Renditeträume jederzeit platzen lassen können.

1466061741_teaser4.jpg

Ködert man mit Faktor-Investing und Smart Beta Investoren etwa zur Unzeit, nämlich dann, wenn diese Faktoren und Ansätze im historischen Vergleich bereits teuer geworden sind? Kann ein Investor heute als smart gelten, wenn er sich Überteuertes einkauft?

Nicht zuletzt deshalb, weil aktives Management den In­ves­toren viele Enttäuschungen bereitete und im Langfristvergleich die wenigsten Anbieter ihre Top-Positionen halten konnten, man aber weiter nach Outperformancequellen suchte, wurden die unter der Sammelbezeichnung „Smart Beta“ geführten Ansätze, Exposure zu persistenten Faktor- beziehungsweise Risikoprämien zu suchen und mit deren Hilfe den Markt zu schlagen, eingeführt. Institutionelle Investoren nutzen zunehmend faktorbasierte Anlagestrategien, das ergab eine neue Studie von „The Economist Intelligence Unit“ im Auftrag von BlackRock (siehe Kas­ten „BlackRock-Umfrage unter Institutionellen zu faktorbasierten Anlagestrategien“).


Gefahr Faktor-Zoo
Diese Strategien sehen tatsächlich in ihrer relativ kurzen Live-Performance – oder in vielen Fällen auf dem Papier – sehr gut aus. Viele Investoren können sich dem Charme einer guten Vergangenheitsperformance nicht entziehen. Wenn diese superiore Performance auf einem strukturellen Alpha basiert, ist der Zweck erfüllt. Falls die überlegenen Renditen aber daher rühren, dass die jeweilige Smart-Beta-Strategie immer teurer in der relativen Betrachtung zum Markt als solchem wird, dann ist Feuer am Dach. ­Genau das vermutet niemand Geringerer als der Vater des Fundamental Indexing, der damit auch so etwas wie der Urvater des Smart-Beta-Investing ist, nämlich Rob ­Arnott, Chairman & Chief Executive Offi­cer von Research Affiliates in Newport ­Beach, Kalifornien. Er wittert drei Probleme, die einander verstärken: „Erhöhte Bewertungen von Aktien, Sektoren, Assetklassen oder Strategien schaffen die Illusion der Überlegenheit eines bestimmten Investmentansatzes. Damit nicht genug, reduzieren eben diese überdehnten Bewertungsniveaus die künftigen Ertragsaussichten genau dieser Aktien, Sektoren, Assetklassen und Strategien, selbst wenn diese Bewertungs­levels beibehalten werden. Drittens erhöhen diese Bewertungen das Risiko einer Mean Reversion, mit deren Hilfe die Bewertungen wieder zu ihren historischen Durchschnitten zurückfinden.“


Viele der in letzter Zeit populär gewordenen Faktoren und Strategien haben Arnotts Meinung nach nur deswegen reüssiert, weil sie schlichtweg immer teurer wurden. Man müsse sich fragen, so Arnott, ob nicht die Financial-Engineering-Industrie dazu beitrage, dass die Jagd nach der Vergangenheitsperformance unter der Rubrik „Smart Beta“ eskaliere. Damit setze sie ihren Ruf aufs Spiel, und von „Smartness“ könne man dann wirklich nicht mehr sprechen.


Bei Research Affiliates glaubt man das nicht, sondern hält es für ziemlich wahrscheinlich, dass es zu einem Smart-Beta-Crash als Folge der Beliebtheit der Strategien mit Exposure zu bestimmten Faktoren kommen wird. In der Analyse findet man für das Platzen dieser Blase verschiedene Belege, vor allem das steigende Bewertungsniveau hat es Rob Arnott angetan.


In die Historie zurückzugehen kann dabei durchaus hilfreich sein. Betrachtet man die zweite Hälfte des 20. Jahrhunderts, so errechnet sich über diesen Zeitraum beim S&P 500 Index eine annualisierte amerikanische Aktienrendite von 13,5 Prozent, was einer jährlichen Realrendite von 9,2 Prozent entspricht. Zehnjährige US-Treasuries rentierten nominal mit 5,7 Prozent und real mit 1,6 Prozent pro Jahr während dieser 50-Jahres-Periode. Aktien lieferten über ein halbes Jahrhundert somit eine Überschussrendite von 7,5 Prozent pro Jahr gegenüber Renten. Diese mehr als überzeugend wirkenden his­torischen Renditen veranlassten die Investmentindustrie, zur Jahrtausendwende und damit am Höhepunkt der Tech-Bubble ihre Renditeerwartungen weiter zu steigern, und US-Pensionsfonds diskontierten ihre Verpflichtungen mit noch höheren Rechenzinsen. Man sprach gar von einem Paradigmenwechsel, Unternehmensgewinne wurden nicht mehr gebraucht.


Scheinerfolg durch Verteuerung
Arnott: „Das Problem bei diesen Ertragsschätzungen war, dass ganze 41 Prozent – und damit fast die Hälfte der realen Erträge über 50 Jahre – auf steigende Bewertungen zurückzuführen waren, während die Dividendenrendite von acht auf 1,2 Prozent sank. Das Shiller-PE hatte sich mehr als vervierfacht, und zwar von 10,5 während der Flaute nach dem Zweiten Weltkrieg auf 44.“ Im Gegensatz dazu stand, als sich die Anleihenrenditen von 1,9 auf 6,6 Prozent mehr als verdreifachten, dass die realen Anleihenrenditen im Schnitt um 0,7 Prozent pro Jahr zurückgingen. Das führte zu bescheidenen Kapitalverlusten und anämischen realen Renditen.

Zieht man die Einmalgewinne bei Aktien und die Einmalverluste bei Anleihen von den Kapitalmarktrenditen ab, so kommt man auf eine adjus­tierte historische Überschussrendite von nur mehr 2,5 Prozent per annum, rechnet Arnott vor. Somit lag die Risikoprämie für Aktien in diesem durchaus aktienfreundlichen halben Jahrhundert bei bescheidenen 250 Basispunkten. Die Überschussrendite der Aktien von 7,5 Prozent pro Jahr gegenüber Renten fußte auf einer nicht nachhaltigen Änderung der relativen Bewertungen.


Nicht nur, dass diese hohen Renditen den Grundstein für hohe Renditeerwartungen in der Zukunft legten, sie führten auch zu erhöhten Bewertungen, die damit schon künftig deutlich niedrigere Renditen quasi garantierten. Investoren hätten 1999 nicht nur aus den Vergangenheitsrenditen die Auswirkungen der erhöhten Bewertungen herausrechnen, sondern auch ihre Erwartungen anpassen müssen, um darin niedrige Aktienmarktrenditen und überdurchschnittliche reale Anleihenrenditen widerzuspiegeln. Klugerweise hätte man aber noch einen Schritt weiter gehen und die Erwartungen wegen der großen Wahrscheinlichkeit für den Eintritt einer Mean Reversion zusätzlich absenken sollen. Spannt man den Bogen zum Heute, dann bedeuten die gegenwärtig zu beobachtenden höheren Aktienbewertungen, dass in den nächsten Jahren mit schmäleren Aktienrenditen zu rechnen sein wird, als viele Investoren dies erwarten.


Unbegründeter Alarm?
Eine 2015 unter amerikanischen Investment Consultants durchgeführte Umfrage zu deren künftigen Renditeerwartungen zeigt, dass sich viele offensichtlich der Problematik der erhöhten Bewertungen bewusst sind, sie brachten die Bewertungsgewinne von den Vergangenheitsrenditen in Abzug. Auf zehn Jahre im Voraus schätzen diese Kapitalanlageprofis heute nur mehr ­eine nominale Rendite für den US-Aktienmarkt von 6,8 Prozent pro Jahr, zur Jahrtausendwende lagen deren Schätzungen im Schnitt noch bei zweistelligen Renditeerwartungen. 15 Jahre später haben zwei formidable Bärenmärkte hier Vernunft einziehen lassen. Von 2000 bis 2015 lagen die realen Renditen des US-Aktienmarktes trotz der starken Rally nach 2009 bei bloß 1,9 Prozent und reichten damit nicht einmal an die durchschnittliche Dividendenrendite heran. während Anleihen eine herausragende jährliche reale Rendite von 3,6 Prozent lieferten. Die Überschussrendite der Aktien gegenüber Bonds war also mit 1,7 Prozent per annum negativ und somit ernüchternd.


Entzaubertes Alpha-Wunder
Umgelegt auf Smart Beta heute bedeutet dies, dass nicht einmal ein 50-Jahres-Zeitraum korrekte Schlussfolgerungen garantiert. Es heißt also ganz genau zu untersuchen und damit zu verstehen, wie eine Faktorstrategie ihr Alpha produziert. Bei Research Affiliates hat man sich also an die Arbeit gemacht und einige der beliebtesten Strategien analysiert, indem man sich deren aktuelle Bewertungen relativ zur Vergangenheit ansah. Dabei stellte man fest, dass bei vielen ein Großteil der Überschussrendite – bei einigen sogar die ganze – primär aus dem „Alpha-Wunder“ der erhöhten ­Bewertungen resultiert.


Auch Kapitalmarktforscher seien genauso wie die Praktiker im Investmentgeschäft oft als Jäger der Vergangenheitsperformance unterwegs, rügt Arnott. Anomalien und Faktorrenditen hätten die Tendenz, dank entsprechendem Data-Mining und dem Selektions-Bias gut auszusehen und sich dann in Luft aufzulösen. Legt man daraufhin bei den t-Werten deutlich strengere Maßstäbe an, bleiben von vielen hunderten nur mehr ganz wenige Faktoren mit entsprechender Signifikanz übrig. Einen geänderten multiplen Testrahmen mit höheren t-Test-Werten haben Harvey, Liu und Zhu 2015 vorgeschlagen, um die Spreu vom Weizen zu trennen. So lässt sich dann strukturelle von situativer Überrendite unterscheiden.


Value-Faktor und Bewertung
Gemeinsam mit seinem Kollegen Noah Beck und Vitali Kalesnik untersuchte Arnott zuerst den Einfluss des Bewertungsniveaus auf den Value-Stilfaktor. Dieser war in den späten 70er-Jahren im Nachgang der Nifty-Fifty-Blase identi­fiziert worden. Diese Zeit war dadurch ­charakterisiert, dass Value-Aktien immer teurer wurden und ihr Abschlag zu den Wachstumsaktien immer weiter abnahm. In den letzten acht Jahren hat sich Value-Inves­ting zu einer großen Herausforderung entwickelt, blieb doch der Russell 1000 Value Index um 1,6 Prozent pro Jahr hinter dem S&P 500 Index zurück. Der Fama-French-Value-Faktor bei Large Caps rentierte im gleichen achtjährigen Zeitraum gar mit ­minus 4,8 Prozent pro Jahr. Ist Value somit tot? „Mitnichten“, ist Arnott überzeugt, „der Value-Faktor ist im niedrigsten Dezil seiner Geschichte.“ Research Affiliates verglich über den Zeitraum von Januar 1967 bis September 2015 die Performance des klassischen Fama-French-Value-Faktors bei US-Aktien mit Änderungen in dessen relativem Kurs-Buchwert-(KBW)-Bewertungsniveau. Das zeigt der Chart „Value-Effekt und Bewertung“. Steigt die relative Performance von Value versus Growth an (obere Linie), wird Value relativ teurer im Verhältnis zu Growth, dann wird Wachstumstiteln eine geringere Prämie zugebilligt und Value outperformt. Die untere Linie der Grafik wiederum zeigt die relative Bewertung von Value versus Growth anhand der beiden durch einander dividierten Kurs-Buchwert-Verhältnisse von Value und Growth. Da ­Value in aller Regel billiger ist als Growth, wird der Quotient meist deutlich unter eins liegen. Steigt die untere Linie an, bedeutet dies, dass die Value-Bewertungen im Vergleich zu jenen von Growth zulegen. Diese beiden Indikatoren schwanken im Gleichklang, allerdings laufen die beiden Linien tendenziell auseinander, was bedeutet, dass Value historisch ein strukturelles Alpha zeigte.


Ebenfalls von hohem Informationsgehalt ist die Darstellung der Korrelation zwischen der relativen Bewertung – ermittelt anhand des Quotienten aus KBW von Value zu KBW von Growth – einerseits und den da­rauf folgenden relativen Fünfjahresrenditen des Value-Faktors (im Vergleich zu Growth) andererseits. Die Grafik „Performance versus Bewertungsniveau“ zeigt eine negative Korrelation von –0,4, die mit einem t-Wert von –1,90 auf dem 90-Prozent-Konfidenzniveau statistisch signifikant ist. Das heißt nichts anderes, als dass der Zusammenhang gilt: Je günstiger Value relativ zu Growth nach dem Kurs-Buchwert-Verhältnis bewertet ist, desto höher sind die relativen Erträge von Value in den darauffolgenden fünf ­Jahren. Verallgemeinert kann man sagen: Je stärker der negative Korrelationszusammenhang zwischen relativer Bewertung und anschließender relativer Faktorperformance und je höher die statistische Signifikanz ausfällt, desto wichtiger ist es, auf das relative Bewertungsniveau bei Aufnahme eines Faktor-Exposures etwa über einen Smart-Beta-Faktor-ETF zu achten.


„Leider nehmen sich viele Praktiker im Rausch des Faktor-Exposures nicht die Zeit nachzusehen, wie billig oder teuer ein bestimmter Faktor relativ zu seinem historischen Bewertungsniveau aktuell aussieht“, beklagt Arnott. Nähme man sich die Zeit, dann sähe man, dass es seit 1967 nur wenige Zeitabschnitte gab, da Value in der relativen Be­trachtung noch billiger war. Dies war am Höhepunkt von Nifty-Fifty 1972/73, in der Tech-Bubble 1998–2003 und in der Finanz- und Wirtschaftskrise 2008/09 der Fall.


Relative Bewertungen betreffen alle Faktorrenditen des Zoos. Research Affiliates hält dabei fest, dass die Wirksamkeit einer faktorbasierten Strategie stark mit Änderungen in der relativen Bewertung verbunden ist nach dem Motto: Je stärker eine Strategie en vogue ist, desto relativ teurer ist sie und trägt damit den Keim des Niedergangs in sich. Vergangenheitsperformance zu studieren ist hier bei Weitem nicht genug. Die Veränderung in der relativen Bewertung ist kriegsentscheidend.


Zwei wichtige Lehren
Die gleiche Übung wie im Falle von Value machte Research Affiliates mit den ebenfalls häufig verwendeten Faktoren hohes Momentum, Small Cap, Low Beta, hohe Brutto-Profitabilität und Illiquidität, sodass insgesamt sechs Faktoren am Seziertisch landeten. Bei vieren – nämlich allen außer Momentum und vielleicht noch Low Beta – zeigte sich, dass die Performance eng an Änderungen der relativen Bewertungsniveaus dieser Faktoren geknüpft ist. Dass Momentum und Low Beta hier aus der Reihe tanzen, ist verständlich, denn beide Ansätze bedingen einen hohen Umschlag. Dies bedeutet, dass sich die Bewertungsniveaus mit den Veränderungen in der Portfoliozusammensetzung ändern und nicht aufgrund des Umstandes, dass Aktien im Portfolio teurer oder billiger relativ zum Gesamtmarkt werden (siehe Grafik „Ausreißer Momentum“).


Das Faktorportfolio, das positives Momentum zum Gegenstand hat, wird bewertungsmäßig teuer sein, da die darin enthaltenen Aktien haben ja per definitionem ­einen Preisanstieg hinter sich haben. Nur in den seltenen Fällen, wo etwa Deep-Value-Aktien schnell gedreht haben und positives Momentum entwickeln, könnte das „High Momentum“-Portfolio billiger sein als das „Low Momentum“-Portfolio. Wenn Aktien mit positivem Momentum, bezogen auf den Markt, relativ billiger sind als in der Historie, kann die bloße Tatsache eines nachlassenden Momentums dazu führen, dass die betreffende Aktie aus dem Portfolio herausfällt, bevor es zu einer Mean Reversion in ihrer Bewertung kommt. Daraus lässt sich laut Arnott der Schluss ableiten: Je höher der Umschlag in einer bestimmten Strategie, desto weniger Informationsgehalt besitzen Bewertungsveränderungen in Bezug auf das Verständnis der Performance einer Strategie und die Prognostizierbarkeit ihrer künftigen Performance.


Eine zweite wichtige Erkenntnis der Untersuchung war, dass sich das „normale“ Bewertungsniveau einer Strategie über die Zeit ändern kann. Die Grafik „New Normal“ veranschaulicht diese Entwicklung anhand des Low-Beta-Faktors. Hier liegt der einzige der untersuchten sechs Fälle vor, wo kein statistisch signifikanter Zusammenhang zwischen relativem Bewertungsniveau und künftiger relativer Faktorrendite besteht. Obwohl die Low-Beta-Strategie einen marktähnlichen Ertrag mit weniger Risiko liefert, weist sie ein hohes Tracking-Error-Risiko gegenüber dem Markt auf. Außerdem gibt es substanzielle Perioden von Underperformance, wie sie etwa im Bullenmarkt der 90er-Jahre zu beobachten war. Die Long-Seite der „Low minus High Beta“-Faktorstrategie zeigte hier in den 90er-Jahren einen durchschnittlichen Ertrag von 10,0 Prozent und underperformte damit die High-Beta-Aktien um 12,5 Prozent pro Jahr und den S&P 500 Index um 8,2 Prozent jährlich. Die letzten 15 Jahre mit zwei ausgeprägten Bärenmärkten und den damit einhergehenden gedämpften Erträgen haben die Investoren zum Nachdenken veranlasst. Als Resultat des Nachdenkprozesses setzten große Mittelzuflüsse in Low-Beta-Aktien respektive Produkte ein, deren Bewertungsniveau deutlich über das in der Vergangenheit beobachtete gehoben wurde. Die relative Bewertung der Low-Beta-Stocks befindet sich in der Nähe eines Allzeithochs. Das bedeutet, dass die historisch beobachtete Verbindung zwischen relativer Bewertung und Ertrag schwach aussieht, selbst wenn sie das nicht ist, da die seit einiger Zeit erhöhten Bewertungen noch nicht die Möglichkeit einer Mean ­Reversion hatten.


Zusammenfassend lässt sich sagen, dass im Falle eines starken Links zwischen der relativen Bewertung und der kumulativen relativen Faktorperformance der Marktein- oder -ausstieg in oder aus diesem Faktorengagement erst einen Großteil der Faktorrendite heranschafft. Doch die gleiche Steigerung in der relativen Bewertung, die die Vergangenheitsperformance gut aussehen lässt, ist auch der Grund für künftige schwache Erträge als Folge der Rückkehr zum Durchschnitt. Die statistische Signifikanz der meisten Faktoren bestätigt, dass der Effekt real ist, was natürlich konträr zur Random-Walk-Theorie zu sehen ist. Sieht man sich an, wo man heute in Bezug auf das jeweilige Bewertungsniveau eines Faktors steht, so zeigt sich, dass einige der beliebtesten Faktoren auf teuren relativen Bewertungsniveaus gehandelt werden, wenn man diese mit ihren eigenen historischen Normen vergleicht.


Relative Bewertung von Smart-Beta-Portfolios
Analog zu den sechs Faktoren untersuchten Arnott und seine Mitarbeiter bei Research Affiliates nun auch nach demselben Muster Smart-Beta-Portfolios, wobei fünf von sechs der Definition von Smart Beta im Sinne Arnotts genügen. Dabei definiert er den Begriff „Smart Beta“ enger als viele andere. Grundsätzlich muss das Prinzip der Gewichtung nach der Marktkapitalisierung aufgegeben werden. Dazu sollte eine Smart-Beta-Strategie die meisten Vorteile des konservativen Indexing wie niedrige Um­schlags­häufigkeit, breite Repräsentation des Marktes, Liquidität, Kapazität, Transparenz, problemloses Testen und geringe Kosten aufweisen, wie Arnott und Kose im August 2014 publizierten. Konkret analysierte man den Fall der Gleichgewichtung der 1.000 größten US-Aktien, den Research Affiliates Fundamental Index (RAFI), bei dem die Indexaktien nach fundamentalen Kriterien wie Umsatz, Cashflow, Dividenden und Buchwert gewichtet werden, den von EDHEC promoteten risikoeffizienten Index, den von TOBAM ins Spiel gebrachten Maximum Diversification Index, den nach der Methodik von S&P errechneten Low-Volatility-Ansatz sowie den MSCI Quality Index, der auf Profitabilität, Leverage und die Volatilität der Unternehmensgewinne abstellt. Der Quality-Ansatz ist der einzige, dessen Gewichtung sich auf den Market-Cap-Ansatz stützt und im strengen Sinne nach den Richtlinien von Research Affiliates nicht zu Smart Beta zählt. Für alle wurde die jeweilige publizierte Methodik angewendet, wobei einmal jährlich zum Jahresultimo die Neuzusammensetzung und das Rebalancing stattfanden. Anlageuniversum waren in allen sechs Fällen die tausend größtkapitalisierten US-Aktien.


Analogie zum Faktorproblem
Die kumulierte Performance der einzelnen Smart-Beta-Strategien geht wie bei den meisten Faktorstrategien größtenteils mit Bewertungsveränderungen einher. Beobachtet wurde unter anderem, dass bei der Gleichgewichtung und dem RAFI-Ansatz in den von Faktorseite her bekannten Diagrammen die kumulative Performance und das relative Bewertungsniveau, wiederum gemessen am Quotienten der KBW-Ver­hältnisse, mit dem Fortschritt auf der Zeitachse auseinanderliefen. Bei Maximum ­Diversification und Risikoeffizienz war der Ertrag, der aus Bewertungsänderungen kam, wesentlich volatiler als bei den anderen Strategien. Die Volatilität wird von substanziellen Änderungen in der Portfoliozusammensetzung bestimmt. Im Ergebnis sind dann Bewertungsänderungen bei diesen beiden Strategien weniger aussagekräftig. Diese Erklärung wird auch dadurch gestützt, dass im Fall der Maximum Diversification die Korrelation zwischen Bewertungsniveau und darauffolgender Performance nur bei –0,15 liegt. Was Low Vol anbelangt, so gibt es große Ähnlichkeiten mit dem Low-Beta-Faktor, denn auch da erklären Veränderungen im Bewertungsniveau einen großen Teil der Vergangenheitsperformance. Beim Qualitätsansatz war die Performance zwischen 1973 und 1990 wenig beein­druckend, da die Bewertung anfangs sehr hoch war, doch in den frühen 90er-Jahren verbesserten sich die Bewertungen beträchtlich und stiegen dann wieder an.


Setzt man wiederum analog zur Faktoranalyse den Quotienten aus dem KBW-Niveau der jeweiligen Smart-Beta-Strategie und dem KBW des Marktes ins Verhältnis zur Überschussrendite der Strategie in den nächsten fünf Jahren, so zeigt sich ein sehr ähnliches Bild, nämlich eine negative Korrelation zwischen KBW-Quotient und Excess Return sowie die Tatsache, dass wir uns in einem im Vergleich zur Vergangenheit relativ teuren Umfeld befinden, das künftige maximal schmale Überrenditen, dafür aber Mean Reversion erwarten lässt. Bei auf Low Vol basierenden Smart-Beta-Strategien beispielsweise, die sich seit der Finanzkrise sehr großen Zuspruchs erfreuen, ist gar mit deutlich negativen Renditen und damit einer Underperformance der Strategie in den nächsten fünf Jahren von gut drei Prozent per annum zu rechnen. Das zeigt die Grafik „Hohe Bewertung bei Low Volatility“.


Je mehr Daten, desto besser
Rob Arnott vergleicht in seiner Arbeit die Überschussrenditen der sechs Faktor-Long/
Short-Strategien sowie der sechs Smart-­Beta-Strategien einmal über zehn Jahre, das andere Mal gar über fast 49 Jahre. Vielen Anbietern und auch Investoren würden zehn Jahre zur Evaluierung einer Strategie genügen, um beurteilen zu können, ob sie die nötige Persistenz zur Generierung von Mehrertrag aufweisen. Andere wieder würden behaupten, dass mehr als 10 bis 20 Jahre Analysezeitraum gar nicht erstrebenswerte wären, da sich die Märkte wesentlich geändert hätten, sodass ältere Daten nicht mehr repräsentativ sein könnten. Diesen Ansagen erteilt Arnott eine klare Absage: „Auch eine Datenhistorie von 50 Jahren garantiert noch keine korrekten Schlussfolgerungen.“ Es gelte: Je mehr Daten, desto besser, damit man idealerweise eine möglichst große Bandbreite von Marktzuständen, ­Modetorheiten und Veränderungen in den Anlagepräferenzen der Investoren einfangen könne. Die Anbieter von Faktorindizes hingen benutzen im Schnitt einen Track Record von 15 bis 18 Jahren.


Research Affiliates fokussiert sich hier auf die beiden Faktorindex-Provider MSCI und Russell. Per Ende 2014 betrug deren Analysehorizont im Falle von MSCI exakt 16,4 Jahre, bei Russell 13,7 Jahre. Zumindest scheint es anhand der Forschungsergebnisse von Arnott und seinen Kollegen angebracht, die Daten um die Bewertungsveränderungen zu bereinigen, sodass man der Verführung, die Performance der Vergangenheit zu jagen, widersteht und nicht den Bullenmarkt in der relativen Performance einzelner Stile, Faktoren, Sektoren, Assetklassen oder Strategien fälschlicherweise für Alpha hält. Die Tabellen „Aufteilung der Faktorrenditen“ respektive „Aufteilung der Smart-Beta-Renditen“, zeigen, wie groß der Renditeanteil ist, der aus den Bewertungsveränderungen kommt. Zum einen wird diese bewertungsadjustierte Performance einfach als Differenz zwischen Rendite und der laufenden Bewertungsveränderung dargestellt, zum anderen ein konservativerer Ansatz in Form eines auf Basis eines regressionskoeffizient­adjustierten Ertrags verfolgt. Bei Letzterem wird nur der aus einer Regressionsrechnung ermittelte Schätzwert für die Bewertungsveränderung von der Rendite in Abzug gebracht. Diese Analysen wurden sowohl über den Zehnjahreszeitraum 1. 10. 2005 bis 30. 9. 2015 als auch für das ultralange Zeitfenster, das von 10. 1. 1967 bis 30. 9. 2015 reicht, durchgeführt.


Im Zehnjahresfenster zeigte die Brutto-Profitabilität als meistverwendete Definition für den Qualitätsfaktor die beste Performance, Value die schlechteste. Quality wird aber durch die Ausweitung der relativen Bewertung sofort entzaubert, die gut 90 Prozent zur Outperformance beiträgt. Von 4,51 Prozent bleiben dann nur mehr magere 0,39 Prozent übrig, wenn man Quality des „Beliebtheitsfaktors“ entkleidet. Aber auch beim regressionsbasierten Performanceschätzer bleiben von 4,54 Prozent nur mehr deutlich weniger spektakuläre 1,57 Prozent übrig. Substanziellen Rückenwind von Seiten der steigenden Bewertung gab es auch für Momentum und Illiquidität zu registrieren, die damit alle deutlich teurer wurden als zehn Jahre zuvor. Value hingegen hatte bewertungstechnisch heftigen Gegenwind und wurde sogar noch billiger.


Favoriten je nach Horizont
Betrachtet man die fast fünfzigjährige ­Periode, dann zeigt sich, dass alle sechs Faktoren positiv performten. Das überrascht natürlich nicht, da diese Faktoren ja des­wegen gesucht sind, da sie in der Vergangenheit Überrenditen lieferten. Interes­santerweise sind es gerade Low Beta und Quality, die trotz der guten Resultate der letzten zehn Jahre die schlechtesten Langfristergebnisse aufweisen. Schockierend ist der Umstand, dass selbst bei der Betrachtung über fast ein halbes Jahrhundert ein großer Anteil der Erträge aus der Bewertungssteigerung herrührt. Zieht man von der Low-Beta-Rendite jene aus der Bewertungssteigerung ab, bleibt entweder gar nichts mehr an Überrendite übrig beziehungsweise wird diese um ein Drittel reduziert, wenn man den konservativeren Schätzwert aus der Regressionsrechnung in Abzug bringt. Dasselbe gilt für den Qualitätsfaktor. Man muss sich aufgrund dieser Ergebnisse wirklich die Frage stellen: Sollte man als Investor wirklich erwarten, für die Übernahme von Qualitätsrisiken entschädigt zu werden, sollte man nicht eher damit rechnen, für sicherere Assets Ertragsein­bußen in Kauf nehmen zu müssen? Einige der Strategien wie etwa Low Beta sind auch nach ihrer Entzauberung interessant, weil sie risikoreduzierend wirken, selbst wenn neben ihrer Beliebtheit und der Bewertungsexpansion kein Alpha mehr übrigbleibt. Der gesunde Menschenverstand scheint dank Arnotts Betrachtung wieder ­eine Chance zu haben, denn qualitativ hochwertige und weniger volatile Aktien konnten nur deswegen über eine bestimmte Strecke eine Prämie verdienen, weil sie ­teurer wurden. Dass diese Phase der Verteuerung dieser gesuchten Faktoren sich weiter fortsetzen könnte, ist zwar eine Möglichkeit, jedoch nicht sehr wahrscheinlich, wenn man sich die Diagramme von Bewertungsrelation und nachfolgendem Fünf­jahresertrag vergegenwärtigt. Sich auf die Illusion der Schaffung von Alpha zu ver­lassen, ­erscheint sehr gewagt, müsste man sich doch auf weiterhin steigende Bewertungen verlassen.


Betrachtet man nun
die sechs repräsentativen Smart-Beta-Strategien, so haben sie sowohl über zehn als auch fast 50 Jahre Überrenditen erzielen können. Bereinigt um die Bewertungsveränderungen ist das Bild bei Weitem nicht mehr so klar. Die beiden Strategien, die in der letzten Dekade am meisten unter sinkenden Bewertungen gelitten hatten, waren Risikoeffizienz und Fundamental Indexing. Trotz des bewertungsbezogenen Gegenwinds konnten sie jedoch eine Überrendite in der Zehnjahresperiode erzielen. Nebenbei angemerkt sei, dass das Fundamental Indexing viel mehr als eine Value-Strategie sein muss, wie Kritiker ­Arnott immer wieder vorwerfen, denn ansonsten dürfte es in dem Zehnjahreszeit­fens­ter nicht möglich gewesen sein, eine Überrendite zu erwirtschaften. Laut Arnott komme der Vorteil aus der Dynamik des Fundamental Indexing: Wenn das Value-­Exposure in Zeiten von teurem Value geringer und in Zeiten von billigem Value höher ist, dann kann diese Dynamik allein schon dazu führen, dass die Strategie eine Überrendite abwirft, selbst wenn Value per se nicht gut abschneidet.


Rückenwind
Was die Low-Vol-, die Maximum-Diversification- und die Qualitäts-Strategie anbelangt, so hatten diese in den letzten zehn Jahren ordentlich Rückenwind. Low Vol zeigte beispielsweise einen Ertrag von 0,82 Prozent im Jahr. Da die Strategie bewertungsmäßig teurer wurde, betrug der Return aus der Bewertungsveränderung jährlich 1,65 Prozent. Somit kamen mehr als hundert Prozent des Ertrags aus der erhöhten Bewertung. Über den 50-Jahres-Zeitraum generierte Maximum Diversification einen Return von 1,59 Prozent pro Jahr, ohne den Beitrag aus den gestiegenen Bewertungen von 1,62 Prozent im Jahr wäre allerdings der Strategieertrag negativ gewesen.


Darauf zu setzen, dass sich die Bewertungsausdehnung über die nächsten 50 Jahre fortsetzen wird, sei laut Arnott wenig zielführend.


Von allen sechs beobachteten Strategien hat in den letzten zehn Jahren Smart Beta „Quality“ mit 2,37 Prozent pro Jahr am bes­ten abgeschnitten, die Bewertungen halfen hier mit. Doch stellt dieses Resultat nur ­einen Backtest dar, weswegen Arnott den fast fünfzigjährigen Zeitraum ohne die letzten zehn Jahre und somit 39 Jahre von 1967 bis 2005 untersuchte. In dieser Periode lieferte Quality einen negativen jährlichen ­Ertrag von 0,14 Prozent ab. Nicht über­raschend ist das Ergebnis, dass Quality über den langen Zeitraum von mehr als 49 Jahren von allen sechs Smart-Beta-Strategien mit nur 0,37 Prozent pro Jahr den bescheidensten Ertrag produzierte.


Im Unterschied zum Faktor der „Brutto-Profitabilität“, dessen Zehn- und Fünfzigjahresertrag fast zu hundert Prozent aus den gestiegenen Bewertungen kommt, verhält es sich bei der Smart-Beta-„Quality“-Strategie anders. Hier kam der Jahresreturn von 0,37 Prozent nicht aus den Bewertungsverän­derungen. Arnott hat auch dafür eine plausible Erklärung anzubieten: „Qualitätsportfolios und deren Entwicklung hängen sehr stark von der Definition des Qualitäts­begriffs ab. So kann ein Portfolio, das aus dem Faktor ,Brutto-Profitabilität‘ gebildet ist, sich sehr stark von einem ,Quality‘-Portfolio unterscheiden, wo in den Quality-Begriff Profitabilität, Leverage und Gewinn­volatilität einfließen.“


Schlussfolgerungen
Es ist nichts Neues, dass Investmentstrategien aus der Extrapolation der Vergangenheitsdaten abgeleitet werden. Man darf sich aber von den historischen Renditen nicht hinters Licht führen lassen. Den aus Bewertungsveränderungen resultierenden Beitrag herauszufiltern und die Ergebnisse um diesen zu bereinigen, liefert verlässlichere Daten, auf denen man Strategien aufbauen kann. Damit nicht genug, muss man den Mean-Reversion-Effekt bei den Bewertungen in seine Überlegungen einfließen lassen. 10- bis 15-jährige Backtests sind nicht genug, sie umfassen zu wenige Zyklen, um belastbare Ergebnisse zu erzielen. Gerade solche kurzen Zeitspannen sind sehr anfällig für verzerrte Ergebnisse, die aus veränderten Bewertungen resultieren. Heute scheint nur die Value-Kategorie relativ billig zu sein, weil deren Ergebnisse der letzten Zeit schwach waren. Normale – also um Bewertungen bereinigte – Faktorrenditen scheinen wesentlich bescheidenere Ergebnisse zu ­zeitigen, als es die Renditen der letzten Zeit vermuten ließen. Es heißt also, seine – oftmals wohl noch zu hohen – Erwartungen anzupassen, wenn man heute einem Faktorinvestment nähertritt. Akademiker sind aufgefordert, diesen Einfluss der veränderten Bewertungen bei der Analyse ihrer präferierten Faktoren sowie bei der Erweiterung des Faktor-Zoos in die Berechnungen einfließen zu lassen. Wenn die steigenden Bewertungen den Großteil der Faktorrendite ausmachen, wird diese Überrendite wohl in der Zukunft nicht haltbar sein. Allein das Thema Mean Reversion könnte schon vielen Investoren ihr Engagement im Bereich der Smart-Beta-Strategien ordentlich verhageln. Ob man sich dann noch „smart“ nennen darf, wenn man am oder nahe dem ­Bewertungshöhepunkt einer Strategie eingestiegen ist, darf getrost verneint werden.


Anhang:

twitterlinkedInXING
 Schliessen

Mit der Nutzung dieser Website stimmen Sie der Verwendung von Cookies und unserer Datenschutzerklärung zu. Mehr erfahren