Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
2/2019 | Theorie & Praxis
twitterlinkedInXING

Wachsende Skepsis

Während Investmenthäuser das Smart-Beta-Geschäft weiterhin als Wachstumsmarkt sehen, melden sich auf Seiten der Finanzmarktforschung immer mehr kritische Stimmen. Manche sehr prominente Faktoren scheinen nie existiert zu haben.

1560245317_adobestock_eisenhans_62029077_44.jpg

Faktorinvestments werden im Markt als eine Art Königsdisziplin verstanden. Mittlerweile tauchen aber immer mehr Zweifel an der Durchschlagskraft der einzelnen Strategien oder gar der ­Existenz von Faktoren im Sinne der Portfoliotheorie auf. Zwei brandaktuelle Studien haben in diesem Zusammenhang ein besonders vernichtendes Urteil gefällt.

© duke univ., Eisenhans | stock.adobe.com

Smart Beta ist seit einigen Jahren eines der zentralen Themen in der Finanzindustrie. Passive Produkte auf Grundlage von Faktoren bescheren ihren Anbietern zum Teil beträcht­liche Zuflüsse. Und vielfach gehen diese davon aus, dass das auch so weitergehen wird. So erklärte erst Mitte März Europas größte Fondsgesellschaft Amundi das verwaltete Vermögen im Geschäftsfeld ETF, ­Indexing & Smart Beta bis 2023 auf rund 200 Milliarden Euro ausbauen zu wollen. „In den vergangenen Jahren sind wir in allen Produkt- und Kundensegmenten stetig gewachsen“, freut sich Fannie Wurtz, Head of Amundi ETF, Indexing & Smart Beta. „Um unsere Wachstumsziele zu erreichen, werden wir neue Märkte erschließen und unsere Position in Europa weiter ausbauen, wo noch großes Wachstumspotenzial besteht.“

Abkehr von „Alpha“

Für die Popularität von Smart Beta beziehungsweise von Faktorinvestments gibt es mehrere plausible Erklärungen. Da wäre einmal die Enttäuschung der Inves­toren über das aktive Management. Eigene Erfahrungen – und mittlerweile auch zu viele Studien – legen nahe, dass es nicht sehr vielen aktiven Managern tatsächlich gelingt, Alpha zu generieren. Ist ein Fondsmanager aber einige Jahre lang tatsächlich besser als der Mitbewerb, lässt er sich sein Geschick teuer abkaufen, wobei man selbstverständlich keinerlei Garantie für ein Anhalten der „Glückssträhne“ bekommt.

Zum gesteigerten Interesse an faktorbasierten Konzepten dürfte auch der Nobelpreis für ­Eugene Fama im Jahr 2013 beigetragen haben. Fama ist einer der Paten der modernen Portfolio- und Faktortheorie, und in seinem Windschatten wurden etliche Arbeiten publiziert, die zu dem Schluss gelangten, dass einzelne Faktoren wie Size, also Unternehmensgröße, oder Value, also Unternehmensbewertung – richtig kombiniert – nicht nur mehr Ertrag abwerfen als klassische Indexinvestments, sondern auch besser performen als der Großteil der aktiven Fondsmanager.

Die Idee ist so erfolgreich, dass das Volumen der Smart-Beta-Assets global inzwischen bei etwas mehr 1.000 Milliarden US-Dollar liegt. Fast im selben Ausmaß, in dem die Fangemeinde wächst, nimmt in jüngerer Zeit aber auch die Zahl der skeptischen ­beziehungsweise kritischen Analysen zu.

Die Warnung vor einer Faktorhysterie kommt dabei primär aus den Reihen der ­Forscher. Wie auch von Institutional Money berichtet, warnte Rob Arnott, Gründer von Affiliates Research und einer der Smart-­Beta-Vorreiter, schon vor geraumer Zeit vor ­einer allzu blauäugigen Herangehensweise. Mithilfe von Backtests wurden inzwischen mehrere hundert Faktoren ausfindig gemacht, die vermeintlich risikolose Outperformance ermöglichen sollen. Arnott prägte in diesem Zusammenhang den Begriff „Faktorzoo“, was eindeutig abwertend gemeint war. Und die diesbezüglichen Sorgen teilen auch andere ernst zu nehmende Experten. Zu dieser Gruppe gehören etwa Campbell R. Harvey von der Duke University und Yan Liu, der an der Texas A&M University wirkt. In ihrer brandaktuellen Studie „A Census of the Factor Zoo“ haben die beiden Autoren eine „Volkszählung“ im Faktoruniversum vorgenommen und kommen mittlerweile auf knapp 400 ­verschiedene Faktoren (siehe Chart „Bevölkerungsexplosion im Faktoruniversum“).

Sowohl die Anzahl der Arbeiten, die sich per annum mit Faktoren auseinandersetzen, als auch die Zahl der neu entdeckten Faktoren selbst ist in den vergangenen beiden Jahren auf ein historisches Hoch geklettert. Die Studienautoren rechnen jedoch mit einer Dunkelziffer, wie Harvey erklärt: „Die Redakteure der Fachzeitschriften fragen Faktoren mit hoher Wirkungskraft nach. Die Autoren erkennen das. Um die Chancen auf eine Publikation zu erhöhen, suchen die Autoren also nach positiven Resultaten. An dieser Stelle beginnt das Data-Mining, und der Schubladeneffekt tritt ein.“ Unter diesem Phänomen verstehen die Autoren die Tatsache, dass Paper, die nur ­wenig oder gar nicht erfolgversprechend sind, in ebendieser Schublade landen. Diese Faktoren werden also gar nicht veröffentlicht, was wiederum zu statistischen Verzerrungen bei der Vermessung des Faktoruniversums und der korrekten Messung der Eintrittswahrscheinlichkeiten von Faktoren führt.

Schwache Statistik

Vor diesem Hintergrund kritisieren die Autoren die statistischen Schwellenwerte, die bei einfachen Testläufen verwendet werden. Diese liegen in der Regel bei zwei Sigma und somit auf einem Signifikanzniveau von 95 Prozent. Die Autoren haben jedoch multiple Tests unter Anwendung dreier statistischer Korrekturansätze nach Bonferroni, Holm und Bonferroni-Holm durchgeführt (siehe Chart „Schwache Statis­tik“) durchgeführt. Unter Einberechnung der Korrekturen und der steigenden Zahl an Faktoren steigt auch die T-Schwelle, die ein Faktor überschreiten muss, um relevant zu sein. Startet man nun in den 60er-Jahren mit einem Schwellenwert von zwei, so steigen die Schwellenwerte je nach angewandter Korrekturmethode auf knapp unter vier. Die Auto­ren haben nun ein paar populäre Faktoren an diesen härteren statistischen Vorgaben gemessen und mussten am Ende feststellen, dass es der Großteil der untersuchten Faktoren nicht schafft, den angepassten T-Quotienten zu überspringen. „Interessanterweise schafft es von den 1992 entdeckten drei Fama-French-Faktoren nur ,Value‘ (HML), den Schwellenwert für jede multiple Testkorrektur zu überspringen. Der Faktor ,Size‘ erleidet jedoch ein anderes Schicksal“, erklärt Liu: „Er schafft keine einzige Hürde. Das legt nahe, dass das Drei-Faktor-Modell in Wirklichkeit ein Zwei-Faktor-Modell gewesen wäre, hätte man multiple Testkorrekturen vorgenommen.“

Size-Effekt schrumpft

Gerade der Size-Faktor ist in letzter Zeit immer wieder unter Beschuss geraten. So ­haben beispielsweise die Experten von AQR Capital Management im Vorjahr herausgerechnet, dass der Size-Effekt über die Jahre immer geringer wurde, de facto also keine Überrendite durch eine SMB-Strategie erzielt werden konnte. Auch sie führen statistische Mängel bei der Erfassung des Faktors ins Feld.

Marktdynamik am Werk

Etwas wohlwollender sehen AQRs Kollegen von T. Rowe Price die schwächer werdenden Renditen des Size-Faktors. Sie sehen davon ab, die Existenzberechtigung von Faktoren per se in Zweifel zu ziehen, sondern führen viel mehr die Marktdynamik der vergangenen Jahre ins Treffen: „Wir sehen drei mögliche Gründe für den Einbruch der Small-Cap-Prämie: die starke Rallye bei Technologiewerten, das Niedrigzinsumfeld und die allgemeine Dollarschwäche“, sagt Yoram Lustig, Head of Multi-Asset Solutions EMEA bei T. Rowe Price. „So sind Large Caps deutlich technologielas­tiger als Small Caps. Die enorme Outperformance von Technologie­unternehmen im vergangenen Jahrzehnt, insbesondere Facebook, Apple, Amazon, Netflix und Google, erklärt zum Teil die jüngste Stärke der Large Caps. Niedrige Zinsen können ein weiterer Grund dafür sein, dass Small Caps gegenüber Large Caps in den vergangenen Jahren nicht besser performen konnten. In Phasen steigender Zinsen, die mit einer wirtschaftlichen Erholung einhergehen, spielen Small Caps ihre Stärken aus. Die vergangenen Jahre waren jedoch durch das schwache Zinsniveau geprägt. Schwache Zinsen helfen Large Caps unter anderem dadurch, dass sie in der Regel mehr Dividenden ausschütten als kleinere Unternehmen. Große Unternehmen neigen zudem dazu, mehr zu exportieren als kleinere. Deswegen konnte der insgesamt schwache Dollar die Large Caps stärken.“

Alice im Faktorland

Doch was trifft jetzt wirklich zu? Ist es Marktmechanik oder doch mathematisch-statistische Schwachbrüstigkeit, die zu Schwächen bei der Performance von einzelnen Faktoren führt? Ein Autorenteam rund um Faktor-Guru Rob Arnott scheint sich in einer ebenfalls im Februar 2019 erschienenen Arbeit eher ersterem Vorwurf anzuschließen. Im Paper „Alice’s Adventures in Factorland: Three Blunders That Plague Factor Inves­ting“ bezieht sich Arnott auf die Daten, die Harvey und Liu zusammengetragen haben, und kommt zu dem Schluss, wonach „die schiere Anzahl von 400 den Schluss nahelegt, dass es sich bei vielen Faktoren wahrscheinlich um keine echten Faktoren mit strukturellen Auslösern von erwarteten Renditen handelt, sondern um ein Ergebnis, das entsteht, wenn eine große Anzahl von Forschern eine große Dichte an historischen ­Daten durchkämmt und dann auf dubiose Prognosen kommt.“

Das Autorenteam der Alice-in-Factorland-Studie, zu dem abermals Campbell R. Harvey gehört, komplettiert sich mit Vitali Kalesnik, Research Affiliates Global Advisors in London, und Juhani Linnainmaa von der University of Southern California in Los Angeles. Als einen Kern ihrer Arbeit etablieren sie nicht, ob Faktorprämien verschwinden, sondern warum sie das tun.

Die Autoren führen in diesem Zusammenhang nicht nur eine mögliche Überbevölkerung des Faktoruniversums als potenzielle Ursache, sondern auch Markteffekte an. Anders als die Analysten von T. Rowe Price glauben sie aber nicht an die Verdrängung einzelner Faktoren wie eben SMB durch populärere Strategien, sondern vielmehr daran, dass die Faktorstrategie per se ein Opfer ihres eigenen Erfolgs geworden sein könnte. „Die Renditen in der echten Welt können enttäuschend ausfallen, wenn ein Faktor einmal zu stark nachgefragt – sprich: zu teuer – „geworden ist“, erklärt Kalesnik.

Teure Faktoren

Dass Faktoren kontinuierlich teurer werden dürften, belegen die Autoren, indem sie die Performance verschiedener Faktoren zunächst über den Zeitraum von 1963 bis 2018 und dann von 2003 bis 2018 verfolgen. Zum Zweck besserer Vergleichbarkeit teilen sie die Faktoren nach Popularität auf: Die Gruppe der sechs beliebtesten umfasst Value, Size, Operating Profitability, Investment, Momentum und Low Beta. Die zweite Gruppe besteht aus den acht Faktoren Idiosyncratic ­Volatility, Short-Term Reversals, Illiquidity, Accruals, Cash Flow/Price, Earnings/Price, Long-Term Reversal und Net Share Issues. Zu guter Letzt werden 33 weitere immer wieder in der Literatur erwähnte, aber in diesem Paper nicht näher spezifizierte Faktoren zusammengefasst. In der Struktur der Vergleichsportfolios orientiert man sich an den Vorgaben von Fama und French von 1993 – also kurz gefasst: Die nach Marktkapitalisierung geordneten und der NYSE gehandelten Aktien werden nach einer Long/Short-Strategie verwaltet. Die so entstehenden Portfolios werden auf eine jährliche Volatilität von zehn Prozent standardisiert.

Wertet man die Performance für die beiden erwähnten Zeiträume – also 1963 bis 2018 und 2003 bis 218 –, kommt man auf einige bemerkenswerte Ergebnisse. Nehmen wir zunächst die Resultate für die gesamte Betrachtungsdauer: Hier fällt zunächst auf, dass der Faktor „Size“ nach „Low Beta“ sowohl beim durchschnittlichen Jahresertrag als auch beim Alpha das zweitschlechteste Ergebnis der Top-Gruppe abliefert. Insgesamt weisen alle beobachteten Faktoren positive Renditen und ein mehr oder weniger ausgeprägtes Alpha auf – Letzteres ist nur bei „Size“ statistisch nicht relevant. Das Beta ist nahezu ausschließlich negativ. Das bedeutet, die Faktoren eignen sich über den gesamten Zeitraum gesehen als Diversifikator zum Markt.

Zu viel Beta

Das Bild ändert sich jedoch, wenn man die Performance von Faktoren rückblickend nur bis 2003 betrachtet: Die durchschnittlichen Erträge brechen grosso modo ein (siehe Chart „Wohin ist die Faktorperformance verschwunden?“). Dasselbe gilt für Alpha und statistische Relevanz – Letztere schafft nur noch in Ausnahmefällen den Sprung über die 2,0 beim T-Wert. Auch das Beta dreht oft in den positiven Bereich. Das bedeutet wiederum, dass die einzelnen Faktoren begonnen haben, im zunehmend gleichen Takt zu ticken wie der Markt. Nachgewiesen haben die ­Autoren das steigende Beta, indem sie die Faktoren wieder in zwei Gruppen geteilt haben. Das Resultat: Beide Sets weisen ab Mitte der 1980er-Jahre einen relativ starken Diversifikationseffekt aus. Dieser findet im Jahr 2005 seinen besten Wert. „Beide Faktorportfolios waren gegen Anfang der 2000er-Jahre mit ­einem Beta ausgestattet, das unter –1,0 lag. Das ist eine wichtige Schwelle. Sie bedeutet, dass ein  Indexfonds, der mit einem Long-Short-Faktor-Portfolio gepaart wird, ein Beta hätte, das nicht von null unterscheidbar wäre. Das Portfolio wäre also marktneutral“, wie Linnainmaa erklärt. Unangenehmerweise schießt das Beta nach 2005 in die Höhe und liegt zum Zeitpunkt der Finanzkrise nahe null. „Investoren, die in ein Portfolio dieser Art investiert gewesen wären, hätten also ­eine herbe Enttäuschung erlebt“, erklärt ­Arnott. „Dachten sie 2005 noch, sie hätten in ein Portfolio investiert, das marktneutral sei, hätte sich 2008 und 2009 im Markt-Crash herausgestellt, dass es plötzlich ununterscheidbar zu null war“ und somit die Abschläge nahezu ungebremst mitgemacht hätte, so Arnott weiter.

Gruselige Ertragskurve

Doch nicht nur die Ereignisse rund um die große Finanzkrise legen die Schwächen der Faktortheorie offen. Die Autoren sind Aus­sagen von McLean und Pontiff aus dem Jahr 2016 nachgegangen, wonach die Performance eines neu entdeckten Faktors nach dessen Publikation drastisch zurückgegangen ist. In der Alice-Studie haben die Autoren für die 46 beobachteten Faktoren berechnet, was ein investierter Dollar an durchschnittlichem Ertrag gebracht hätte, wenn man ihn zehn Jahre vor Entdeckung in einen der untersuchten Faktoren investiert hätte. Den tatsächlichen Ertrag haben sie dann mit dem pro­gnos­tizierten Ertrag verglichen, der sich mittels CAPM-Regression ergeben hätte sollen. Die daraus resultierende Ertragskurve zeigt einen leicht gruseligen Verlauf. Rund neun Jahre lang laufen die im Backtest erzielten Erträge deckungsgleich mit den Erträgen, wie sie laut Prognosetool hätten sein sollen. Rund ein Jahr vor der Entdeckung reißt die Performance aber ab, um dann immer flacher zu werden und zehn Jahre nach Entdeckung eine klaffende Lücke zum prognostizierten Ertragsverlauf aufzureißen.

Verschlechterung

Dieser Kurvenverlauf bietet die zweite ­Erklärung für die enttäuschenden Faktorkennzahlen der vergangenen 15 Jahre. Doch wodurch kann die mit Fortdauer der Existenz schlechter werdende Performance von Faktoren erklärt werden? Die Autoren liefern drei Ansätze. ­Erstens könnten aufgrund der zahl­reichen Versuche, Faktoren zu entdecken, pures Glück dazu geführt haben, dass für einzelne Faktoren Daten entstanden sind, die auf die Funk­tionsfähigkeit eines Faktors hindeuten. Zweitens komme hinzu, dass ­Investoren nach Entdeckung eines Faktors in genau diese Investment­idee hineinströmen – die steigenden Kurse verteuern die Strategie entsprechend. In den Backtests kann es drittens passieren, dass die Performance einzelner Faktoren das Resultat simpler Korrelationen sein kann: Gerade Punkt zwei zeigt, dass „Value“ schnell in einen ­Faktor hineinspielen kann, wenn dieser zunächst „billig“ ist und dann „teuer“ wird. Das würde bedeuten, dass sich die Einzelerträge von Faktoren bei der Zusammenfassung in einem Portfolio nicht addieren, sondern vielmehr prozentuell auf die beitragenden Faktoren aufteilen – entsprechend enttäuschend wäre dann der kumulierte Ertrag eines Kombi-Faktor-Portfolios.

Angesichts all dieser Probleme stellt sich die Frage, ob Faktorportfolios überhaupt ­einen Mehrertrag jenseits des Marktes bringen können. Wieder haben die Autoren die populärsten Faktoren in zwei Gruppen eingeteilt. Diesmal wurden die Volatilitäten jedoch nicht auf zehn Prozent skaliert, sondern an die Schwankungen des Marktes angeglichen. Lässt man die beiden Faktorportfolios seit 1963 gegen den Markt laufen, ist der Mehrertrag der Faktorstrategien beeindruckend.

Markt schlägt Faktor

Ganz anders das Bild für die vergangenen 15 Jahre: Spätestens nach 2012 enteilt der Markt den Faktorstrategien. Besonders eindrücklich erscheint in dieser historischen Nahaufnahme, was sich rund um die große Finanzkrise abgespielt hat. Da sah es zunächst so aus, als könnten die Faktoren die Verwerfungen gar zu außergewöhnlichen Renditen nützen – tatsächlich ereigneten sich die Verluste nur zeitversetzt. Das ist in sich stringent, wenn wir uns daran erinnern, dass das Beta der Faktorstrategien ja nach 2005 stetig zugenommen hat. Das bedeutet laut Arnott, dass „Faktoren zu starken Kursrückgängen neigen und allfällige Diversifika­tionsvorteile ausgerechnet dann verschwinden, wenn der Markt einbricht“.

Alles andere als normal

Der mathematische Grund für solch radikale Schwankungen liegt darin begründet, dass „Faktoren alles andere als normal sind“, wie Arnott weiter erklärt. Das Risiko von Faktoren ist demnach also nicht normalverteilt, sondern weist enorme Fat Tails auf und neigt außerdem stark in Richtung Verlustseite. Er belegt diese Behauptung anhand statistischer Besonderheiten diverser Faktoren – beispielsweise dem „Momentum“: In der Zeit von 1963 bis 2018 kam es im schlechtesten Monat zu Kursverlusten von minus 24,3 Prozent. Wäre das Risiko normal­verteilt, so würde ein solcher Verlust einmal in 4,1 Billiarden Jahren vorkommen – nach der „4“ würden in diesem Fall also 15 Nullen stehen. Statistischer Auslöser dieser Ano­malie ist eine Schiefe von –1,4 bei einer Kurtosis von 11,38 zu den geschilderten Verzerrungen. Die Schiefe (Skewness) misst die Symmetrie einer Verteilung. Je negativer die Schiefe, desto häufiger die negativen Aus­reißer und vice versa. Die Kurtosis, also die Wölbung der Kurve, misst wiederum das Ausmaß der jeweiligen Übertreibungen. Bei einer Normalverteilung liegen beide Werte bei null.

17 Prozent Monatsverlust

Die Liste lässt sich fortsetzen: „Illiquidity“ erlebte im Betrachtungszeitraum seinen schlimmsten Monat mit einem Verlust von minus 17,1 Prozent. Einen solchen Schlag sollte es normalverteilt nur alle 55,8 Millionen Jahre setzen.

Dass die Faktorrisiken mitunter enorm weit von der Normalverteilung entfernt sind, führt zu massiven Verschiebungen in der Performance. Bedient man sich noch mal des Beispiels „Momentum“, so werden aus einem 2003 investierten Dollar bei normalverteiltem Risiko bis 2018 knapp 1,5 Dollar. Nimmt das „Momentum“ mit dem tatsächlich aufgetretenen, also nicht-normalverteilten, Risiko, steigt man 2018 gerade einmal etwas besser als pari aus. Das vom Risiko her reale Momentumportfolio liefert also ­einen Ertrag, der 30 Prozent unter dem normalverteilt angenommenen Risiko liegt.

Berechnet man die tatsächlichen Risiken eines Top-6-Faktor-Portfolios, ändern sich die Zahlen zwar etwas, die Tendenz bleibt aber gleich. Das ist insofern problematisch, als der Mensch dazu neigt, Risiken intuitiv als normalverteilt anzunehmen – selbst wenn er die Statistik dahinter nicht kennt. Wenn die Intuition also davon ausgeht, dass eine Strategie nahezu ewig brauchen sollte, um ein ­besonders negatives Ergebnis zu erzielen, dieses aber bereits – wie im Fall des 1989 entdeckten Momentum – nach nur 30 Jahren eintritt, ist das natürlich ein Ergebnis, das für einen Investor einigermaßen enttäuschend sein könnte.

So wie die anderen ernüchternden Ergebnisse der Alice- und Faktorzählungsstu­dien  bedeutet das aber nicht, dass die Faktortheorie per se nutzlos ist. Sie ist nur um einiges komplexer und mit höheren Risiken aus­gestattet, als man möglicherweise bislang vermutet hat.  

Hans Weitmayr


Anhang:

twitterlinkedInXING
 Schliessen