Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
2/2019 | Theorie & Praxis
twitterlinkedInXING

Vorsicht Falle(n)

Eine kürzlich veröffentlichte Studie von ERI Scientific Beta und Scientific Analytics stellt die Risiken heraus, die mit Änderungen in der Zusammensetzung von Faktorindizes einhergehen.

1560244242_adobestock_fotomek_200374291-42.jpg

Das große Interesse an Faktorindizes und Smart-Beta-Lösungen kann Fondsanbieter unter Zeitdruck oder aus Kompetenzmangel durchaus dazu verleiten, bei der Entwicklung solcher ­Lösungen schlampig zu arbeiten. Die Zahl der möglichen Fallen, in die man tappen kann, ist keineswegs gering.

© ERI Scientific Beta, fotomek | stock.adobe.com

Das von der französischen EDHEC Business School im Jahr 2001 geschaffene EDHEC-Risk Institute (ERI) versteht sich (auch) als Speerspitze wissenschaftlich fundierter Faktorindexgestaltung. Sein erklärte Ziel besteht darin, akademisch fundierte, praxistaugliche Lösungen zu schaffen. Die seit 2013 aktive Initiative „ERI Scientific Beta“ (Scientific Analytics) will die neuesten wissenschaft­lichen Erkenntnisse zu Smart Beta an die Investmentindustrie weiterreichen. Und inzwischen bietet man neben Multi-Faktor-Indizes auch „Single Smart Factor Indices“ an. Aktuell stehen die sechs wissenschaftlich abgesicherten Faktoren Mid Cap, Value, High Momentum, Low Volatility, High Profitability und Low Investment zur Verfügung. Neben praxistauglichen Lösungen wollen die Hüter der robusten Faktorindexmethodologie auch mögliche Gefahren und Schwachstellen von Smart-Beta-Konzepten aufdecken. Jüngstes Ergebnis dieser Anstrengungen ist der Hinweis auf Probleme, die sich ergeben, wenn sich eine Indexkonstruktion im Zeitablauf ändert. Professor Noel Amenc, CEO von Scientific Beta, und Felix Goltz, Head of Applied Research am EDHEC-Risk Institute, publizierten die Ergeb­nisse ihrer Untersuchung, die mit den Analysten Mikheil Esakia und Marcel ­Sibbe erarbeitet wurden, im ersten Quartal dieses Jahres.

Nicht in Stein gemeißelt

Systematische Faktorindizes folgen zwar einem festgelegten Regelwerk, sind aber ebenso wenig vor Änderungen gefeit wie klassische marktkapitalisierungsgewichtete Indizes. Das häufige „Herumdoktern“ an der Indexzusammensetzung macht die Stärke, die Smart-Beta-Indizes für sich in Anspruch nehmen, zumindest teilweise zunichte. Das Ziel besteht darin, systematisch und transparent ein konsistentes Exposure zu bestimmten abgesicherten Faktoren aufzubauen, häufige Indexanpassungen laufen dem zuwider. Dabei ist die Versuchung auch für Indexanbieter und Smart-Beta-Manager groß, so wie traditionelle aktive Manager neue Fonds aufzulegen, wenn die alten underperformen. Mithilfe entsprechender Backtests ließen sich problemlos laufend neue Konzepte entwickeln. Ältere Ideen mit schlechten realen Ergebnissen könnte man in der Versenkung verschwinden lassen. Neben derlei vertriebsgetriebenen Motiven gibt es durchaus legitime Gründe für einen solchen Schwenk, etwa wenn die Indexmethodologie verändert wird, um den Index leichter implementierbar zu machen. Auch dafür gibt es Vorbilder aus der Welt der kapitalisierungsgetriebenen Indizes, wo etwa Anpassungen an den Free Float vorgenommen werden, um die Gesamtliquidität des Index zu erhöhen.

Grundsätzlich müssen Anpassungen also möglich sein, allerdings sei dabei wichtig, so die Autoren, dass die Änderungen nicht im Widerspruch zu den Investmentzielen stehen. So wäre es etwa überraschend, wenn ein Multi-Faktor-Index nach einer Umstellung auf ein anderes Faktorset als in der Vergangenheit zurückgreift. Indexanbieter müssen immer gute Gründe dafür ins Treffen führen können, wenn sie die Indexmethodologie ändern. Sie sollten klar argumentieren, warum sich geplante Änderungen mit der Philosophie des konkreten Smart-Beta-Ansatzes in Einklang bringen lassen. Nicht minder wichtig ist, dass Änderungen in der Indexmethodologie mit dem nötigen Maß an Transparenz einhergehen. In einer kürzlich ausgewerteten Umfrage unter europäischen ETF-Investoren stellten Felix Goltz und Le Sourd fest, dass eine der großen Herausforderungen für Investoren, die faktorbasierte Strategien analysieren möchten, der Zugang zu Information darstellt, um bestimmte Risiken wie etwa das Data-Mining-Risiko beurteilen zu können. Änderungen der Indexregeln und die Performancecharakteristika älterer Indexan­gebote sollten transparent sein, um den Inves­toren die Evaluierung der Strategien zu ermöglichen.

Data-Mining-Risiken

Wenn Inkonsistenzen bei der Indexmethodologie auftreten, dann liegt das sehr oft am Data Snooping. Auch p-Hacking oder Data Mining genannt, ist Data Snooping ­eine Bezeichnung für die verzerrte Darstellung von Forschungsresultaten durch die sys­tematische und wiederholte Anwendung statistischer Methoden auf einen vorliegenden Datensatz. Der p-Wert, also die Kennzahl der statistischen Signifikanz eines Resultats, wird dabei gezielt beispielsweise durch das Testen genügend vieler Variablenkombinationen auf einem einzigen Datensatz unter die in den Wirtschaftswissenschaften etablierte Fünfprozentgrenze gedrückt. Auf diese Weise wird die Chance ­erhöht, die nunmehr „signifikanten“ Forschungsergebnisse auch in anerkannten Fachjournalen veröffentlichen zu können. Analysen ohne signifikante Resultate bleibt die im Wissenschaftsbetrieb so wichtige ­Publikation ja meist versagt. Konkret bedeutet das, dass die Investmentindustrie die Faktordefinition so lange „verbessert“, bis sich aufgrund von bloßem Zufall eine bessere Backtest-Performance ergibt. Investoren haben davon nichts, da sich die gezeigte Performance als fälschlicherweise künstlich erhöht erweist.

Falsche Faktorauswahl?

Aus fundamentaler Sicht wäre eine Änderung beziehungsweise mehrmalige Änderung in der Faktordefinition ebenfalls problematisch. Im Fall einer solchen Umstellung liegt der Verdacht nahe, dass die Faktoren, die jeweils abgebildet werden, doch keine nachhaltigen Ertragsbringer sind.

Da bisher nur wenige Faktoren, beispielsweise Value und Momentum, die von Inves­toren gesuchte Persistenz gezeigt haben, ist die Gefahr, dass sich eine vermeintliche Faktorprämie als Fata Morgana erweist, stets gegeben. Ist bei einem Faktor also ein Update erforderlich, tut man als Anleger gut daran, dem Anbieter konkrete Fragen bezüglich der Robustheit zu stellen.

Die Kritik am Data Mining bezieht sich nicht nur auf die Definition einzelner Faktoren, sondern auch auf Auswahl und Zusammenstellung der Faktoren. Die Studienautoren betonen dabei auch die Bedeutung von Selbstverständlichkeiten: Auswahl und Gewichtung verschiedener Faktoren sollten wohl begründet und nicht durch bloßes ­Zurückschauen entstanden sein. Wer einfach die „beste“ In-sample-Faktorkombi­nation wählt, darf für die Zukunft keine ­robuste Performance erwarten.

Model-Mining-Risiko

Ein weiterer Fallstrick methodologischer Inkonsistenzen stellt das Model Mining Risk dar, auch wenn Faktordefinition und-selektion mit der nötigen Sorgfalt erfolgt sind, kann in der anschließenden Portfoliokonstruktion von Multi-Faktor-Indizes viel schiefgehen. Indexanbieter verfügen hier über ein großes Menü an Optionen, und so wie in der Faktordefinition müssen jede Entscheidung sowie jede anschließende Änderung der Konstruktion fundamental begründet sein. Ein nach Ansicht der Autoren heikler Punkt ist der Einsatz willkürlicher Beschränkungen. Berichtet ein Anbieter, dass verschiedene einschränkende Richtli­nien mit historischen Daten getestet wurden und die Limits so gewählt wurden, dass der Multi-Faktor-Index die höchste Information Ratio aufweist, könnte es interessant sein, Näheres zu erfahren. Mit der Anzahl der Limitierungen für Sektoren-, Länder- und Einzeltitelgewichte, Faktor-Exposures und den Portfolioumschlag in der Portfoliokonstruktion vergrößert sich nämlich das Modellrisiko. Hier droht die Gefahr, dass das Modell mit vielen Beschränkungen, das im Backtest am überzeugendsten abgeschnitten hat, auswählt. Ob das dann in der Praxis ­eine robuste Out-of-sample-Performance liefert, steht keinesfalls fest. Erweist sich das Konzept als Enttäuschung, besteht dann neuerlich die Gefahr, dass das Modell geändert wird – als Investor möchte man eher nicht Zeuge eines solchen „Annäherungsprozesses“ werden.

Investoren im Dilemma

Für den Investor gilt es herauszufinden, welche Motivation hinter der Smart-Beta-Index-Änderung tatsächlich steckt: Geht es nur um die Umsetzung eines besseren Backtests in die Praxis oder bedeutet die Änderung eine wirkliche Verbesserung des bestehenden Index? Andrew Lo wies schon in den 90er-Jahren darauf hin, dass die Zahl der möglichen Varianten im Suchprozess minimiert werden muss, will man das Data-Snooping-Risiko senken. Tatsächlich ist eines der wichtigsten Prinzipien zur Verringerung des Data-Mining-Risikos, die Flexibilität des Indexanbieters bei Index­änderungen zu beschränken. Um die Möglichkeiten eines Indexproviders zu limi­tieren, können Investoren verlangen, dass jede Änderung der Indexmethodologie im Einklang mit den Investmentprinzipien des bestehenden Angebots steht. Sollten Änderungen innerhalb eines expliziten methodologischen Rahmens und mit Bezug auf eine klare Investmentphilosophie durchgeführt werden, bleibt wenig Raum für Data Mining. Ein konsistentes Regelwerk und eine konsistente Investmentphilosophie sind die besten Mittel gegen zweifelhafte Änderungsversuche mit getunten Performances.

Langfristige Ausrichtung

Einrichtungen der zweiten Säule wie Pensionsfonds und Versicherer sowie Staatsfonds, die in den letzten Jahren zunehmend Gefallen an Smart-Beta-Investments finden, haben aufgrund der Langfristigkeit ihrer Verpflichtungen mit kurzfristigen Anlagestrategien respektive Ad-hoc-Anpassungen von Investmentmethodologien ihre liebe Not. Ihre langfristige Ausrichtung zwingt sie förmlich dazu, sich einmal für Investmentprinzipien zu entscheiden und diese dann auch beizubehalten. Empfehlungen für Governance-Grundsätze von Pensionsfonds sehen vor, dass Investmentüberzeugungen den Investoren dabei helfen können, einen konsistenten Kurs zu steuern und sich dabei nicht durch Modeerscheinungen vom Weg abbringen zu lassen. Damit im Einklang stehende Indexstrategien sollten diesen lang­fris­tigen unaufgeregten Zugang widerspiegeln, was Änderungen der Indexmethodologien aufgrund von Modetrends ausschließt. Dazu kommen wissenschaftliche Belege dafür, dass eine häufige Änderung des Anlage-Exposures negative Performanceeffekte auslöst. Das haben Andrea Frazzini und Owen Lamont 2008 in „Dumb Money: ­Mutual Fund Flows and the Cross-Section of Stock Returns“ nachweisen können.

Dazu kommt, dass erratische Faktorindexmethodologien im Widerspruch zu den Grundfesten des Faktor-Investing stehen. Man denke an einen Investor, der blind den wiederholten Änderungen der Faktordefinition und -zusammenstellung eines Indexproviders Glauben schenkt. Sollte dieser Anleger wirklich glauben, dass sich die erfolgsbringenden Faktoren tatsächlich häufig ändern, wäre eine Kontrolle des Exposures zu diesen Faktoren als Unterstützung für Investmententscheidungen nahezu nutzlos, da sich diese Entscheidungen auf Faktoren stützen sollten, die auch noch in der Zukunft relevante Performancetreiber sind. Die akademische Literatur geht davon aus, dass das Eingehen eines Faktorexposures langfristig belohnt wird. Indexmethodologien, die häufig die Faktordefinitionen oder das Set von Faktoren ändern, sind mit den Prinzipien des Faktor-Investings nicht vereinbar.

EDHEC hat sich einige Indexanbieter genau angesehen, wie sie etwa bei der Auswahl von investierbaren Faktoren vorgehen. Tatsächlich findet sich eine rasche Änderung von Faktoren bei Multi-Faktor-Flaggschiffprodukten. So hat beispielsweise MSCI im Jahr 2013 eine Serie von Quality-Mix-Indizes aufgelegt, die ein Multi-Faktor-Angebot darstellen. Der Index zielt auf ein ausgewogenes Exposure von Value-, Low-Volatility- und Quality-Faktoren ab. 2015 entschloss sich MSCI dazu, den Low-Vol-Faktor aus seinem neuen Flaggschiff-Produktangebot, der diversifizierten Multi-Faktor-(DMF)-Serie, zu entfernen. Der neue Index bezog die Faktoren Value, Quality, Size und Momentum mit ein. Der Ausschluss von Low Vol scheint nicht von der Überlegung gesteuert zu sein, dass man für diesen Faktor keine Prämie bekommt. Eine wichtige Frage in diesem Zusammenhang ist, ob der Ausschluss dieses Faktors aus der neuen DMF-Indexserie zu einer Erhöhung der Information Ratio im Backtest beigetragen hat. Was wäre geschehen, wenn der Low-Vol-Faktor in die Berechnung des Gesamtscores im DMF-Optimizer eingeflossen wäre? In einem ­Bericht führte MSCI aus, dass der Einschluss des Low-Vol-Faktors zu einer Verschlechterung der Information Ratio von 1,14 auf 0,86 in einem 16 Jahre umfassenden Backtest-Zeitfenster beigetragen hätte.

Inkonsistenzen die Faktorauswahl betreffend können sich nicht nur in Bezug auf die zeitliche Abfolge von Produktangeboten, sondern auch im Hinblick auf wissenschaftliche Erkenntnisse ergeben. So wurde etwa das Angebot von Research Affiliates in Form der RAFI-Multi-Faktor-Index-Serien (RAFI steht für Research Affiliates Fundamental Index) von einer Research-Publi­kation unterstützt, die die Robustheit der verwendeten Faktoren betonte und dabei Quality und Size umfasste. Allerdings hieß es in einer früheren Publikation vom September 2016, Quality- und Size-Faktoren seien nicht ausreichend robust. Im Januar 2017 war auf der Homepage von Research Affiliates zu lesen, dass RAFI Multi Factor eingerichtet wurde, um die folgenden Vorteile anzubieten: eine Kombination von theoretisch einwandfreien und empirisch ­robusten Single-Faktor-Strategien mit ­Value, Low Volatility, Quality, Momentum und Size. Die Ansichten eines Indexan­bieters über die Robustheit eines Faktors können also sehr schnell wechseln, wie das Beispiel zeigt. Solche kurzzeitigen Verän­derungen zur fundamentalen Beschaffenheit eines Faktors stehen nicht im Einklang mit der Idee, dass Faktorindizes eine strate­gische Wahl für Langfristinvestments darstellen.

Indexprovider MSCI schoss aber den ­Vogel mit folgender Aussage zu dem Faktorregelwerk ab: „Faktoren oder Faktorengruppen können hinzugefügt, abgeändert oder entfernt werden, um sicherzustellen, dass das Regelwerk eine Anzahl robuster Faktoren und Faktorgruppen zu jedem bestimmten Zeitpunkt widerspiegelt.“ Die Ironie, zweifelhafte Faktoren als robust zu jedem erdenklichen Zeitpunkt zu bezeichnen, zeigt an, in welch großem Ausmaß Robustheit in der Praxis vernachlässigt wird.

Verflixte Faktorauswahl

Das Problem mit solchen Inkonsistenzen im Faktorset ist, dass solche Änderungen ­eine große Auswirkung auf die Backtest-Performance haben. Ein Beispiel illustriert die Auswirkung der Selektion eines falschen Faktorsets aus sechs Faktoren. Der obere Teil der Tabelle „Falsch selektiert“ zeigt die Verteilung der Sharpe Ratios von 42 möglichen Portfolios, die sich aus verschiedenen Faktorkombinationen zusammensetzen. Die Resultate zeigen, dass die risikoadjustierte Performance solcher Multi-Faktor-Indizes zwischen 0,51 und 0,73 über einen 40-jährigen Beobachtungszeitraum zu liegen kommt. Die Bandbreite der Sharpe Ratio von 0,22 ist jedenfalls sehr beachtlich. Sieht man sich die vier zehnjährigen Subperioden an, die eine typischere Länge für einen Backtest darstellen, kann die Bandbreite der möglichen Sharpe Ratios aller Multi-Faktor-Indizes sogar noch steigen, und zwar auf bis zu 0,42. Dieses stilisierte Beispiel zeigt, dass die unterschiedliche Auswahl von Faktoren für ein neues Multi-Faktor-Indexangebot genügend Flexibilität für den Indexprovider bereithält, um große Verbesserungen der backgetesteten Performance relativ zu einem bereits bestehenden Index vorzuweisen.

Die Performanceunterschiede werden sogar noch größer, wenn man auf die relative Performance – und damit auf die Information Ratio, also den Quotienten aus aktiver Rendite und aktivem Risiko, statt die ­Sharpe Ratio – abstellt. Die Verteilungs­eigenschaften der Information Ratio (IR) über 42 Faktorindexkombinationen illus­triert der untere Teil der Tabelle „Falsch ­selektiert“. Über die gesamten 40 Jahre der Stichprobe spannt die Information Ratio von 0,11 bis 0,81. Diese Streuung ist noch größer, wenn man auch hier wieder auf zehnjährige Subperioden referenziert. Die Dispersion der IR erreicht hier Werte von 0,75 bis 1,59. Zusammenfassend gesagt, hat die Faktorselektion für Multi-Faktor-Indizes in der absoluten wie auch in der relativen Betrachtung eine dramatische Auswirkung auf die Performance, speziell wenn man kürzere Backtest-Perioden betrachtet.

Bis dato wurde nur die In-sample-Performance der Multi-Faktor-Indizes analysiert. Relevanter ist es zu untersuchen, wenn man periodisch eine Faktorkombination mit dem attraktivsten Backtest auswählt. Auch hier werden wieder zu­mindest drei Faktoren kombiniert, und zwar auf Basis der Renditen der letzten fünf ­beziehungsweise zehn Jahre. Danach werden ­diese so ausgewählten Multi-Faktor-­Index-Portfolios auf Sicht von ein, zwei und drei Jahren gehalten. Das Resultat ist dabei mehr als ernüchternd, wie die Tabelle ­„Toller Backtest, stramme Underperformance“ zeigt. All diese Faktorkombina­tionen mit tollen Backtest-Resultaten bleiben im Schnitt in puncto Sharpe Ratio und Information Ratio hinter einem gleich­gewichteten Sechs-Faktor-Index-Portfolioansatz zurück. Noch wichtiger ist, dass die Out-of-sample-Performance dieser im Backtest überlegenen Faktorkombinationen hinter ­jener des gleichgewichteten Ansatzes ­zurückbleibt. Die Grafik listet die annua­lisierte relative Underperformance der Faktorkombinationen zwischen der Kalibrierungs- oder Backtest-Periode einerseits und der darauffolgenden Halteperiode andererseits, die von einem bis zu drei Jahren reicht, auf. Grob gesagt, kann man unabhängig von der Backtest- und der Halte­periode eine relative Underperformance ­gegenüber dem Sechs-Faktor-Gleichgewichtungsansatz zwischen drei und vier Prozent pro Jahr erwarten.

Totale Ernüchterung

Faktorselektionsstrategien blähen also erwiesenermaßen die Backtest-Resultate auf. Dabei sind die Wahlmöglichkeiten des Faktorjongleurs in diesem modellhaft dargestellten Beispiel relativ bescheiden, kann er doch nur aus sechs Faktoren wählen. In der Praxis verfügen Indexprovider über wesentlich mehr Flexibilität bei der Anzahl und der Gewichtung der Faktoren zu einem Multi-Faktor-Produkt. Angesichts dieser vielen Freiheitsgrade und der Überschätzung von Backtest sind Investoren gut beraten, die Rechtfertigung des Indexproviders für eine Änderung in der Faktorselektion oder -gewichtung zu hinterfragen.

Geänderte Faktordefinition

Tatsächlich neigen die Indexanbieter dazu, die Definition der einzelnen Faktoren quartalsweise einem Update zu unterziehen. So hat sich beispielsweise die Definition des Value-Faktors bei MSCI über die Zeit nicht unwesentlich verändert. Interessanterweise betreffen diese Änderungen in der Definition des Value-Faktors nicht nur die einzelnen Variablen, die zusammen dann ein Value Composite Score bilden, sondern auch die Art und Weise, wie sie kombiniert werden und welche Änderungen – wie etwa ein sektorbezogenes Scoring – durchgeführt werden. Die Tabelle „Value gestern ist nicht Value heute“ zeigt über 20 Jahre vier Etappen der Änderung an, wie sie MSCI kommunizierte. Einzig konsistente Value-Variable über 20 Jahre ist das Kurs-Buchwert-Verhältnis, alle anderen änderten sich mit der Zeit. Die Variable „Enterprise Value to Cash Flow“ etwa wurde 2014 neu eingeführt, war aber 2018 schon wieder verschwunden. Auch das sektorbezogene Scoring, das unter dem Titel des „Enhanced ­Value“ eingeführt worden war, hat es 2018 nicht mehr in die Value-Definition von MSCI geschafft.

MSCI ist kein Einzelfall

Auffälliges hat Scientific Beta auch bei der Indexmethodologie der fundamental gewichteten Indizes von Research Affiliates (RAFI Indizes) gefunden. Diese wurden erstmals 2005 als FTS-RAFI-Index-Reihe lanciert, hier werden die Aktien anhand ­eines Composite Scores gewichtet, der sich aus Umsätzen, Cashflows, Buchwert und Dividenden ableitet. 2011 wurde dann eine zweite Indexserie ins Leben gerufen, die Russell RAFI heißt. Während es keinen Unterschied in der Zielsetzung der Indizes gibt, sind die Value messenden Variablen jedoch unterschiedlich. Russell RAFI stellt nämlich auf Umsätze, Cashflows und Dividenden ab. Der Buchwert bleibt hier unberücksichtigt. Zusätzlich werden bei der Russell-­RAFI-Methodologie zu den Dividenden noch die Aktienrückkäufe hinzugerechnet, und bei den Umsätzen wird eine Korrektur um den Leverage vorgenommen. Damit will man offensichtlich mit der zweiten ­Indexserie nach der Finanzkrise verhindern, dass Firmen mit hohem Leverage im Value Index übergewichtet sind. Das lässt den Schluss zu, dass sich die Definition von Value und der Fundamentaldaten der Unternehmen dynamisch entwickelt und vor sowie nach der Finanzkrise anders gesehen wird. Die Entscheidung, Leverage-Anpassungen vorzunehmen, hat übrigens große Auswirkungen auf die Performance der fundamental gewichteten Indizes während der ­Finanzkrise. Das hat Professor Noël Amenc 2015 in „Robustness of Smart Beta Strategies“ nachgewiesen, wo verschiedene Regeln der Leverage-Anpassung zu Renditedifferenzen im Jahr 2008 von neun Prozent führten.

Um ein Gefühl dafür zu erhalten, wie sich oftmalige Faktor­definitionswechsel auf die Performance von Value auswirken können, hat das Autorenquartett folgenden Test durchgeführt: Man nehme verschiedene Value-Definitionen, wobei das Variablenset aus den üblicherweise in der Praxis herangezogenen Kenngrößen wie Kurs-Gewinn-Verhältnis, Kurs-Cashflow-Verhältnis, Kurs-Umsatz-Verhältnis, Dividendenrendite und Kurs zu Pay-out gebildet wird. Neben einem einheitlichen Scoring ist auch ein sektorbezogenes Scoring-Modell als Option zulässig. Sodann hat man über ein fünfjähriges Zeitfenster die erfolgversprechendsten Variablen und deren Kombinationen anhand ihrer In-sample-Performance herausgegriffen und diese Strategie in der Simulationsrechnung für fünf Jahre durchgehalten. Die Ergebnisse dieses „Enhanced“-Ansatzes hat man dann mit der Performance eines ganz traditio­nellen Value-Faktor-Ansatzes verglichen, der rein auf das Kurs-Buchwert-Verhältnis abstellt. Die Enhanced-Faktorindizes, die nichts anderes als die In-sample-Gewinnerstrategien darstellen, können in den fünf Jahren des Berechnungszeitraums die Kurs-Buchwert-Variante um 1,79 Prozent schlagen. Allerdings bleiben diese Enhanced-­Varianten in den folgenden fünf (Out-of-sample-)Jahren gegenüber Kurs-Buchwert kumulativ um 2,72 Prozent zurück. Diesen Zusammenhang veranschaulicht die Grafik „In-sample top, out-of-sample flop“. Schließlich macht die Performancedifferenz der ­Enhanced-Strategien zwischen der In-sample-Periode und der Out-of-sample-­Periode 4,5 Prozent aus. Ein In-sample-Backtest überschätzt also die tatsächlich zu erwar­tende Live-Performance einer „getunten“ Value-Strategie substanziell. Das Fischen nach der besten Faktordefinition inflationiert also die Backtest-Performance und weckt hohe, unerfüllbare Hoffnungen.

Die Autoren schätzen das Data-Mining- Risiko in der Praxis noch höher ein als in den gezeigten Beispielen. So ist in der Praxis zu beobachten, dass Faktordefinitionen oft Kombinationen mehrerer Variablen sind. Novy-Marx etwa hat 2015 in seinem NBER Working Paper mit dem Titel „Backtesting Strategies based on Multiple Signals“ argumentiert, dass die Verwendung von zusammengesetzten Variablen beim Designen und Testen faktorbasierter Strategien das Data- Mining-Risiko exponentiell erhöht.

Teuflische Portfoliokonstruktion

Ein Beispiel hierfür ist die steigende ­Popularität von Bottom-up-Ansätzen beim Multi-Faktor-Investing. Im Gegensatz zum Top-down-Ansatz, wo Multi-Faktor-Portfolios durch die Zusammenführung von separat durchgeführten Rechnungen für jeden einzelnen Faktor gebildet werden, werden hier in einem einzigen Schritt Aktien aus­gewählt und/oder gewichtet mittels einer Composite-Messgröße eines Multi-Faktor-Exposures. Beide Methoden versuchen, die Prämien im Zusammenhang mit mehreren Faktoren zu ernten, doch treten hier große Differenzen auf. Bottom-up-Ansätze versuchen, das Faktor-Exposure in seiner Gesamtheit zu vergrößern, indem sie auch kleine Unterschiede in den Composite-Exposures berücksichtigen. Dem zugrunde liegt die Überzeugung, dass es eine deterministische Verbindung zwischen Faktor-Exposures und Aktienrenditen gibt. Im Gegensatz dazu setzen Top-down-Ansätze vorrangig auf Portfoliodiversifikation und nicht auf Präzision beim Engineering von Faktor-Exposures. Diesem Ansatz liegt die These zugrunde, dass die erwarteten Renditen auf Einzelaktienebene von starkem Rauschen begleitet sind und der Zusammenhang zwischen Faktor-Exposure und Rendite nur im Allgemeinen gilt. Eine Änderung vom Top-down- zum Bottom-up-Ansatz bei der Portfoliokonstruktion scheint daher im Widerspruch zu einem langfristigen Investmentansatz zu stehen. Die gleichen Researchteams des Indexanbieters MSCI verfolgten ursprünglich einen Top-down-Ansatz als Teil der Lancierung der Quality Mix (QMX) Indizes, doch bei der Auflage der Diversified Multiple-Factor (DMF) Indices wurde in den hauseigenen Research-Publikationen der Bottom-up-Ansatz promotet.

Indexänderungen und Ertrag

Zu den Multi-Faktor-Angeboten von MSCI ist zu sagen, dass vor 2015 der MSCI Quality Mix Index der Flaggschiff-Multi-Faktor-Index des Hauses war. Die Index­serie zielte auf Value, Low Volatility und Quality als Faktoren ab und kombinierte die drei Single-Faktor-Indizes nach Top-down-Art. Das neue Flaggschiffangebot, nämlich die Diversified-Multi-Factor-Index-Serie, beinhaltet die Faktoren Value, Quality, Momentum und Size und wendet einen Optimierungsalgorithmus an, der das durchschnittliche Faktor-Exposure maximiert und damit einen Bottom-up-Ansatz darstellt. Auch die Faktordefinitionen der beiden Indexserien sind verschieden. Die Unterschiede zwischen den beiden Indexfamilien sind also mehrdimensional. Die Indexkonstruktionen bedingen auch Differenzen in Bezug auf das Faktor-Exposure. So weist der MSCI Quality Mix ein hohes Exposure zu den Faktoren Profitabilität und Low Volatility auf, während beim Diversified Multiple-Factor Index die Faktoren Value, Quality und Momentum stärker hervortreten. Das veranschaulicht die Grafik „Unterschiedliche Faktor-Exposures“. Basis der Untersuchung ist ein Sieben-Faktor-Modell, das neben dem Markt die Faktoren Size, Value, Momentum, Low Volatility, Profitabilität und Investitionen beinhaltet.

Neben den Unterschieden im Faktor-Exposure interessiert natürlich die Performancedifferenz.
Im Besonderen könnte man sich fragen, ob zum Zeitpunkt der Lancierung des jüngeren DMF Index dieser wesentlich besser abgeschnitten hat als der ältere QMX Index. Und tatsächlich zeigt sich das gewohnte Bild: Der DMF Index konnte zum Zeitpunkt seiner Auflage einen Backtest vorlegen, der substanziell höhere Renditen als der QMX zeigte. Dabei lag die relative Outperformance des DMF Index gegenüber dem marktkapitalisierungsgewichteten Index bei 2,7 Prozent im Backtest, und zwar für den Zeitabschnitt ab der Auflage des älteren Index. Zu diesem Zeitpunkt stand beim QMX Index eine relative Outperformance von 0,7 Prozent seit Auflage zu Buche. Bezogen auf die Information Ratio fiel diese für den DMX Index mehr als doppelt so hoch aus wie beim QMX Index. Nach der Lancierung des DMF änderte sich das Bild schlagartig (siehe Grafik „Wie ausgewechselt“): DMF konnte die Benchmark seit seiner Auflage 2015 kaum schlagen, während QMX den marktkapitalisierungsgewichteten MSCI World um 1,3 Prozent schlug. QMX konnte auch eine Information Ratio von 0,63 erreichen, während jene des DMX nur einen Wert von 0,01 erreichte.

Performancedifferenz

Die Scientific-Beta-Autoren verstehen die Motivation des Indexanbieters, eine neue Indexserie aufzulegen, die sich deutlich von der älteren unterschiedet, wenn deren Investmentgrundlage offensichtlich nicht zu einer guten Performance führt. Diese neuen Überlegungen gründen sich oft auf Bedenken gegenüber einer In-sample-Performance und halten Out-of-sample-Robustheitstests nicht notwendigerweise stand. ­Indexanbieter verweisen manchmal auch explizit darauf, dass sie Faktorselektion auf der Basis von hochsignifikanten t-Statistik-Daten betreiben.

Andere wiederum geben an, dass während der Suche nach der Definition von Faktoren Anpassungen aufgrund der Untersuchung von Faktorvolatilitäten, t-Statistiken und Information Ratios möglich seien. Solche Statements legen nahe, dass Investoren ganz genau auf Data-Mining-Risiken achten sollten. Zumindest bieten Backtests neuer Indexmethodologien, die besser aussehen als die Live-Performance schon ­bestehender ­Indizes, keinerlei Garantie für eine Verbesserung.

Geduld ist jedenfalls gefragt, um nicht durch Schnellschüsse bei Indexänderungen vom Regen in die Traufe zu kommen. Und Transparenz ist nötig, um überhaupt alte Faktorindizes mit neuen vergleichen sowie die erforderlichen Schlüsse daraus ziehen zu können. Untersuchungen zeigen, dass hier die Indexanbieter noch einiges aufzuholen haben. Um eine „Best Practice“ in der ­Governance der Indexprovider wird man da wohl nicht herumkommen, um Investoren eine Abschätzung der Risiken einer Faktorindexänderung zu ermöglichen.

Dr. Kurt Becker


Anhang:

twitterlinkedInXING
 Schliessen