Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
Ad

Risikomanagement – offensiv die Chancen der Märkte nutzen

Die Experten von Union Investment gehen bewusst kontrollierte Risiken ein. Weil Risikomanagement auch Chancenmanagement bedeutet. Optimieren Sie Ihre Anlageergebnisse!

Anzeige
2/2017 | Theorie & Praxis
twitterlinkedInXING

Smart Beta für jede Witterung

Den Überblick im Faktor-Zoo zu behalten und nur in robuste Smart-Beta-Indizes zu investieren ist nicht einfach, denn die Robustheit sollte nicht nur relativ, sondern auch absolut vorhanden sein.

1497351408_teaserbild3.jpg

Dass eine Smart-Beta-Strategie in einem für sie günstigen Umfeld outperformt, ist ganz nett; wirklich interessant wird es aber erst dann, wenn man Faktoren so kombiniert, dass sie jeder Belastung standhalten.

Seit einigen Jahren wissen wir, dass es systematische Investmentstrategien für Aktien gibt, die marktkapitalisierungsgewichtete Indizes langfristig schlagen können. Und wenn dies wirklich dauerhaft funktionieren sollte, wäre der inzwischen geläufige Name „Smart Beta“ gut gewählt. Typischerweise wird anhand von Backtests versucht nachzuweisen, dass bestimmte Faktoren ­eine Outperformance ermöglicht haben, und davon abgeleitet, dass dies auch in Zukunft so sein wird. Mehrere hundert Faktoren geistern durch die Literatur, aber nur etwas mehr als eine Handvoll wie Low Volatility, Quality, Momentum, ­Value und Size gelten als hinreichend stabil, sodass sie von renommierten Asset Managern wie BlackRock aufgenommen und in Produkte gegossen werden. Und weiterhin sind viele Beobachter bezüglich Smart ­Beta skeptisch. Zu oft wurde man als erfahrener Marktteilnehmer schon enttäuscht. Zu oft stellte sich letztlich heraus, dass ein einmal identifizierter Faktor nicht das brachte, was er und seine Proponenten ursprünglich versprochen hatten.


Feine Trennlinien
Entscheidend ist nämlich die Robustheit eines Smart-Beta-Ansatzes. Das von der EDHEC-Universität gegründete EDHEC-Risk Institute (ERI) und sein auf Smart-Beta-Analysen und -Indizes-Entwicklung spezialisierter Arm, ERI Scientific Research, trifft hier eine sehr feine Unterscheidung zwischen absoluter und relativer Robustheit. Eine Strategie ist per Definition dann „relativ robust“, wenn sie in der Lage ist, eine ähnliche Outperformance unter ähnlichen Marktbedingungen zu liefern, indem sie die Performance des zugrunde liegenden Faktor-Exposures, das sie sucht, mit der Verringerung unerwünschter Risiken, für die man nicht oder nicht ausreichend kompensiert wird, in Einklang bringt. Betrachtet man beispielsweise den Value-Faktor, dann darf ein Investor erwarten, dass ein entsprechender Value-Faktor-Index in für Value günstigen Marktphasen den Market-Cap-­Index schlägt; in Zeiten, die für Value ungünstig sind, wird man dem Markt hingegen hinterherhinken. Der besagte Value-Faktor-Index wird dann als relativ robust gelten, wenn er die Value-Faktor-Performance abbildet und nicht idiosynkratische Verluste aus aktien- und branchenspezifischen oder anderen Gründen einfährt. Somit wird eine Strategie, die eine gute risikoadjustierte Performance bei einem vorgege­benen Faktor-Tilt liefert, als hoch robust in einem relativen Sinn ­gelten.


„Absolute Robustheit“ hingegen besagt, dass es keine Zeit- oder Zustandsabhängigkeiten gibt. Eine Strategie, die unabhängig von den jeweils vorherrschenden Markt­bedingungen outperformt, wird als absolut robust bezeichnet. Absolute Robustheit kann man dadurch erreichen, dass ein Investment über verschiedene Risikofaktoren, für deren Übernahme man eine Prämie erhält, allokiert wird, anstatt sich auf einen einzigen Faktor zu konzentrieren.
Das „Smart Beta 2.0“-Konzept von ERI Scientific Beta besteht darin, Faktorindizes zu entwickeln, die einen entsprechenden Tilt zu dem gewünschten Risikofaktor herstellen, für den auch eine Prämie bezahlt wird (Beta), und andererseits sicherstellen, dass unerwünschte (und nicht bezahlte) Risi­ken durch intelligente, sprich smarte Gewichtungsschemata, die untereinander diversifiziert sind, möglichst eliminiert werden. Darüber hinaus entwickelt man Multi-Faktor-Indizes, die ebenfalls diesen Anforderungen an relative und absolute Robustheit gerecht werden.


Das Fehlen relativer Robustheit von Smart-Beta-Faktoren ist hauptsächlich auf das Data-Mining und die – meist unentdeckte – Anwesenheit von nicht ausreichend oder gar nicht kompensierten Risiken infolge nicht robuster Gewichtungsmethodologien zurückzuführen. Dabei ist das Konzept der relativen Robustheit nicht bloß auf Faktorindizes beschränkt. Ein Gewichtungsschema etwa, das allgemein implizit ein Exposure zu mehr als einem Faktor ­aufweist, wird dann als relativ robust ­bezeichnet, wenn es in der Lage ist, so viel unbezahltes Risiko wie möglich wegzu­diversifizieren. So ist beispielsweise ein ­Minimum-Volatility-Portfolio ohne zusätz­liche Nebenbedingungen wahrscheinlich auf weniger Aktien konzentriert und weist ein Exposure zu defensiven Sektoren auf, wie schon Cahn, Karceski und Lakonishok 1999 aufzeigten. Die Art von Abhängigkeit von bestimmten Sektoren stellt eine Hürde beim Erreichen der relativen Robustheit dar. Dies ist der Grund dafür, dass die meisten kommerziellen Minimum-Volatility-Strategien zusätzliche Bedingungen wie Floors und Caps bei der Aktiengewichtung, Beschränkungen der Sektorengewichte und Dekonzentrationsbestimmungen unterworfen sind.


Risiken des Factor-Fishing
Harvey, Liu und Zhiu haben 2013 insgesamt 314 Faktoren dokumentiert, die eine positive historische Risikoprämie zeigen, wobei das Aufspüren dieser Faktoren ein Resultat des sogenannten Factor-Fishings sein kann. Da alle Researcher mit denselben Daten und nach derselben Methode arbeiten, ist es nicht weiter verwunderlich, wenn sie zu mehr oder weniger identischen Ergebnissen bei den empirischen Faktoren kommen. Für ein Investment infrage kommen aber nur Faktoren, bei denen eine klare ökonomische Erkenntnis dafür vorliegt, dass das Exposure zu diesem Faktor ein sys­tematisches Risiko darstellt, das mit ­einer Prämie abgegolten gehört, und dass es wahrscheinlich ist, dass dieser Faktor auch in Zukunft eine positive Risikoprämie aufweisen wird. Kurz gesagt sind Faktoren ­ohne theoretische Unterfütterung nicht robust, weswegen man von ihnen nicht erwarten darf, dass sie in der Zukunft eine ähnliche Prämie bereitstellen werden.


Verschiedene Arbeiten von Praktikern bedienen sich unterschiedlicher Herangehensweisen, um ein bestimmtes Faktor-Expo­sure abzubilden. Dabei können die praktischen Implementierungen eines Faktor-Exposures beträchtlich von der Definition dieses Faktors in der wissenschaftlichen Literatur abweichen. Wenn es um das Einfangen der Value-Prämie geht, knüpfen einige Anbieter nicht nur an ­reinen Bewertungskennzahlen an, sondern benutzen etwa auch Informationen über das Umsatzwachstum. In letzter Zeit werden auch ­fundamentale Variablen wie Umsätze, Dividenden, Buchwerte und Cashflows als Risi­ko­faktoren von vielen auf fundamentalen Faktoren basierenden Indizes und Fonds ausgewertet, wie dies Robert Arnotts Research Affiliates mit ihrem Fundamental-Indexing-(RAFI)-Konzept macht. Bei ERI Scientific Beta hat man gegenüber dieser Herangehensweise gewichtige Vorbehalte.


Eric Shirbini, Global Product Specialist von ERI Scientific Beta, führt aus: „Marketingtechnisch gesehen hat das Konzept seine Meriten. Die Argumentation reicht von dem Umstand, dass dieser fundamentale Ansatz den ökonomischen Fußabdruck ­einer Gesellschaft besser abbilden solle, was aber nie wirklich getestet wurde, bis zur Möglichkeit, mithilfe von Rebalancing ­Alpha zu produzieren. Dies ist aber noch niemals wirklich demonstriert worden. Dazu kommt das Argument von RAFI, dass ein fundamentaler Index stellvertretend für einen sehr gut performenden Smart-Beta-Value-Faktor Verwendung finden kann. Das ermöglicht es Research Affiliates, wo auch Low-Volatility-Indizes produziert werden, unter den Anbietern von Faktorindex-Investments mitzumischen, die sich bei in­stitutionellen Investoren großer Beliebtheit erfreuen.“


Fünf Long/Short-Portfolios
ERI Scientific Beta geht anders vor. Man stellt hier für den Value-Faktor, so wie es die wissenschaftliche Lehre im breiten Konsens tut, näherungsweise ausschließlich auf das Kurs-Buchwert-Verhältnis (KBV) in dessen inverser Form als Book-to-Market ab. Es gibt ausreichend viel Literatur, um die Effektivität dieses Ansatzes als gegeben anzunehmen. Das EDHEC-Research Institute machte sich vor einiger Zeit daran, zu untersuchen, wie effektiv die fundamentalen Ansätze tatsächlich die Value-Prämie einfangen können. Die Tabelle „Welcher Ansatz fängt Value am effektivsten ein?“ analysiert über den Zeitraum vom 31. 12. 1973 bis zum 31. 12. 2013 und damit über 40 Jahre die Wirksamkeit von mehreren Variablen, die verwendet werden, um die Value-Prämie zu isolieren. Dabei wird der Cashflow nach der Methodik Operating Income (also Betriebsergebnis plus Abschreibungen und Amo­rtisationen) verwendet, wie dies bei den FTSE-RAFI-Fundamental-Indizes geschieht. Der Prozentsatz jedes einzelnen Faktors wird dabei für jede Aktie des 500 Titel umfassenden Universums berechnet und ein Fundamental-Value-Score aus den vier Einzelfaktoren jeder Aktie berechnet. Dann werden die Aktien entsprechend ihrem Gesamtscore beziehungsweise nach den Einzel­scores in fünf Ranglisten für Composite ­respektive Buchwert, Umsatz, Dividenden und Cashflow gereiht. Sodann konstruiert man fünf Long/Short-Portfolios, indem man die Top-30-Prozent im Scoring long und die Flop-30-Prozent short geht, wobei die Gewichtung in beiden Fällen nach der Marktkapitalisierung der selektierten Titel erfolgt. Die Ergebnisse sind niederschmetternd, denn keines der fünf Long/Short-Portfolios – und damit keine der Proxy-Variablen, die FTSE RAFI einsetzt – erwirtschaftete eine signifikante positive Risikoprämie.
 

Ganz im Gegenteil sind die annualisierten Renditen insignifikant negativ. Andererseits sind das Kurs-Buchwert- und das Kurs-Gewinn-Verhältnis sehr wohl in der Lage, nach der ­gleichen Gewichtungsmethodik in einem Long/Short-Ansatz ein positives Alpha mit einer hohen Signifikanz – die p-Werte liegen hier unter einem halben Prozent – zu erwirtschaften. Damit wird klar, warum in der wissenschaftlichen Literatur auf Book-to-Market sowie Earnings-to-Price, das inverse KGV, als Proxy für den Value-Faktor abgestellt wird. Damit wird der Bewertungsrelation der Vorzug vor dem fundamentalen Wert als solchem gegeben.


Reinheitsgebot
„Wer also auf Fundamental Indexing setzt“, so Shirbinis Resümee, „verliert dadurch den Bezug zu den Ergebnissen der akademischen Forschung und endet bei einem Investment in die falschen Risikofaktoren in dem Sinn, dass es keine Garantie gibt, dass das Engagement in diesen Faktoren auch belohnt wird.“ Weiters gelte es zu bedenken, dass Fama und French bereits 1992 den Value-Faktor auf Basis des KBW vorstellten und deren ­Erkenntnisse durch die Out-of-Sample-Resultate der letzten 25 Jahre bestätigt wurden. Diese Out-of-Sample-Stabilität erhöht sowohl bei Wissenschaftlern als auch bei Praktikern das Vertrauen darauf, dass die Value-Prämie nicht einfach nur das ­Ergebnis umfangreicher Data-Mining-Übungen ist. Wer andererseits in Richtung der besten oder einer verbesserten Defini­tion von Value geht, läuft Gefahr, sich auf vielversprechende In-Sample-Ergebnisse zu verlassen, die dann out-of-sample nicht das halten, was sie zuvor versprochen haben. Kommerzielle Backtests werden nur allzu oft über einen relativ kurzen Zeithorizont von vielleicht zehn Jahren durchgeführt. Verschiedene Faktordefinitionen führen zu abweichenden Vergangenheitsperformances, an deren Ende dann instabile Lösungen ­stehen.


10 „Value“-Strategien seziert
Ein Beispiel anhand des Value-Faktors belegt die Falle, in die nur allzu oft beim Data-Mining getappt wird. Um das Timingproblem bei Backtests zu illustrieren, untersuchte ERI Scientific Beta die rollierenden Spreads zwischen den annualisierten Performances von Portfolios, die auf Basis unterschiedlicher Value-Proxies konstruiert werden. Ausgangspunkt ist die Frage, ob es etwas Besseres als Book-to-Market als Value-Proxy gibt. Deshalb nimmt ERI zehn verschiedene Value-Maßstäbe zur Hand, und zwar Earnings-to-Price, Cashflow-to-Price (inverses KCV), Sales-to-Price (inverses KUV), Dividend-to-Price und Payout-to-Price, und zwar jeweils einmal nicht adjus­tiert und das andere Mal sektoradjustiert. Diese Messgrößen dienen als Basis für die Bildung von zehn Portfolios mit Value-Tilt, wovon jedes einmal jährlich nach Market-Cap-Gewichtung aus den Titeln mit einem Value-Score aus der oberen Hälfte des US-Aktien-Universums gebildet wird. Das US-Universum setzt sich aus den Top-500-Unternehmen nach der Marktkapitalisierung zusammen. Die Entwicklung dieser Portfolios über die Zeit sind die Basis der empirischen Analysen von ERI Scientific Beta.


Das Set-up ist dabei folgendes: Jedes Jahr – beginnend 1984 und endend 2013, Daten sind ja seit 1974 vorhanden – wird zehn Jahre zurückgeschaut und die maximale sowie die minimale annualisierte relative Rendite dieser zehn „Value“-Strategien gegenüber dem S&P 500 ermittelt. Somit sind 30 Backtests vorhanden. Natürlich schwanken diese Überschussrenditen über die Zeit, eine nähere Betrachtung ist jedoch der sich verändernde Spread zwischen dem jeweiligen Maximum und Minimum wert. Über die Jahre schwankt dieser Spread der annualisierten Renditen nämlich zwischen etwas über vier Prozent bis ein wenig über einem Prozent per annum. Die Grafik „Schwankende Spreads“ illustriert diese Zusammenhänge. Der deutliche Spread suggeriert, dass beträchtlicher Wert geschaffen werden kann, wenn man an der Selektion der Variablen feilt und diese verbessert. Allerdings ist die Feststellung wichtig, dass die am bes­ten performenden Variablen sich im Zeitablauf ändern. Dies gibt die Tabelle „Verflixter ­Favoritenwechsel“ wieder. Dies illustriert, dass Backtests, die den besten Vergangenheitsperformer unter den Value-Variablen in einem Zeitfenster von lediglich zehn Jahren suchen, sehr instabile Ergeb­nisse liefern, sodass große Vorsicht bei ­Strategien angebracht ist, die auf der Basis von In-Sample-Performance konstruiert sind.


Book-to-Market rules
Ein anderer Test zeigt, was out-of-sample passiert, wenn man Data-­Mining-Lö­sungen verfolgt, die sich auf die besten In-Sample-Strategien verlassen. ERI verwendet dazu jeweils fünfjährige Beobachtungszeitfenster, an deren Ende die jeweils bestperformende Strategie auf der Grundlage ihrer In-Sample-Performance ausgewählt wird. Dann wird diese Strategie weitere fünf Jahre ­gehalten, und deren kumulative ­Renditen werden mit jenen des Portfolios verglichen, das auf die Varia­ble Book-to-Market abstellt. Diese Übung führt ERI für jedes Jahr innerhalb des Zeitraums von 1984 bis 2009 durch, womit man 26 verschiedene Event-Studien erhält, deren durchschnittliche Performance man dann vergleicht. Die Grafik „Hochgejubelt und abgestürzt“ visualisiert das Ergebnis. Was im In-Sample-Backtest als alternative Value-Variable erfolgver­sprechend aussieht und die wissenschaftlich abgesicherte Value-Methodik, die auf Kurs-Buchwert abstellt, zu schlagen scheint, entpuppt sich dann im Live-Betrieb als wahre Performancever­nichtungsstrategie und produziert kumulative relative Renditen im ­negativen Bereich. Die Grafik versinnbildlicht den Fall. Wählt man den Gewinner in Form der besten relativen kumulierten Out­perfor­mance mit 1,79 Prozent gegenüber Book-to-Market in-sample aus, so erwartet den Inves­tor am Ende der darauf­folgenden fünf Jahre eine kumulative relative Underperformance zur Kurs-Buchwert-Strategie von 2,72 Prozent. Damit ist der Nachweis gelungen, dass die ­Suche nach besseren Value-Definitionen in-sample nicht an Kurs-Buchwert als Value-Variable her­anreicht.


Um das Problem des Data-Mining an konkreten Rendite­nach­teilen festzumachen, gestattet man einem Investor, beginnend mit 1984 aus den zehn oben genannten Value-Variablen die am besten performende zu wählen. Danach wird das Portfolio für eine bestimmte Zeit ­gehalten und am Ende wieder evaluiert. Dabei verwendet ERI zwei unterschiedlich lange Zeitfenster (5 und 10 Jahre) für den Backtest sowie vier unterschiedlich lange Halteperioden (Kalibrierung über 2, 3, 4 und 5 Jahre), woraus sich acht aktive Strategien ergeben, um die Variabilität der Performance abbilden zu können. Als Vergleichsmaßstab dient jeweils das von der Literatur favorisierte Book-to-Market (siehe Tabelle „An Book-to-Market führt kein Weg vorbei“). Dabei zeigt sich, dass es keine der acht aktiven Strategien schafft, den von der Wissen­schaft vertretenen Value-Ansatz anhand des Kurs-Buchwert-Verhältnisses zu bezwingen. Im Schnitt liegen diese acht aktiven Strategien um 61 Basispunkte per annum hinter Book-to-Market zurück. Vergleicht man die Resultate aller Strategien, die alternative ­Value-Variablen herauspicken, mit den aus den In-Sample-Backtests zu erwartenden Performances, ergibt sich sogar ein Out-of-Sample-Ergebnis von minus 128 Basispunkten.


Empirische Illusionen
Der Eindruck, es sei möglich, Backtest-Ergebnisse zu verbessern, indem man Variablen auswählt, die in-sample funktionieren, ist offensichtlich falsch. Die starke Verschlechterung der Performance bei Out-of-Sample-Analysen legt die Vermutung nahe, dass solche In-Sample-Ansätze zu einem Risiko übertriebener Backtest-Performance führen. Die ERI-Experten sind der Ansicht, dass die gezeigten schlechten Resultate noch von relativ harmlosen Data-Mining-Experimenten herrühren, die wahrscheinlich den Bias unterschätzen, der aus kreativeren Data-Mining-Prozessen resultieren kann. Hier wurde insbesondere eine relativ kleine Zahl an Variablen eingesetzt, die volkswirtschaftlich sensible Proxies für Value dar­stellen und durch ihre Konstruktion zueinander hoch korreliert sind. Die Biases aus dem Data-Mining könnten noch viel höher ausfallen, wenn man eine deutlich größere Anzahl von Variablen heranzieht oder wenn man Variablen auswählt, die eine geringere Sensitivität zur Ökonomie aufweisen oder schlussendlich zueinander nicht korrelierte Variablen auswählt. Wichtig sei es auch zu berücksichtigen, so die Experten vom EDHEC-Risk Institute, dass Scoring-Ansätze, die auf Composites abstellen, ein höheres ­Risiko von Data-Snooping und Backtests mit Biases aufweisen als Strategien, die sich nur auf eine einzige Variable beziehen.


Model-Mining
Neben dem Risiko des Factor-Fishings oder Data-Snoopings gibt es noch das Risiko, nach dem „richtigen“ Modell zu suchen. Das sogenannte Model-Mining-Risiko ist das Risiko, eine Methodik zur Indexkonstruktion auszuwählen, die in einem guten Track Record im Back­testing mündet. Dies belegt ERI anhand mehrere fundamental gewichteter Indizes verschiedener Provider. Die Tabelle „Licht ins Wirrwarr“ vergleicht unterschiedliche ­Indexkonstruktionen auf Basis der Gewichtung von Fundamentals. Als Grundlage wird hier auf verschiedene fundamentale Faktoren wie Profitabilität, ­Umsatz oder Gewinn abgestellt, um damit die Value-Prämie einzufangen. Einige Indexprovider wählen zudem ­geglättete Parameter, um zu große Änderungen beim Rebalancing zu vermeiden. Unterschiede gibt es ebenfalls bei der Rebalancing-Frequenz und bei Leverage-Anpas­sungen.


Noël Amenc, Felix Goltz und ­Véronique Le Sourd zeigten schon 2008 in „The Perform­ance of Characteristics-based Indices“, dass die Outperformance verschiedener komplexer Definitionen fundamental gewichteter Indizes in Bezug auf den S&P 500 Index meist nicht statistisch signifikant ist. Die Autoren wiesen nach, dass 13 von 14 am Markt erhältlichen fundamentalen ­Indizes keine ausreichende statistische Wahrscheinlichkeit einer Outperformance (Konfidenz 95 Prozent) gegenüber dem marktkapitalisierungsgewichteten S&P 500 Index im Zeitraum vom 1. 1. 1998 bis zum 31. 12. 2006 aufwiesen. Gleichzeitig konnte das Autorentrio belegen, dass ein kapitalisierungsgewichteter Index mit einem Value-Tilt, der die Top-50-Prozent des S&P 500, gemessen an Book-to-Market, beinhaltet und diese gemäß der Market Cap gewichtet, mit einer Wahrscheinlichkeit von mehr als 95 Prozent – und damit statistisch signifikant – den S&P 500 Index um 7,84 Prozent im selben Zeitraum hinter sich lässt. Trotzdem scheint dieses Wissen noch nicht in die Tiefen der Asset-Management-Praxis durchgesickert sein. Anders ist nicht zu erklären, dass noch immer komplexe Modelle und proprietäre Faktordefinitionen bestehen beziehungsweise neu geschaffen werden, die die Investoren einem Model-Mining-­Risiko aussetzen und damit die Robustheit dieser Strategien behindern.


Robustheit sieht anders aus
Die Auswirkung verschiedener Ingredienzien beim Zusammenbau von Indizes, die auf fundamentalen Faktoren beruhen, sind tatsächlich beträchtlich. Die maximal mögliche Renditedifferenz je Kalenderjahr verschiedener Value-Faktor-Ansätze belegt, wie wichtig die Auswahl der Bestandteile der Indexmethodologie ist. Allein wenn man sich auf zwei Unterschiede konzentriert – einmal die Auswahl der Faktor-Variablen und das andere Mal auf die Anpassung des Leverage –, zeigt sich, wie sensitiv eine Indexstrategie in Bezug auf die getroffene Wahl bestimmter Spezifikationen ist. Zwei unterschiedliche Varianten der gleichen Strategie können auf Performance­unterschiede von neun Prozent im Jahr ­hinauslaufen, was alles andere als einen ­robusten Ansatz bedeutet.


Analysiert wird das Zeitfenster von 1982 bis Ende 2010, das Universum bildeten die Top-1.000-US-Aktien, gemessen an der Marktkapitalisierung. Hier sticht zum einen das Jahr 1999 hervor, ein schlechtes für ­Value wie auch 2008. 1999 ist jenes Jahr, in dem sich die bestperformende Strategie auf eine Gewichtung entsprechend den Unternehmensgewinnen bezieht. Diese rentiert mit minus 12,2 Prozent. Ihr gegenüber steht am Ende des Spektrums jene, die Value anhand der Gewichtungen nach den Dividenden einfangen will. Sie muss das Jahr 1999 mit ­einem Minus von 23 Prozent abschließen, sodass die Performancedifferenz hier im Extremfall 10,8 Prozent ausmacht. Ungefähr gleich schlimm sieht das Bild eines Kalenderjahrvergleichs aus, wenn man im Indexaufbau an die Bereinigung verschiedener Leverages unterschiedlich herangeht. Am besten schneidet hier 2008 die Anpassung anhand des ­Gesamt-Leverage der Unternehmen ab (Performance plus 5,3 Prozent), während eine andere Indexbauweise, deren Anpassungen beim operativen Leverage anknüpfen, 2009 ein Minus von vier Prozent einfährt. Da­raus ­errechnet sich ein Performanceunterschied von 9,3 Prozent. Vom Standpunkt der Beurteilung der relativen Robustheit aus ist festzuhalten, dass schon zwei auf den ersten Blick nicht wesentlich divergierende Varianten des ­Value-Faktors so unterschiedliche Ergebnisse zeitigen.


Fehlende Robustheit
Alle Smart-Beta-Strategien sind systematischen Risikofaktoren, aber auch strategiespezifischen Risiken ausgesetzt. Letztere sind Ausfluss der mangelnden Robustheit der Gewichtungsschemata. Spezifische Risi­ken entsprechen all jenen Risiken, die langfristig nicht durch eine entsprechende Prämie abgegolten werden. Sie sind somit nicht das, was sich Investoren wünschen können. Dabei existieren viele verschiedene spezifische Risiken. Zuerst einmal sind im Einklang mit der Portfoliotheorie spezifische finanzielle Risiken vorhanden, die als idiosyn­kratische Risiken einzelner Aktien bezeichnet werden. Dann gibt es spezielle finanzielle Risikofaktoren, für deren Übernahme man nicht entschädigt wird. Die ­akademische Literatur nennt hier Rohstoffe, Währungen und Sektorrisiken, die auf lange Sicht über keine positive Risikoprämie ­verfügen. Diese Risiken können einen ­starken Einfluss auf die Volatilität, den ­Tracking ­Error und den Maximum Drawdown in ­bestimmten Zeitfens­tern ausüben und manchmal sogar größer sein als jene Risikofaktoren, die systematisch honoriert werden.
ERI Scientific Beta ist überzeugt davon, dass ein wirkungsvoll diversifiziertes Gewichtungsschema die Menge an nicht kompensierten Risiken verringert.


Allerdings ist dieses – wie jedes Modell – nicht perfekt und kann zu nicht zu vernachlässigbaren Rest-Exposures von bestimmten nicht kompensierten Risiken führen. So sind etwa Minimum-Volatility-Portfolios, die als robus­te Annäherung an effiziente Portfolios gelten und daher gut diversifiziert sind, oftmals starken Sektor-Biases ausgesetzt. Typischerweise haben Minimum-Volatility-Strategien ein weit höheres Exposure zu Versorgern, nämlich eine um 7,2 Prozent höhere Gewichtung, während sie gleichzeitig eine deutliche relative Untergewichtung von 10,1 Prozent in Technologietiteln gegenüber dem marktkapitalisierungsgewichteten Portfolio aufweisen. Bei der auf die Maximierung der Sharpe Ratio ausgerichteten Strategie ist hingegen eine vierprozentige Übergewichtung bei zyklischen Konsumtiteln gegenüber dem Market-Cap-Ansatz zu beobachten, die zulasten der Technologie (relative Untergewichtung: 6,1 Prozent) geht. Das Maximum-Deconcentration-Gewichtungsschema wiederum gewichtet zyklischen Konsumtitel, Financials und Roh- und Grundstofftitel über, aber Technologie und nichtzyklischen Konsum sowie Telekommunikation unter.


Modellspezifische Risiken
Auch sie sind eine Form unentgeltlich eingekaufter Risiken und sind spezifisch für die Implementierung des Diversifika­tionsmodells. Gemäß der Modernen Port­foliotheorie (MPT) sollte der Investor risikobehaftete Assets optimal kombinieren, um die höchstmögliche Sharpe Ratio zu ­erhalten. Doch es gibt ja bekanntermaßen Schätzrisiken für die einzelnen Parameter, speziell für die erwarteten Erträge und die Kovarianzen. In der Praxis können die Kos­ten der Schätzfehler den ganzen Nutzen der optimalen Portfoliodiversifikation auffressen. Die Arbeit „A Generalized Approach to Portfolio Optimization“ von de Miguel, Garlappi und Uppal von 2009 liefert Hinweise darauf, dass naiv diversifizierte Portfolios eine ­höhere Out-of-Sample-Sharpe-Ratio ausweisen als wissenschaftlich diversifizierte Portfolios. Auch könnte ein Investor besser damit fahren, in ein globales Minimum-­Variance-Portfolio (GMV) oder ein Equal-Risk-Contribu­tion(ERC)-Portfolio zu inves­tieren, da hier nur die Schätzer für die Kovarianz-Parameter nötig sind, während beim Maximum-Sharpe-Ratio(MSR)-Portfolio noch zusätzlich Schätzer für die erwarteten Erträge vonnöten sind. Letztere sind mehr Noise ausgesetzt, wie schon Robert Merton 1980 in seinem Beitrag unter dem Titel „On Estimating the Expected Return on the Market: An Exploratory Investigation“ für das „Journal of Financial Economics“ festgestellt hat.


Modellrisiko wegdiversifiziert
Um den Model-Mining-Risiken und damit dem Risiko, eine Indexkonstruktions-methodologie zu wählen, die aus einem guten Backtest resultiert, zu entkommen und die relative Robustheit zu steigern, sieht die Scientific-Beta-Index-Methodologie von ERI vor, die Gewichtungsfrage für jeden einzelnen Faktor oder auch für den Multi-Faktor-Ansatz dadurch zu lösen, dass die fünf Gewichtungsschemata Maximum Deconcentration, Diversified Risk Weighted, Maximum Decorrelation, Efficient Minimum Volatility und Efficient Maximum Sharpe Ratio gleichgewichtet im sogenannten Diversified-Multi-Strategy-Ansatz zum Zug kommen. Die einzelnen Gewichtungsansätze sind im Kasten „Smart Beta 2.0. Gewichtungsschemata“ erklärt.


Die Tabelle „Relative Robustheit von Faktor-Tilt-Strategien“ zeigt anhand des Value-Faktors verschiedene Strategien, die Aktien mit dem höchsten Faktor-Exposure auswählen und diese so selektierten Aktien entweder gemäß deren Marktkapitalisierung oder gleich gewichten. Die Ergebnisse bezie­hen sich auf den Zeitraum von 21. 12. 2012 bis 31. 3. 2016, also auf jene Periode, in der die Scientific-Beta-Indizes live geschaltet sind und damit Out-of-Sample-Resultate liefern. Dabei zeigt sich, dass der SciBeta Developed Value Diversified Multi-Strategy Index mit einer annualisierten Überschussrendite zum marktkapitalisierungsgewichteten MSCI World von 0,67 Prozent, einem Tracking Error von 2,05 Prozent und dadurch einer Sharpe Ratio von 0,33 allen anderen überlegen ist. Wie wichtig die Wegdiversifikation des Modellrisikos ist, erkennt man daran, dass unter den schwächeren Indexkonstruktionen auch zwei SciBeta-Indizes sind, nämlich der SciBeta Developed Value Cap-Weighted und der SciBeta Developed Value Maximum Deconcentration (Gleichgewichtungs-)Index. Man sieht daran, dass in beiden Fällen trotz des Abstellens auf das Kurs-Buchwert-Verhältnis bei der Aktienauswahl eine Gewichtung nach Market Cap respektive eine Gleichgewichtung zu einer negativen Überschussrendite und einem relativ hohen maxi­malen relativen Drawdown führt. Das Mittel aus den fünf verschiedenen Gewichtungsschemata dreht die Überschussrendite in positives Terrain. Die Qualität dieses di­ver­sifizierten Multi-Strategie-Ansatzes wird auch dadurch deutlich, dass der maximale relative Drawdown mit nur 2,62 Prozent wesentlich geringer ausfällt als bei den fünf anderen Vergleichsindizes.


Absolute Robustheit verbessert
Bemerkenswert ist ebenso, dass in dem schlechten Valuezeitraum von Ende 2012 bis Ende März 2016 – der MSCI World ­Value Index blieb 143 Basispunkte auf annualisierter Basis hinter dem MSCI World zurück, und der MSCI Growth war sogar 282 Basispunkte vor Value (siehe Grafik „Keine gute Zeit für Value“) – der SciBeta Developed Value Diversified Multi-Strategy Index durch seine robuste Bauweise sogar 67 Basispunkte pro Jahr vor dem MSCI World einlief und damit in Growth-Zeiten eine Outperformance zum Market-Cap-Index bewerkstelligte.


So viel zur relativen Robustheit, die also durch die gleichgewichtete Kombination fünf verschiedener Gewichtungsarten durch ERI Scientific Beta erhört wird. Aber auch für die Erhöhung der absoluten Robustheit hat man bei ERI SciBeta ein probates Mittel zur Hand. Felix Goltz dazu: „Wir können zeigen, dass sich die absolute Robustheit verbessert, wenn man bei Smart Beta 2.0 ­eine Konzentration auf einen einzigen Faktor vermeidet und sich stattdessen breiter aufstellt. Die Unterschiede in der Zyklizität auch der stabilen, wissenschaftlich nachgewiesenen Faktoren führt zu einer Glättung der Outperformance über Bull- und Bear-Market-Phasen hinaus.“


Sechs Faktoren besser als vier
Neben den allseits bekannten und bewährten, da wissenschaftlich gut abgesicherten Faktoren Size, Value, Momentum und Low Volatility hat man bei EDHEC in den letzten Jahren intensiv am Faktor ­„Quality“ geforscht und 2014/15 den Faktorkranz von vier um zwei neue robuste Faktoren, die für die Aktienqualität stehen, ergänzt. Die beiden Neuzugänge sind „High Profitability“ und „Low Investment“ (siehe Kasten „Zwei neue Faktoren im Detail“). Alle sechs gleichgewichtet finden sich im „Six Factor Multi-Beta Multi-Strategy Equal Weighted Index“ wieder. Nicht zu vergessen, ist ja in jedem der sechs Teilindizes, die sich einem einzelnen Faktor widmen, das für die relative Robustheit sorgende gleichberechtigte Gewichtungsschema der fünf unterschiedlichen Gewich­tungs­ansätze implementiert. Die Aktienauswahl geschieht bei jedem der sechs Teilindizes nach dem Scoring-Modell, wobei ­jeweils in die obere Hälfte der Titel gemäß deren Scoring-Werten inves­tiert wird.


Die Tabelle „Sechs-Faktor-Index im Bull- und Bear-Market-Szenario“ zeigt die relativen Risiko- und Ertragskennzahlen der sechs einzelnen Faktor-Indizes sowie des gleichgewichteten Sechs-Faktor-Index, bezogen auf den SciBeta Capital Weighted (CW) 500 Index, der sich aus den Top-500-US-Aktien, gewichtet nach der Marktkapitalisierung, zusammensetzt. Dabei wird sichtbar, dass im Bullenmarkt-Szenario (Quartale mit positiver Performance des SciBeta CW 500 Index) genauso wie im Bärenmarkt-Szenario (Quartale mit negativer Performance des SciBeta CW 500 Index) der Sechs-Faktor-Ansatz zu einer Glättung der Outperfor­mance unabhängig vom Kapitalmarktumfeld beiträgt. Gerade im negativen Umfeld, wo die Outperformance stark gebraucht wird, zeigt der Test des Zeitraums von Anfang 1973 bis Ende 2015 einen annualisierten Mehrertrag von im Schnitt 454 Basispunkten pro Jahr, verbunden mit einem ­relativen Risiko (Tracking Error) von 6,23 Prozent. Das entspricht einer Information Ratio von 0,73. Der maximale relative Drawdown beläuft sich auf 10,41 Prozent. Im Bullenmarkt-Szenario liegt die ­Information Ratio zwar etwas niedriger, aber immer noch bei stattlichen 0,64.


Licht ins Dunkel
Der Scientific-Beta-Ansatz des EDHEC-Risk Institute bringt lang ersehntes Licht in den Faktor-Zoo, der mehrere hundert nicht ­robuste Faktoren umfasst und bei Investoren für ein böses Erwachen sorgt. ERI SciBeta setzt ausschließlich auf die wissenschaftlich gut abgesicherten Faktoren Value, Momentum, Size, Low ­Volatility und den etwas jüngeren Quality-Faktor, der durch High Profitability und Low Investment repräsentiert wird. Zur Erhöhung der relativen Robustheit gilt es unbedingt, wie ERI nachweist, Factor-Fi­shing, den Over-Fitting-Bias und das Model-Mining zu verhindern. Schließlich soll die Übernahme bestimmter Risiken, die nicht vergütet werden, möglichst hintangehalten werden. Auch das Gewichtungsschema spielt eine entscheidende Rolle, will man die relative Robustheit steigern. ERI SciBeta gewichtet hier fünf verschiedene Gewichtungsschemata gleich. Diese Vorgangsweise sorgt für eine Diversifikation nicht honorierter Risiken und beinhaltet robuste Schätzer der Risikoparameter. Gemessen wird die ­relative Robustheit mit Kenngrößen für das Extrem­risiko, zusätzlich werden ein maximaler ­relativer Drawdown errechnet und ­eine Faktor-Attributionsrechnung angestellt.


Was die absolute Robustheit anbelangt, achten die Kapitalmarktforscher darauf, möglichst lange Track Records zu verwenden, um die Robustheit der Performance dieser Strategien in unterschiedlichen Markt­phasen abschätzen zu können. Die Persis­tenz der relativen Performance gegenüber einem marktkapitalisierungsgewichteten Index über möglichst lange Zeiträume stellt dann den ultimativen Test für Robustheit dar.


Absolute Robustheit wird durch eine Multi-Faktor-Allokation bewerkstelligt, indem die sechs (früher vier) in der ­Literatur anerkannten Faktoren gleichgewichtet in einen Index gemäß dem vorgestellten Gewichtungsschema zusammengeführt werden. Für die Indus­triestaaten auf globaler Basis ist das dann der – sich noch auf vier Faktoren beziehende – Scientific Beta Developed Multi-Beta-Multi-Strategy Equal-Weigh­t Index (kurz: SciBeta Deve­loped MBMS EW), der seit 20. 12. 2013 live läuft und im Verlauf bis 31. 3. 2016 das hielt, was der lange US-Track-Record im Zeitraum von 1971 bis Ende 2015 versprochen hatte (siehe Grafik „Robustheit bestätigt“). So konnte der SciBeta Developed MBMS EW als relative Rendite 347 Basispunkte pro Jahr im Schnitt mehr als ein entsprechender Cap-Weighted-Index verdienen – bei einer gleichzeitig um gut acht Prozent verringerten Volatilität. Die Sharpe Ratio des SciBeta Developed MBMS EW lag mit 0,60 weit vor jener des Market-Cap-Index (0,25).

Nachdem diese relative Performance mit einem relativen Risiko (Tracking Error) von 2,02 Prozent einhergeht, konnte diese Vier-Faktor-Strategie eine exorbitant gute Information Ratio von 1,71 erreichen. Damit übertrifft sie die auf 45 Jahren US-Track-Record basierenden Testergebnisse. Diese hatten einen annualisierten relativen Return von 335 Basispunkten, eine um 10,49 Prozent verringerte Volatilität und einen Tracking Error von 5,05 Prozent erwarten lassen, woraus eine Information Ratio von 0,67 resultiert. Nicht zu vergessen ist, dass bei allen von ERI investierbar gemachten Faktoren ökonomische Grundlagen ausschlaggebend sind. Der wissenschaftsaffine ERI-Scientific-Beta-Ansatz, bei dem Diversifikation das A und O ist, hat Investoren weltweit überzeugt. Augenmerk wird auch auf den Portfolioumschlag als Kostenfaktor gelegt, der nicht mehr als 25 bis 30 Prozent pro Jahr ausmachen sollte.


Die Assets sind in den letzten beiden Jahren deutlich gestiegen. Mittlerweile werden bereits zehn Milliarden US-Dollar Assets under Management nach dem Indexkonzept der Franzosen gemanagt, etwa ­eine Milliarde davon befindet sich in ETFs. 60 Prozent der Assets stammen dabei von US-Investoren. Insgesamt neun Milliarden werden von Asset Managern wie BlackRock und SocGen für Klienten sowie von institutionellen Investoren nach den Indexvorgaben von ERI SciBeta verwaltet, wobei die Klienten vollkommene Transparenz bei der Indexzusammensetzung bekommen. Für eine Fee von sechs Basispunkten der Assets under Management ist man dabei. Überhaupt zeigt man sich bei ERI flexibel, was die Gebührenausgestaltung anbelangt. Eric Shirbini führt aus: „Denkbar sind auch Gebührenkonzepte, die vorsehen, dass wir nur an der Outperformance gegenüber einem markt­kapitalisierungsgewichteten Index partizipieren. So ist etwa als Variante ohne Basis-Fee ein Profit-Sharing in Form einer Outperformance Fee von 20 Prozent mit High Water Mark möglich, wobei wir mit den Kunden dann einen Cap, beispielsweise bei 25 Basispunkten, vereinbaren.“ Die Tabelle „Investments in ERI-SciBeta-Indizes“ benennt konkrete Investitionsmöglichkeiten, wobei allerdings der ETF auf US-Aktien performancemäßig hinter dem kapitali­sierungsgewichteten Index hinterherläuft. Betrachtet man den dort nachgebildeten SciBeta US Multi-Beta Multi-Strategy Equal-Weight Index, dann fällt auf, dass dieser in den zwölf Monaten per 31. 3. 2017 underperformte. Dies lag zum größten Teil am Momentum-Crash 2016 und schwachen Mid Caps, während Value lieferte. Überhaupt leiden Faktorstrategien, die auf Diversifikation setzen, in einem starken Bullenmarkt mit hoher Konzentration. Daher blieb auch die Outperformance bei den beiden globalen ETFs hinter Plan zurück.


Erweiterungsmöglichkeiten
Beim EDHEC-Risk Institute arbeitet man bereits an der Implementierung ­eines Low-Carbon-Filters, um dem Wunsch institutioneller In­ves­toren nach nachhaltigen Lösungen zu entsprechen. Dazu kommt ein angedachter Roll-out der Strategie auf Emerging Markets. Zuletzt war das Umfeld für Smart-Beta-Strategien zwar ungünstig, trotzdem können sich die Live-Ergebnisse sehen lassen. Auf jeden Fall lohnt es sich für wis­senschaftsaffine Investoren, die weiteren Entwicklungen im Auge zu behalten. Am 22. Juni 2017 besteht in München beim EDHEC-Risk Smart Beta Day Germany 2017 Gelegenheit dazu.


Anhang:

twitterlinkedInXING
 Schliessen