Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
4/2019 | Theorie & Praxis
twitterlinkedInXING

Die Mutter der Faktoren

Auf Basis der Erkenntnisse von Benoît Mandelbrot beschreiben Dr. Wilhelm Berghorn, Dr. Sascha Otto und Prof. Dr. Martin Schulz die Kapitalmärkte und Faktoren als trendbasierte, instationäre, fraktale Prozesse.

1574420167_mandelbrot.jpg

Benoît Mandelbrots Verdienst bestand in der Erkenntnis, dass die klassische Theorie nicht korrekt sein könne, weil Märkte „wilder“ sind, als die Normalverteilungsannahmen vermuten ließen.

© Tarantola Kathy, Mikhail Leonov | stock.adobe.co

Es kann nur drei Möglichkeiten geben: Entweder sind Märkte effizient, nicht effizient oder manchmal effizient. In der ers­ten Variante kann man sich viel Arbeit sparen und einfach passiv anlegen. Sind sie nicht effizient, ist es sinnvoll, die Ineffizienzen aufzuspüren, um Überrenditen zu erzielen – die Welt der Faktorinvestments lebt von dieser Idee. Schwierig wird es, wenn Märkte nur phasenweise effizient sind: Dann müsste man ein Instrument entwickeln, das anzeigt, in welcher Phase man sich gerade befindet. Grundsätzlich ist die Frage nach der Effizienz von Märkten also eine grundlegende, und aus diesem Grund bemühen sich Finanzmarktforscher und Praktiker um eine finale Antwort darauf.

Experiment

Zu den aktuellsten und dabei auch interessantesten Ergebnissen gelangte Wilhelm Berghorn, Gründer und Geschäftsführer von Mandelbrot Asset Management, mit seinen Co-Autoren Sascha Otto von der Sparkasse Bremen und Martin Schulz, Professor an der Technischen Hochschule Aschaffenburg, in einem komplexen Experiment. Ausgehend von einem Universum aus Titeln des S&P 500 und des Stoxx 600 Index bildeten sie ein Zielportfolio bestehend aus 30 Aktien.

Davon ausgehend bildeten sie diverse mathematische Faktoren, die sich rein auf die Performance dieser Aktien bezogen. Auf der ersten Stufe steht die monatliche Sortierung aller Aktien dieses Universums anhand ihrer Einmonatsperformance, wobei schließlich in die besten 30 daraus investiert wird. Hierbei sind alle Titel gleichgewichtet. Auch Kosten von 0,1 Prozent pro Monat auf das Handelsvolumen wurden berücksichtigt. Daraus ergab sich ein erster Faktor mit der Charakteristik „Einmonatsperformance“. In einem zweiten Schritt erzeugte das Team insgesamt 72 Faktorsysteme, in dem die Performancemessung für die Einzelaktien zur Sortierung von einem auf bis zu 72 Monate ausgeweitet wird. Analog wurde hier monatlich in die ers­ten 30 Aktien investiert. In einem weiteren Schritt multiplizieren die Autoren die Performancemessungen der 72 bestehenden Faktorsysteme noch mit minus eins. Damit ergeben sich somit 72 weitere Faktorsysteme, die die Aktien hinsichtlich der negativen Performance sortieren und hieraus die „bes­ten“ 30 Aktien – also die größten Verlierer – monatlich in das Portfolio holen. Berghorn und Co. sprechen hier von negativen „Skalen“. Im nächsten Schritt lassen sie dann alle Zweierkombinationen dieser insgesamt 144 Faktorstrategien zu, woraus sich schließlich 20.880 kombinierte Faktorstrategien ergeben. Pro Faktor werden hierzu die zwei Performancemessungen der einzelnen Zeiträume via z-Scoring kombiniert. Im letzten Schritt werden die 20.880 Faktoren Monat für Monat beobachtet. Der beste Faktor aus dem vergangenen Monat wurde dann als Investitionsfaktor für den zukünftigen Monat herangezogen. Wenn man diese Prozedur von 2004 an bis Ende 2018 in einer Simulationsrechnung monatlich wiederholt und die Outperformance der Strategie kumuliert darstellt, erhält man den Chart „Generisches Momentum über 30 Assets“.

Wie kann es dazu kommen?

Die auf diese Weise berechnete Outperformance dürfte es in effizienten Märkten eigentlich nicht geben. Hier kommt Benoît Mandelbrot ins Spiel, der berechtigte Zweifel an der Theorie effizienter Märkte äußerte. Der berühmte Mathematiker hatte immer wieder die seiner Ansicht nach zu stark vereinfachenden Annahmen der klassischen Theorie kritisiert. Man denke nur an die Normalverteilungsannahme, Volatilität als Risikomaß, die Anbetung des Value-at-Risk-Konzepts, das nichts über die Höhe der zu erwartenden Extremverluste aussagt, die These, dass alle Marktteilnehmer rational agieren und alle Information in den Kursen verarbeitet sein würden und dass diese Kurse einem Zufallspfad (Random Walk) folgten und unabhängig von ihrer Vergangenheit wären.

Klassik in Erklärungsnot

Mit selbstähnlichen Zeitreihen und Kursen, die offensichtlich ein „Gedächtnis“ besitzen – denn sonst wären das nachweislich vorhandene Momentum und auch der Low-Volatility-Effekt nicht erklärbar – haben die Anhänger der Effizienzmarkttheorie (EMT) ihre liebe Not. Mathematiker Berghorn ­dazu: „Bereits Eugene Fama musste zugeben, dass der breit nachgewiesene Momen­tum-Effekt sehr schwierig in die Theorie der effizienten Märkte einzubetten ist.“ Yale-Professor Mandelbrots – er war übrigens Doktorvater von Eugene Fama – Verdienst bestand in der Erkenntnis, dass die klassische Theorie nicht korrekt sein könne, weil Märkte „wilder“ sind, als die Normalverteilungsannahmen es vermuten ließen. Zudem seien die Aktienpreise nicht unabhängig von ihrer Vergangenheit, hätten somit eine Art „Gedächtnis“. Mandelbrot spricht hier von „gebrochenen Brown’­schen Bewegungen“, die er 1968 als Modell vorschlug und die neben der Drift und der ­Volatilität durch den sogenannten Hurst-­Exponenten charakterisiert werden. Durch diesen Parameter sind Trending- (Hurst-Exponent > 0,5) und ­Mean-Reversion-Effekte (Hurst-Exponent < 0,5) möglich. Nur an der Grenzlinie Hurst-Exponent = 0,5 sind die zukünftigen Renditen unabhängig von der Vergangenheit. Berghorn und seine Kollegen haben das ­historisch simuliert, um zu klären, welche Effekte im Markt wirklich dominieren. Das Ergebnis lautet: „Trending.“ Berghorn kann dies auch anhand ­einer Visualisierung do­kumentieren (www. you­tube.com/watch? v=Ah_ASRUAcw0).

Am Ende seiner Laufbahn bezog Mandelbrot nochmals zu seinen Arbeiten Stellung und formulierte einen fraktalen Konstruktionsprozess über Trends. Dabei folgt er dem bei fraktalen Prozessen üblichen Konstruktionsprinzip der Iteration. Ein grober initialer Trend wird in drei weitere kleinere Trends unterteilt. Auf diese dann neu definierte Untertrends wird die Zerlegungsvorschrift weiter angewendet. Das Ganze kann man wieder auf den neu gefundenen noch kleineren Trend anwenden und auch unendlich oft wiederholen. Berghorn: „Diese von Mandelbrot skizzierte Konstruktion ist selbstähnlich, hat aber auch eine gebrochene Dimension. Damit erfüllt ein Preischart rein formal die Definition eines Fraktals.“ Von einer gebrochenen Dimension spricht man deswegen, weil dieses Auf und Ab im Chart weder eine glatte Linie (mit Dimension 1) noch eine Fläche (mit Dimension 2) ist – es ist etwas dazwischen.

In ihrer neuesten Arbeit beschäftigen sich Berghorn, Otto und Schulz mit der Frage, ob sich eine trendbasierte Parametrisierung (Wavelet-Skala) finden lässt, die einen klassischen Investmentfaktor möglichst gut beschreibt. Zu diesem Zweck untersuchten sie nicht nur zwei Momentum-Strategien, sondern auch die in institutionellen Kreisen sehr geschätzte Low-Volatility-Strategie ­sowie drei alternative Value-Strategien. ­Gelänge dies, würde damit bestätigt sein, dass Faktorinvestments nichts anderes sind als Trendinvestments.

Bei jeder Aktie wird anhand der Wavelet-Zerlegung zu einer vorgegebenen Wavelet-Skala der letzte sichtbare Trend gemessen, sodann werden alle Aktien des Basismarktes anhand der Steigung (Trend Drift) dieses letzten Trends sortiert und danach wird – wie in der Finanzmathematik üblich – in das erste Dezil dieser Aktien für den Folgemonat ­investiert, danach wird dieses Prozedere monatlich wiederholt.

Für das erste Experiment bildeten Berghorn und seine Mitstreiter eine klassische Zwölfmonats-Momentum-Strategie anhand des ersten Dezils aus den insgesamt 1.100 Titeln, die im S&P 500 und im Stoxx 600 Europe zusammen enthalten sind. Diese 110 ausgewählten und gleichgewichteten Aktien werden monatlich neu selektiert. Durch Simulationen lässt sich jene Trend-Drift-Strategie finden, die diesen High-Momentum-Dezil-Index am besten repliziert, und das ist hier die Trend Drift 41. Wählt man eine Sechsmonats-Momentum-Strategie, ist es hingegen die Trend Drift 23, die den Index am besten nachbildet.

Die Low-Vol-Strategie, die auf das Dezil der 1.100 Titel mit der niedrigsten Volatilität eines rollierenden 36-Monats-Zeitfensters abstellt und damit wieder 110 Werte umfasst, lässt sich fast perfekt mit dem Trend inverse Volatilität 89 nachbauen. Schwie­riger wird dieses Vorhaben bei den drei ­Value-Strategien. Die erste ist jener Ansatz, der in das erste Dezil der Aktien mit dem niedrigsten Kurs-EBITDA-Verhältnis inve­s­tiert. Hier erfolgt der beste Nachbau durch eine Kombination der Trend Drift 58 mit der Trend Drift minus 128 und der Trend Drift minus 39. Dann folgt die High-Dividend-Dezil-Strategie über beide Indizes. Hier ist die Kombination aus Trend Drift 10 und minus 10 zielführend. Stellt man auf das Kurs-Buchwert-Verhältnis (KBV) als Value-Faktor ab und zieht das Dezil bestehend aus den 110 Titeln mit dem niedrigs­­ten KBV heran, so lässt sich dieses am bes­ten aus der Kombination von Trend Drift minus 93 und Trend Drift minus 97 nachbauen. Bei der abschließenden Replikation des Size-Effekts, der durch die Gleich­gewichtung der Indextitel hergestellt wird, erweist sich die Kombination aus Trend Drift 127 und Trend Drift minus 110 als ­geeignet, um den Gleichgewichtungsindex bestmöglich nachzubilden.

Die Tabelle „Ergebnisse der Faktornachbildung“ zeigt einen Überblick über die ­unterschiedlichen Faktorstrategien und deren Trendzerlegungen mithilfe von Wavelets. Die Güte der Nachbildungen ist an den Werten von Beta (knapp unter eins), Alpha (fast null) und dem Bestimmtheitsmaß R² abzulesen, wo Werte von meist größer 90 Prozent signalisieren, dass die jeweilige Faktorperformance zum allergrößten Teil durch die jeweilige Wavelet-Zerlegung erklärt werden kann.

Faktoren in Trends überführt

Um auszuschließen, dass dies Ergebnisse einer Überoptimierung sind, führen die ­­Autoren das Maß der Portfoliodistanz ein. Dieses misst, wie verschieden die Aktien von zwei Portfolios (originaler Faktor versus Replikation) monatlich sortiert sind, ­indem die Abstände der unterschiedlichen Rankings von Aktien ausgewertet und mit dem maximal möglichen Abstand ins Verhältnis gesetzt werden.

„Durch diese Technik ist es uns gelungen, die Investmentfaktoren mit einer relativ ­hohen statistischen Signifikanz in den Bereich der Trends zu transferieren“ so Schulz. Dort lassen sich dann auch Aussagen über Korrelation und „Nichtkorrela­tion“ treffen. So unterteilen die Autoren die Faktoren erst einmal in zwei Kategorien: zum einen die „returnbasierten Faktoren“, also jene An­sätze, die systematisch in Aufwärtstrends ­investieren, und zum anderen in die „risiko-basierten Faktoren“ und damit jene Ansätze, die systematisch auch Abwärtstrends auswerten. Damit wird klar, dass diese beiden Kategorien grundverschieden sind. Low ­Volatility investiert durch die Charakte­­ris­tik des Marktes indirekt in stabilere, schwach schwankende Renditepfade, während Momentum stark steigende und kür­zere Ren­ditepfade beschreitet, die dann auch automatisch eine höhere Volatilität ­besitzen. „Somit sind beide nicht korreliert“, sagt ­Otto. „Value“ wiederum sucht struk­turiert Umkehrsituationen in Aktienpreisen. Bei Trendänderungen ergibt sich automatisch eine höhere Volatilität, sodass auch hierdurch klar ersichtlich wird, warum auch ­Value nicht zu Low ­Volatility korreliert ist.

Faktorinvestments

Interessant ist, warum eine Trendaus­wertung Value-Ansätze replizieren kann. In einem weiteren Experiment zeigen die Auto­ren, dass die „Earnings“ viel weniger schwanken als die Aktienpreise selbst – ein zentrales Argument von Robert Shiller in seiner Kritik der Theorie der effizienten Märkte. Angesichts dieser überzeugenden Ergebnisse der Faktorperformance-Nachbildung scheinen Faktorinvestments tatsächlich Trendinvestments zu sein. Es gilt nur, die richtigen Trends zu finden. Mit dieser Erkenntnis, die an sich schon revolutionär wäre, gibt sich Berghorn allerdings noch lange nicht zufrieden.

Der Mathematiker bietet nämlich auch noch eine alternative Erklärung für Marktrenditen an. Seiner Ansicht nach sind nämlich Märkte nichts anderes als die Kombination der geschilderten Faktorinvestments, und zwar der drei Return-Faktoren (zweimal Momentum plus Low Vol) und der drei Risiko-Faktoren (Kurs zu EBITDA, KBV, Dividendenrendite). Den Size-Faktor oder die Zuhilfenahme von Mean Reversion braucht es da gar nicht mehr, wie die Tabelle „Alternative Erklärung der Marktrenditen sticht“ zeigt. Das Bestimmtheitsmaß R² mit 84,69 Prozent signalisiert, dass die Kombination aus Return- und Risiko-Faktoren ausreicht, um gut fünf Sechstel der Marktrenditen zu erklären. Würde man nur auf die drei Return-Faktoren zur Erklärung der Marktbewegungen setzen, so könnte man bloß etwas mehr als 70 Prozent der Marktrenditen erklären. Ähnlich verhielte es sich, wenn man allein auf die drei Risiko-Faktoren abstellen würde: Auch hier ließen sich nur gut 68 Prozent der Marktrenditen auf diese Art und Weise erklären. Die Kombination bringt also einen deutlichen Erklärungszuwachs. Nimmt man den Size-Faktor als zusätzliche Erklärungsvariable hinzu, würde man nur mehr eine geringfügige ­Erhöhung des Bestimmtheitskoeffizienten von 84,69 Prozent auf 86,67 Prozent erzielen. Nähme man Mean Reversion dazu, ergäbe sich bei R² überhaupt keine Verbesserung mehr. Für Dr. Berghorn steht fest: „Unsere alternative Sichtweise hat mindestens das gleiche Niveau wie das Capital ­Asset Pricing Modell.“ Märkte scheinen ­also Trends zu sein.

Modellierung des Marktregimes

Diese Sichtweise führt zwangsläufig zu der Frage, ob in bestimmten Marktphasen Investmentstile dominieren und dann „Outperformance“ generieren. Zurückgehend auf das eingangs erwähnte generische Momentum haben Berghorn und Co. dann Marktphasen nach Aufwärts- und Abwärtstrends sowie Korrekturen von Abwärtstrends eingeteilt. In diesen Marktphasen werden dann die verschiedenen Strategien gegeneinander getestet. In Abwärtsmärkten wird ausschließlich auf Low Volatility gesetzt, während in Aufwärtsmärkten die Autoren Momentum gegen Low Volatility testen und dann denjenigen Faktor im nächsten Monat einsetzen, der die beste Einmonatsperformance aufwies. In Abwärtsmärkten mit Korrektur testen die Autoren dann Momentum gegen Value – wieder wird der Gewinner aus dem letzten Monat im nächs­­ten Monat eingesetzt. Was eigentlich immer erwartet wird, ist, dass zumindest in Aufwärtstrends Momentum der stärkste risikoadjustierte Renditetreiber ist. Und genau das ist es nicht, denn über weite Strecken ist Low ­Volatility die bessere Alternative. Es zeigt sich weiter, dass im Abwärtsmarkt Low ­Volatility am besten abschneidet und in ­einer Korrektur der Test aus Momentum und Value. Die Ergebnisse weisen insgesamt daraufhin, dass man durchaus von dominierenden Investmentstilen in verschiedenen Marktphasen sprechen darf. Wenn man den Gesamtmarkt am Beispiel des S&P 500 Index mit einem Multi-Faktor-Ansatz, wobei man z-Scoring für die Faktoren einsetzt, abbildet, erhält man in der Simulationsrechnung bereits eine fast doppelt so hohe Wertentwicklung als der klassische Index. Noch bessere Simulationsergebnisse erhält man, wenn ein Faktor-Momentum-Portfolio, bestehend aus den sechs zuvor geschilderten Faktoren, gebildet wird. Ähnlich hoch fällt das Ergebnis aus, wenn eine Faktor-Timing-Strategie gefahren wird, die auf Marktregime und drei Faktoren zurückgreift (siehe Grafik „Es geht noch besser“).

Ertragsüberraschungen

Ebenfalls interessant ist der Bezug von Momentum zu Earnings Surprises. Wenn man Momentum auf diese Ertragsüberraschungen regressiert, ergibt sich ein Alpha von 1,0179 und ein Bestimmtheitsmaß von 85,63 Prozent, das damit auf gleicher Höhe wie das anhand der drei Rendite- und der drei Risikofaktoren gezeigte liegt. „Diese Ergebnisse bestätigen die Arbeit von Novy-Marx aus dem Jahr 2015, der bei Momentum von einem fundamentalen Effekt ausgeht“, so Berghorn. Anders gesagt: Es gibt diverse Beispiele, insbesondere bei Quartalszahlen, wo neue Informationen auf den Markt treffen, die so von den Marktteilnehmern nicht vorhergesagt werden konnten. „Da braucht man sich nur die bekannten Entwicklungen von Facebook, Google oder Apple ansehen“, so Berghorn. Wer hätte die Entwicklung von Apple bei Einführung des iPhones hin zu einem „Value“-Titel (aus heutiger Sicht) anhand eben jener „Value“-Kennzahlen antizipieren können? Man ist dort auf einem Terrain, wo es keine wirklich guten Anhaltspunkte für die Stärke und Geschwindigkeit des Wachstums gibt, und dort kann man nur eines sinnvoll messen – und das ist die Kursentwicklung. Auch daraus lässt sich wieder ableiten, dass Märkte nicht effizient sind.

In Kombination mit früheren Arbeiten kommt es sogar zu der Situation, dass man Trends in den Daten mit hoher statistischer Signifikanz nicht ablehnen kann, dieses aber gleichzeitig auf Schlusskursbasis auch für die Normalverteilungsannahme gilt. „Dieser vermeintliche Widerspruch ist keiner“, so Berghorn. Als Erklärung führt der Mathematiker den zentralen Grenzwertsatz in der Statistik an, der durch Mischen von unabhängigen Renditestrukturen (zu ­unterschiedlichen Zeitskalen) zu einer schnellen Konvergenz auf Normalverteilung führt.
„Damit muss man die Verdienste von Benoît Mandelbrot entsprechend würdigen“, so Berghorn. Zeit integriert – also über alle Zeitskalen – in die Analyse einfließen zu lassen, kann als erheblicher Paradigmenwechsel aufgefasst werden. Diese Methodik erlaubte nicht nur die Definition von fraktalen Objekten, sie ist offenbar auch für ein besseres Marktverständnis – auch vor dem Hintergrund der schwerwiegenden Anomalien – Grundvoraussetzung. „Dieses Loslösen von der Betrachtung einer isolierten Zeitskala, wie in der klassischen Finanzmathematik z. B. auf Basis von Monatsdaten üblich, reicht bei Trendeffekten wie Momentum schon aus, um diese besser zu verstehen“, so Berghorn. „Allerdings geht es noch nicht weit genug“, wie jetzt auf der Faktorebene gezeigt wurde. „Es bedarf dann nochmals harter signaltheoretischer Methoden, um weitere Klarheit zu schaffen“, so Berghorn. Wie klar, das zeigt sich insbesondere beim Maß Trendlängen: „Höchstens im Grenzfall bei kurzfristiger Betrachtung können Märkte als effizient angenommen werden, langfristig sind sie es nicht“, sagt Berghorn. Damit erklärt der Mathematiker auch den fast schon historischen Diskurs zwischen Eugene ­Fama und Robert Shiller. Es ist eine Frage der gewählten Zeitskala, mit der man Markteffekte analysiert.     

Dr. Kurt Becker


Fraktale, Trends, Wavelets und effiziente Märkte

Begriffserklärungen und Schlussfolgerungen

Tatsächlich finden sich Fraktale – selbst­ähnliche Muster – bei der Modellierung von Wachstumsprozessen in der Natur, so beim Wachstum von Bäumen oder auch bei der Ausbreitung von Blitzen am Himmel. Mit selbstähnlichen Zeitreihen hat die noch immer vorherrschende, weil leichter rechenbare Efficient Market Theory (EMT) ihr Problem.

Was ist eigentlich ein „Trend“?

Interessanterweise existiert eine präzise Definition des Begriffs „Trend“ in der Mathematik gar nicht, genauso wenig wie jener des Zufalls, ein Begriff aus der Philosophie. „Wann man strukturiert über Trends reden möchte, dann muss man präzise definieren, wie diese gemessen werden und auf welcher Zeitskala das passiert“, so Berghorn. Ähnlich den gleitenden Durchschnitten in der Chartanalyse, die mit einer gewissen Trägheit Signale zum Ein- und Ausstieg generieren, gibt es auch bei der Trendzerlegung in Wavelets (kleine Wellen), wie sie Berghorn in seinem Modell vornimmt, diese Grundlage der Messmethodik und der Skala oder Granularität der Analyse. Ausgehend von den klassischen Modellannahmen eines Random Walks oder einer geometrischen Brown’schen Bewegung, in der Renditen einer Normalverteilung entstammen, muss man sich fragen, ob die Kurscharts in realen Daten wirklich Zufall sind oder doch Komponenten enthalten, die nicht ganz so zufällig sind. Hierzu bedient sich Berghorn seines Trendmodells auf Basis von Wavelets. Welche Strukturen „gesehen“ werden, hängt von Detailebene der Analyse und der generellen Sichtbarkeit dieser Ereignisse ab.

Wavelet-Trendzerlegung

Trends weisen fraktale Charakteristika auf. Denn ob ein Markt oder eine Aktie im Aufwärts- oder Abwärtstrend ist, hängt entscheidend von der gewählten Skala (Granularität) bei der Trendzerlegung ab. Die Grafik „Wavelets: Alles entscheidende Skala“ zeigt Trendzerlegungen mit vier unterschiedlichen Granularitäten anhand des Dax Index von 2004 bis 2012. In der Signaltheorie mit Wavelets gilt die verallgemeinerte Heisenberg’sche Unschärferelation. Berghorn: „Die ist ein Optimalitätskriterium und besagt, dass es keinen anderen mathematischen Ansatz als den verwendeten gibt, um Trends präziser im Sinne der Signaltheorie zu lokalisieren.“ Auch haben Trends keine feste Zeitskala, ein weiteres fraktales Merkmal. Damit ist auch die Frage geklärt, ob es so etwas wie ­einen Einjahrestrend gibt: „Nein“ lautet hier die bestimmte Antwort des Mathematikers.

Random Walk: ja oder nein?

Historisch gab es schon viele Arbeiten, die sich mit der Frage befasst haben, ob Marktdaten Random Walks folgen, so Berghorn. „Und auch damals schon wurden signaltheoretische Modelle getestet, die über die sogenannte Fouriertransformation geprüft haben, ob es serielle Korrelationen gibt. Wenn man einen Übersichtsartikel hierzu von Fama 1995 („Random Walks in Stock Market Prices“) ganz genau nimmt, dann konnte man damals schon Hinweise darauf finden, dass die Zeitskala bei der Bewertung, ob effiziente Märkte vorliegen, eine zentrale Rolle einnimmt.“ Und so ist es nicht verwunderlich, dass das Autorentrio diese Diskussion auf die Analyse von Trends übertragen kann und Klarheit in dieser Diskussion schafft. Zentral ist hierbei das Maß der Trendlängen. So kann man sich fragen, wie lang eigentlich die Trends bei Marktdaten sind. Fraktale Märkte erfordern dabei eine Analyse über verschiedene Skalen, und so messen Berghorn und Co. pro vorge­gebener Wavelet-Skala, wie lang die Trends an Börsentagen pro ­Aktie sind. Das Ganze wird dann über alle Aktien des Marktes gemittelt und pro Wavelet-Skala abgetragen. Analog hierzu werden genauso reine Random Walks (geometrische Brown’sche Bewegung) sowie die Verallgemeinerung von Mandelbrot (gebrochene Brown’sche Bewegung) analysiert. Das Ergebnis überrascht vor dem Hintergrund der ursprünglichen Tests dann nicht wirklich (siehe Grafik „Random Walk versus realem Aktienmarkt“): Je gröber die Analyse der Trends, desto mehr nimmt die Länge dieser Trends zu. Das gilt für die ­Zufallsprozesse und auch die Marktdaten. Aber der Abstand – also die Überlänge der Trends der Marktdaten im Vergleich zu den Modellen – nimmt ebenso zu. Schon bei einer Skala von 64 sind Marktdaten im Trendverhalten 21 Börsentage länger, als die theoretischen Modelle es vorgeben würden. „Das ist die eine Seite der Medaille. Aber die Trendlängen sind auch noch im Mandelbrot’schen Sinne wilder, das heißt, die Streuung ist viel breiter – wir ­haben schon oft darauf hingewiesen, dass es sehr lange Trends in Marktdaten gibt, die man theoretisch über die Modelle nicht ­erfassen kann. Was allerdings eine Überraschung darstellt, ist, dass Mandelbrots Verallgemeinerung der gebrochenen Brown’schen Bewegung sich vor dem Hintergrund der Trendlängen wie ein klassischer Random Walk verhält“, so Berghorn.

Effizienz höchstens auf kurze Sicht

Mit dieser Analyse finden die Autoren auch eine Antwort auf die Frage, ob Märkte effizient sind. „Höchstens bei extrem kurzen Zeiträumen kann man Märkte als effizient annehmen. Weitet man das Zeitfenster der Analyse nur ein wenig aus, dann werden sie ineffizient“, so Berghorn. Nun ist klar, dass Investoren mit langen Investmentzeiträumen von ­ineffizienten Märkten ausgehen sollten.


Effizient oder nicht effizient? Sieben Jahrzehnte der Suche

Von Markowitz bis Mandelbrot

Anfang der 50er-Jahre war die Welt noch unkompliziert: Harry Markowitz benötigte für seine effizienten Port­folios nur die Renditeerwartung von Aktien und die Kovarianzen. Mit diesem Konzept ließ sich dann das Capital Asset Pricing Model (CAPM) umsetzen, das jeder Aktie eine Sensitivität zum nicht diversifizierbaren Marktrisiko (Beta) zuordnete. Entlang dieser Theorie wurden Märkte als „effizient“ angenommen. Im Verlauf der Zeit stellte sich allerdings heraus, dass dieser Ansatz zu kurz griff. So zeigte sich, dass die sys­tematische Investition in unterbewertete Unternehmen (Value) oder in Small Caps (Size) Überrenditen erlaubte. Es wurde ­argumentiert, dass spezifische Bilanz- und Ausfallsrisiken durch eine Prämie abgegolten werden, die sich dann in einem langfristigen Mehrertrag niederschlägt. Das Drei-Faktor-Modell war geboren, in dem eine Marktrendite von den Risikofaktoren Beta, „Value“ und „Size“ abhängt. So weit, so gut.

Erste Risse bekommt dieses Bild der Risi­kokompensation schon in den frühen 70er-Jahren. Erstaunlich robuste Konzepte wie etwa das über Jahrzehnte nachgewiesene „Low Vol“-Konzept dürften eigentlich nicht funktionieren, denn laut klassischen Annahmen sollte ein Mehrertrag gegenüber dem Markt nur bei Eingehen eines höheren Risikos möglich sein. Dabei zeigt die Praxis das genaue Gegenteil: Niedrig volatile Aktien schlagen auf mittlere und lange Sicht wesentlich volatilere Titel risikoadjustiert und hinsichtlich des maximalen Drawdowns.

So richtig in Fahrt kam der „Faktorzoo“ mit der Analyse des Momentum-Faktors. Seit Jegadeesh und Titman 1993 „Returns to Buying Winners and Selling Losers: ­Implications for Stock Market Efficiency“ im „Journal of Finance“ publizierten und damit den Momentum-Faktor erstmals wissenschaftlich dokumentierten, gehört dieser neben den gezeigten Value- und Small-Cap-Faktoren zu den Säulen des Factor Investings. Momentum stellte sich unter den klassischen Faktoren als stärkster Outperformancelieferant heraus. AQR ­Capital Management gelang sogar der Nachweis seiner Existenz bis ins Viktoria­nische Zeitalter, konkret bis 1801 zurück. Und das steht im Widerspruch zur Theorie der „effizienten Märkte“, die postuliert, dass die Rendite sich unabhängig von der Vergangenheit entwickelt. Wer glaubt, dass dies nicht weiter auf die Spitze zu treiben ist, sollte durchaus zur Kenntnis nehmen, dass heutzutage weit über 400 Faktor­ansätze existieren. In dieser Diskussion veröffentlicht AQR Capital Management dann auch noch ein Research Paper („Factor Momentum Everywhere“), in dem ausgehend von 65 Faktoransätzen gezeigt wird, dass die Performance jedes Faktors aus dem vergangenen Monat einen wichtigen „Prädiktor“ (Variable mit Prognosewert) darstellt.


Anhang:

twitterlinkedInXING
 Schliessen

Mit der Nutzung dieser Website stimmen Sie der Verwendung von Cookies und unserer Datenschutzerklärung zu. Mehr erfahren