Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
4/2016 | Theorie & Praxis

Laufen, wenn die Kanonen donnern

Kaufen, wenn noch Pulverdampf in der Luft liegt? Die Yale-Autoren Alan Moreira und Tyler Muir folgen diesem Ansatz in ihrer Studie „Volatility Managed Portfolios“ eher nicht. Im Gegenteil. Sie verkaufen am liebsten noch, wenn andere bereits einsteigen.

1482321838_teaserbild6.jpg

Von Carl Mayer von Rothschilds Motto „Kaufen, wenn die Kanonen donnern“ halten die Autoren der Studie „Volatility Managed Portfolios“ nicht viel. Sie raten dazu, stattdessen einen gemanagten Volatilitätsansatz zu verfolgen – ob diese Strategie aber den Praxistest übersteht, muss sich allerdings erst noch weisen.

Antizyklisch investieren – salopp formuliert: Kaufen, wenn die Kanonen donnern – ist ein weithin kolportiertes Investmentkonzept, das aber leichter ­formuliert als umgesetzt ist. Die Strategie erfordert einiges an Nervenstärke, gehen donnernde Kanonen doch in der Regel mit hoher Nervosität, charttechnischen Dammbrüchen, Liquiditätsengpässen, hoher Volatilität und sonstigen Nebenwirkungen einher. Dennoch lohne sich das Risiko, meinen die Verfechter dieser Strategie. „Eine landläufige Meinung zur Phase unmittelbar nach dem Preiskollaps von 2008 lautete ja, dass es sich hierbei um eine Investmentgelegenheit handelte, wie man sie nur einmal in einer Generation vorfindet“, meint Alan Moreira, Koautor der Yale-Studie „Volatility Managed Portfolios“. Laut ihm und seinem Kollegen Tyler Muir scheint das aber zu kurz gefasst, wenn nicht gar schlicht falsch zu sein.


Denn in ihrer im Juni 2016 erschienenen Studie verfolgen sie einen völlig anderen Ansatz, der „Risiko reduziert, wenn die ­Volatilität hoch ist“, wie Muir ausführt. Das im Paper umgesetzte Volatilitätsmanagement wäre in einem 2008er-Szenario „nahezu komplett in Cash gegangen. Erst als die schlimmsten Volatilitätsausschläge überwunden waren, kam es zu einer Rückkehr in den Markt.“ Tatsächlich hätte die Stra­tegie „in diversen Krisenzeiten, beispielsweise in der Großen Depression oder beim Aktien-Crash von 1987 gut funktioniert“, erklärt Moreira.
Was genau passiert hier? Um das zu verstehen, muss zunächst ausgeleuchtet werden, wie das Portfolio zustande kommt. Das geschieht nach folgender Gleichung:


Hier wird das volatilitätsgemanagte Portfolio  erstellt, bei dem f die Überschussrendite darstellt – hierbei handelt es sich um eine theoretische Größe, die die Rendite eines Portfolios ausweist, dessen Finanzierungskosten bei null liegen. Die bedingte Varianz von f, ausgedrückt durch 

stellt in Wirklichkeit eine Annäherung dar. Denn der Einfachheit halber errechnen die Autoren diesen Wert nicht, sondern verwenden schlicht die tatsächlich eingetretene Varianz des Vormonats.

 stellt wiederum die Überschussrendite der Buy-and-Hold-Strategie dar. c bleibt konstant und steht für das durchschnittliche Verlust-Exposure. Dieses wird mit derselben Standardabweichung wie das Buy-and-Hold-Portfolio ausgestattet.


Auf diese Weise wird dem Investor, der versucht den Mittelwert-Varianz-Ansatz zu optimieren, monatlich die Entscheidung abgenommen, wann er verstärkt ins Risiko ­gehen soll. Denn je höher die Varianz unter dem Bruchstrich, desto kleiner wird das Portfolio. Die Position in der betreffenden Assetklasse wird also automatisch reduziert. Umgekehrt wird die Position erhöht, wenn die Varianz im Vormonat zurückgegangen ist.
 

Gleichgewichtsfrage
Lässt man das sich so ergebende Datenmaterial (siehe Grafik „Im Kontext“) nun gegen den Market-Faktor, also die breitestmögliche Diversifikation, laufen und sortiert man sie nach fünf stetig steigenden Volatilitätsstufen, ergeben sich folgende Resultate: Der durchschnittliche Ertrag  ist bei hoher Vola­tilität am höchsten, die Standardabweichung aber auch. Allerdings sind die Verhältnisse unverhältnismäßig stark ausgeprägt, was ­dazu führt, dass das Verhältnis von Ertrag zu Risiko dann am höchsten ist, wenn die Volatilität am geringsten ist. Spannend wird es, wenn man diese Zusammenhänge in einen historischen Kontext stellt. Denn die Wahrscheinlichkeit einer Rezession nimmt mit der Höhe der Volatilität zu.


Intuitiv würde das bedeuten: Hält sich der Investor an den ­Volatilitätsansatz, verpasst er in Zeiten höherer rezessiver Wahrscheinlichkeiten zwar einen Teil des Ertrags, ist aufgrund der ­höheren Risikovermeidung, also verstärkter Sell-Tätigkeit, auch einem allfälligen Abschwung weniger stark ausgesetzt. Das gilt hier zumindest für den Market-Faktor.


Auf diesen haben sich die Autoren in ihrem Paper konzentriert, da er laut Muir „für den durchschnittlichen Investor am leichtesten in Echtzeit zugänglich ist“ und über Indizes wie den MSCI World nachvollzogen werden kann.


Stellt sich die Frage, ob sich dieser Fokus auch von der Ertragsseite her rechtfertigen lässt. Zu diesem Zweck lässt man den Faktor „Market“ gegen die anderen Faktoren des Datensets laufen (siehe Kasten „Die Quelle der Daten“) und kommt so zu ­einem Alpha von 4,9, das nur durch die Faktoren Momentum und Return on Equity geschlagen wird (siehe Grafik „Volatilitätsgemanagte Alphas“)


Nachdem sich der Fokus auf den Market-Faktor vom Alpha her rechtfertigen lässt, muss natürlich noch die ultimative Bestätigung erfolgen – schlägt der gemanagte Ansatz eine Buy-and-Hold-Strategie? Immerhin gilt es, entsprechende Ausgabeaufschläge und Manipulationsgebühren zur rechtfertigen. Zu diesem Zweck haben die Autoren nach Market-Faktor einen experimentellen Dollar im Jahr 1926 investiert. Ein Dollar wurde nach der vorgestellten Volatilitätsstrategie verwaltet, der andere Dollar gehalten. Das Resultat zum Stichtag: Die Buy-and-Hold-Strategie brachte per Ende 2015 4.000 US-Dollar. An sich nicht schlecht, die Managed-Volatility-Strategie beendete den selben Zeitraum allerdings mit 20.000 US-­Dollar (siehe Grafik „Die langfris­tige Perspektive“). Woraus sich die Überschussrendite ergibt, erweist sich, wenn man auf den Chart blickt, der die Rückschläge der beiden Strategien ausweist. Hier wird schnell klar, dass die Volatilitätsstrategie extreme Verluste vermeidet. Das wirkt sich besonders in ökonomischen Krisenzeiten positiv aus.


Kosten überleben
Performance und Risikovermeidung liefern also starke Argumente für einen aktiven Volatilitätsansatz, den Praktiker interessiert aber natürlich auch, ob die erkaufte Outper­formance den Kosten standhält. Die Autoren nähern sich dieser Problematik, indem sie die Transak­tions­kos­ten für verschiedene Strategien zum Volatilitäts-Timing und Marktvolatilitäten einbeziehen. Ziel ist eine Annäherung an ein möglichst effizientes Volatilitäts-Timing, wobei die Trading-Aktivität kontinuierlich reduziert wird. So wird das Portfolio zunächst nach realisierter Varianz, danach nach realisierter Volatilität, erwarteter Varianz und dem Ausschluss von Hebeln gewichtet. Anschließend werden Transaktionskosten von ein (nach Fleming et al. 2003) bis zehn (nach Frazzini et al. 2015) Basispunkten vorgenommen. Die Autoren rechnen noch ein Szenario durch, das sich am Volatilitäts- beziehungsweise Risikoindex VIX orientiert, besonders hohe Volatilitäten mit entsprechend hektischem Handelsaufkommen berücksichtigt und einen Aufschlag von vier Basispunkten vorsieht (siehe Grafik „Der Preis des Trades“).
Selbst unter den feindlichsten Laborbedingungen bleibt nach Transaktionskosten ein Alpha von 1,85 Prozent, in jedem Fall wird deutlich über dem Break-even-Bereich agiert – das mit einem Spielraum von bis zu 161 Basispunkten.


Ein weiteres Problem, dem sich Investoren gegenübersehen, sind Einschränkungen beim Hebeleinsatz. Die Strategie wurde analog zu den Vorgaben bei der Untersuchung der Transaktionskosten auf diverse Gewichtungen kontrolliert. Tatsächlich bringt das Basisszenario, das im 99. Perzentil einen Multiplikator von 6,39 ausweist, mit 4,86 auch das höchste Alpha zustande. Investoren, die risikoavers agieren und keine Hebel einsetzen dürfen, können aber immerhin noch mit einem ­statistisch signifikanten Alpha von 2,12 rechnen.


„Grumpy Economist“
Der von den Yale-Wissenschaftlern präsentierte gemanagte Volatilitätsansatz ist, wie sie selbst sagen, nicht ­unbedingt intuitiv. Er geht davon aus, dass man vermeintliche Kaufgelegenheiten, die sich nach Marktturbulenzen ergeben, im ­Extremfall komplett auslassen, de facto vollkommen in Cash gehen und wirklich erst dann einsteigen soll, wenn die Volatilitäts­indikatoren zurückgehen. Das erfordert entweder eine automatisierte oder eine sehr disziplinierte Umsetzung.


Zur empirischen Beweisführung über den Erfolg dieser Strategie vergleichen sie ihren gemanagten Vola-Ansatz mit einer simplen Buy-and-Hold-Strategie, die den Market-Faktor berücksichtigt und im Jahr 1926 beginnt. Das Resultat ist auf den ersten Blick beeindruckend, wirkt auf den zweiten ­jedoch leicht manipulativ. Denn der Einbruch, der danach folgte – und den die vorgeschlagene Strategie deutlich besser verkraftet – war durch Buy and Hold natürlich viel schwerer aufzuholen. Interessant wäre gewesen, wie eine Buy-and-Hold-Strategie performt, die kurz nach einem solchen Einschlag beginnt und somit die bestehenden günstigen Bewertungen nützt. Ebenfalls interessant wäre die Untersuchung kürzerer Zeiträume, etwa 20 Jahre, gewesen. Tatsächlich weist in einer Multifaktor-Analyse, die den Zeitraum in 30-Jahres-Abschnitte einteilt, der Market-Faktor für die ersten 30 Jahre ein Alpha von 8,11 aus, für den Zeitraum ab 1986 bis 2015 halbiert sich dieser Wert. Der Verdacht drängt sich auf, dass die Strategie umso ineffizienter wird, je näher der Beobachtungszeitraum in die Gegenwart rückt. Das könnte daran liegen, dass der Ansatz vor allem dahingehend funktioniert, traumatische Verluste zu minimieren, in Hausse-Zeiten kommt es hingegen zu ­einer Underperformance.


Die akademische Kollegenschaft attes­tiert den beiden Autoren zunächst einmal, „ein auf jeden Fall sehr cleveres und provokati­ves Papier“ erstellt zu haben, wie es John Cochrane von der Stanford University formuliert. Er wäre aber kein „Grumpy Economist“ – wie er seinen Blog bezeich­net –, hätte er nicht den einen oder anderen Einwand. „Bevor ich mein Geld hier in­vestieren würde, hätte ich eine Menge Fragen: Funktioniert das wirklich in Echtzeit? Gibt es starke Rückschläge“ Und: „Zeigt der Graph (Anm.: er bezieht sich auf die Outperformance seit 1926) tatsächlich ste­tige Gewinne oder sind es nur gewisse ­Perioden?“


Davon abgesehen: Löblich ist die Untersuchung der Transaktionskosten – die Frage nach diesen ist insofern relevant, als der ­Ansatz hoch aktiv beziehungsweise sophis­tiziert und mit entsprechenden Kosten verbunden ist. Tatsächlich „überlebt“ die Strategie diese Kosten auch, inwieweit sich die Managementgebühren letzten Endes ins ­Alpha – oder darüber hinaus – fressen, kann jedoch nur die Praxis zeigen.   

 

Die Quelle der Daten
Faktoren und Daten direkt von der Homepage der Legende

Die Autoren haben sowohl tägliche wie auch monatliche Faktoren von Kenneth Frenchs Website (http://mba.tuck.dartmouth.edu/pages/faculty/ken.french/data_library.html) entnommen. ­Bedient haben sie sich nicht nur der drei originalen Fama-French-Faktoren (Fama and French [1996]), sondern auch des ­erweiterten 5 Faktor-Modells aus dem Jahr 2015.

Hinzugefügt haben sie den Faktor Momentum, also „long“ auf vergangene Gewinne und „short“ auf vergangene ­Loser. Ebenfalls eingeflossen sind tägliche und monatliche Daten von Hou et al. (2014), die einen Investmentfaktor (IA) und einen Return-on-Equity(RoE)-Faktor in­kludieren. In weiteren Modellrechnungen werden Währungsertragsdaten von Lustig et al. (2011) verwendet, die im Faktor ­„Carry“ Anwendung finden.


Anhang:

 Schliessen