Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
3/2010 | Theorie & Praxis
twitterlinkedInXING

Portfoliooptimierung: Naivität schlägt Optimierung?

Die vielfach gescholtene und bestenfalls geduldete naive Diversifikation in Form der Gleichgewichtung feiert ein Comeback. Aktuelle Studien untermauern die These, dass komplexe Optimierungsversuche unterm Strich keine besseren Ergebnisse erwirtschaften.

Naive Diversifikation als Grundlage der Vermögensverwaltung ist nicht neu. Schon seit dem Altertum wird Vermögenden dazu geraten, ihr Kapital zu jeweils einem Drittel in Immobilien, Gold und Geld zu investieren. Dass es so einfach sein könnte, erscheint der Mehrzahl der Investoren aber ebenso unwahrscheinlich wie gefährlich, denn wenn man mit einem solchen Ansatz langfristig erfolgreicher wäre als mit komplexeren Strategien, wäre ein guter Teil der Vermögensverwaltungsindustrie obsolet. Und tatsächlich schienen wissenschaftliche Optimierungsmodelle, basierend auf den Überlegungen von Harry Markowitz, eindeutig überlegen zu sein. Eine simple Gleichgewichtung von Assetklassen wurde daher als als naiv belächelt. Dass auch Harry Markowitz als Pionier der modernen Portfoliotheorie zugab, persönlich jeweils die Hälfte in Renten und Aktien investiert zu haben, hätte allerdings zu denken geben sollen. Markowitz rechtfertigte sich mit „psychologischen Gründen“, er wolle eben seine zukünftigen möglichen Sorgen minimieren.

DeMiguel beginnt …
 
Fakt ist, dass bis heute nicht eindeutig geklärt ist, welcher Ansatz die bessere Wahl ist. Eine Studie von Victor DeMiguel, Lorenzo Garlappi und Raman Uppal mit dem Titel „Optimal versus Naive Diversifikation: How inefficient ist the 1/N Portfolio Strategy?“ belegt, dass die Sache keineswegs so einfach ist. Denn 1/N wies mit Optimierungsverfahren vergleichbare Resultate auf. De Miguel und Kollegen machten sich die Sache keineswegs leicht und evaluierten die Out-of-Sample-Performance des Mean-Variance-Modells sowie seiner Erweiterungen, die die Schätzfehler reduzieren sollen, und stellten sie einem naiven 1/N-Portfolio gegenüber.

Von den insgesamt 14 in die Untersuchung einbezogenen Modellen war in Bezug auf die Sharpe Ratio, den Ertrag des Sicherheitsäquivalents für den erwarteten Nutzen eines Mean-Variance-Investors oder die Portfolioumschlagshäufigkeit keines konsistent besser als das naive. Dies lässt die These zu, dass der Gewinn aus optimaler Diversifikation durch Schätzfehler für Renditen, Korrelationen und Volatilitäten mehr als ausgeglichen wird. Basierend auf Parametern für den US-Aktienmarkt, zeigen die Out-of-Sample-Simulationen und -Analysen, dass die Mean-Variance-Strategie und ihre Erweiterungen für ein aus 25 verschiedenen Assets bestehendes Portfolio in etwa 3000 Monate und eines, bestehend aus 50 Assets, sogar 6000 Monate benötigen würde, um 1/N outzuperformen. Auch alle Erweiterungen des Standardmodells reduzieren das Zeitfenster nur unbeträchtlich. Das lässt vermuten, dass hier noch ein weiter Weg zu gehen ist, ehe die versprochenen Vorteile des optimalen Portfolios bei einer Out-of-Sample-Betrachtung realisiert werden können. DeMiguel folgert daraus zweierlei: Während es beträchtliche Fortschritte im Design optimaler Portfolios gab, sollten mehr Energien auf die Schätzung der zu erwartenden Erträge verwendet werden, wobei nicht nur statistische Daten, sondern auch andere verfügbare Informationen über die Returns Verwendung finden sollten. Wie die Evaluierung des von Brandt, Santa-Clara und Vulcanov (2007) vorgestellten Ansatzes zeige, könne Information über assetklassenübergreifende Charakteristika ein verfolgenswerter Weg sein. Die zweite Konsequenz wäre laut DeMiguel, dass für die Bewertung des Nutzens einer speziellen Strategie zur Ermittlung einer optimalen Asset Allocation die naive 1/N-Diversifikationsregel zumindest als erste offensichtlich passende Benchmark Anwendung finden sollte.

… Mannheim greift auf

Zu sehr ähnlichen Ergebnissen kommt ein Forscherteam, bestehend aus Professor Martin Weber, Inhaber des BWL-Lehrstuhls an der Universität Mannheim, sowie den beiden wissenschaftlichen Mitarbeitern Heiko Jacobs und Sebastian Müller. Ausgangspunkt der Studie „Wie diversifiziere ich richtig? – Eine Diskussion alternativer Asset-Allocation-Ansätze zur Konstruktion eines Weltportfolios“ war die Frage, wie gut oder schlecht plausible Heuristiken, also stark vereinfachende Ansätze, eigentlich im Vergleich zu Portfoliooptimierungsregeln abschneiden. Die Frage erschien den Autoren auch für weniger professionelle Investoren interessant, da diese meist keine Portfoliooptimierung durchführen. Müller: „Wir wollten wissen, ob, und wenn ja, wie viel Renditepotenzial verschenkt wird. Es ging uns in erster Linie aber nicht darum, Heuristiken als Alternativen zu gängigen Portfoliomodellen im institutionellen Management zu etablieren.“

Assetklasse Aktien

Diversifikation wird im ersten Teil in regionaler Hinsicht bei Aktien untersucht, im zweiten dann auch im Hinblick auf die drei Assetklassen Aktien, Renten und Rohstoffe. Schließlich verband man die beiden Ansätze miteinander, weshalb der Begriff „Weltportfolio“ verwendet wurde. Die Studie wurde durch ein aktuelles Follow-up vom Mai 2010 ergänzt, das einerseits den Untersuchungshorizont bis zum Jahresultimo 2009/2010 ausdehnte und andererseits noch mehr – nämlich insgesamt elf Optimierungsmodelle – in die Betrachtungen miteinbezog.

Drei Erweiterungen

Markowitz-Erweiterungen lassen sich grundsätzlich in drei Kategorien einteilen. Dazu gehört die Einführung von Portfoliobeschränkungen als Nebenbedingungen, um extrem positive oder negative Portfoliogewichte zu verhindern und eine gewisse Diversifikation zu erreichen. Weiters sind Nicht-Negativitätsbedingungen üblich, um Short-Positionen hintanzuhalten, die oft nicht kompatibel mit dem Anlagereglement eines institutionellen Investors sind. Die zweite Gruppe bilden die Bayes-Verfahren als Schätzmethoden, die unter Nutzung von sogenannten „Priors“ (Vorabinformationen) die mit statistischen Methoden geschätzten Inputparameter bewusst mehr oder weniger stark in Richtung eines globalen Schätzers korrigieren (etwa Stein 1956). Problematisch erscheint die Willkür betreffend des gewählten Priors und des Korrekturfaktors. Mögliche Ansätze finden sich bei Jorin (1985) beziehungsweise Ledoit und Wolf (2004). Deren Wirkung ist jedenfalls ähnlich den erstgenannten Portfoliobeschränkungen: Auch hier geht es darum, mithilfe der Anpassung der Inputparameter an Durchschnittswerte die Wahrscheinlichkeit extremer Portfoliogewichtungen zu verringern. Der dritte Ansatz ist die Minimum-Varianz-Strategie, die den Vorteil hat, dass man keine erwarteten Renditen einfließen lässt und damit eine Fehlerquelle bei der Schätzung wegfällt. Es hat sich nämlich gezeigt, dass die Fehleranfälligkeit bei Renditeschätzungen höher ist als bei der Schätzung der Volatilitäten und der Korrelationsmatrix, wie schon Robert Merton 1980 in „On Estimating the Expected Return on the Market: An Exploratory Investigation“ festgestellt hat. Die Tauglichkeit des Minimum-Varianz-Ansatzes wurde in mehreren empirischen Studien festgestellt, wobei Jagannathan und Ma 2003 eine nochmalige Leistungssteigerung konstatierten, wenn gleichzeitig auch Portfoliobeschränkungen Anwendung finden.

Was die Parametrisierung der Modelle anbelangt, so hat man in Mannheim mit rollierenden 60- und 120-Monats-Perioden und allen historischen Daten eines spezifischen Monats gearbeitet, ohne dabei konsistente Verbesserungen in den Ergebnissen der Markowitz-Modelle zu finden.

GDP-Gewichtung voran

Die empirische Analyse zeigte, dass sich im Falle der Diversifikation im Aktiensegment kein theoretisch fundiertes Optimierungsmodell gegenüber den drei heuristischen Ansätzen (marktkapitalisierungsgewichteter, GDP- und gleichgewichteter Ansatz) als überlegen erweist. Auffällig war, dass eine fundamentale BIP-basierte Gewichtung signifikant bessere Ergebnisse  an den Tag legte als die Marktkapitalisierungsvariante, die durch diese Untersuchung einmal mehr entzaubert wurde.

Das simple 1/N wiederum erwirtschaftete in Bestätigung von DeMiguels Resultaten einen den Optimierungsverfahren vergleichbaren Ertrag (siehe Tabelle „Aktien: Heuristik hält mit“). Die Sharpe Ratio nach Kosten liegt beim klassischen Markowitz-Modell mit Leerverkaufsverbot mit 0,124 über den gesamten Untersuchungszeitraum nur marginal höher als beim GDP-gewichteten Modell (0,120) oder dem 1/N-Ansatz (0,122). Unter anderem testeten die Forscher die Nullhypothese, dass die Sharpe Ratio des heuristischen GDP-Gewichtungsansatzes gleich der Sharpe Ratio jedes einzelnen der anderen Modelle ist, die daraus resultierenden p-Werte sind in der Tabelle angeführt. Der p-Wert von 0,08 des Market-Cap-Weighted-Ansatzes zeigt, dass die Outperformance des GDP-gewichteten Ansatzes signifikant ist.

Jedenfalls zeigen die p-Werte, dass gleichgültig, welche Heuristisk getestet wird, die elf untersuchten wissenschaftlichen Ansätze keine signifikante Outperformance zeigen.

In der Tabelle wurden aus Vereinfachungsgründen nur drei wissenschaftliche Modelle dargestellt und auch nur die p-Werte zum Test einer der drei heuristischen Nullhypothesen. Das positive Jensen-Alpha ist im Falle der GDP- und der naiven 1/N-Gewichtung jedenfalls auf einem Konfidenzniveau von 95 Prozent signifikant, was wiederum die Überlegenheit dieser Verfahren gegenüber der Marktkapitalisierungsgewichtung zeigt.

Drei Assetklassen in einem zweiten Schritt

In einem weiteren Schritt bezogen die Autoren Renten und Rohstoffe als weitere Assetklassen in die Untersuchung mit ein. Die drei bereits bei Betrachtung der Assetklasse Aktien untersuchten heuristischen Modelle mit GDP-, Marktkapitalisierungs- und Gleichgewichtung bei Aktien wurden in ein Weltportfolio eingebaut, das jeweils aus 60 Prozent Aktien, 25 Prozent Renten und 15 Prozent Commodities bestand, wobei der Aktienteil jeweils einem der drei oben beschriebenen Gewichtungsalgorithmen folgte. Diese Allokationsgewichtungen sind Ergebnis eines Literaturüberblicks und stellen einen Ausgangspunkt für die Betrachtung von Heuristiken mit fixen Portfoliogewichten dar. Insgesamt untersuchten die Autoren gut 5000 verschiedene Heuristiken, die auf zeitstabilen Portfoliogewichten aufbauen.

Heuristik hält wiederum mit

Auch hier bestätigte sich, dass Out-of-Sample-Markowitz-Modelle keine superioren Ergebnisse gegenüber heuristischen Ansätzen liefern, die über die Zeit stabile Gewichtungen haben. Heiko Jacobs: „Ein nicht zu einseitig aufgestelltes Portfolio ist bereits wesentlicher Treiber von Diversifikationsgewinnen. Das gilt sowohl für die globale Streuung des Portfolios im Aktienbereich als auch für die Asset Allocation. Keines der getesteten Optimierungsmodelle war in der Lage, unter realistischen Bedingungen darüber hinaus durch erfolgreiches Timing einen Mehrwert zu generieren.“ Darüber hinaus spricht auch der Kostenvorteil wegen geringerer Umschichtungshäufigkeit für die Heuristik. Ein jährliches Rebalancing bei den naiven wie den wissenschaftlichen Strategien reicht dabei völlig aus, denn ein monatliches Readjustieren führt in beiden Fällen zu keinen signifikant besseren Ergebnissen. Sebastian Müller: „Häufigeres Rebalancing oder die Annahme höherer Transaktionskosten begünstigen tendenziell die getesteten Heuristiken, weil sie – mit Ausnahme der Minimum-Varianz-Verfahren – geringere Umschichtungen erfordern als die Optimierungsmodelle.“

Die Tabelle „Aktien, Renten, Rohstoffe: Heuristik liefert signifikantes Alpha“ zeigt, dass die Nullhypothese, die Sharpe Ratios der einzelnen Modelle seien gleich jener des heuristischen Modells mit GDP-Gewichtung, nicht verworfen werden kann. Weiters fällt auf, dass die Streuung der Renditen, Standardabweichungen und Sharpe Ratios größer ist als im Ein-Assetklassen-Fall.

Dabei zeigt das Minimum-Varianz-Portfolio mit Leerverkaufsverbot die beste Sharpe Ratio, während die Sharpe Ratio des klassischen Markowitz-Ansatzes (ebenfalls mit Leerverkaufsverbot) mit 0,110 sogar niedriger ist als im reinen Aktienportfolio (siehe erste Tabelle).

Somit kann man sagen, dass nicht alle Markowitz-Modelle das Diversifikationspotenzial zusätzlicher Assetklassen heben können. Das Drei-Faktor-Regressionsmodell mit den Faktoren Aktien, Renten und Rohstoffen führt zu Alphawerten, die als Zusatzwert aus der Variation der Assetklassengewichte über die Zeit interpretiert werden können. Innerhalb der drei heuristischen Ansätze zeigt sich das gleiche Bild wie beim reinen Aktienmodell: Sowohl der GDP-gewichtete auf Konfidenzniveau 99 Prozent als auch der naive Ansatz mit 95-prozentiger Konfidenz zeigen ein statistisch signifikantes positives Alpha. Wiederum lässt sich aus dem Zahlenmaterial ableiten, dass der Ansatz nach Marktkapitalisierungsgewichtung keine besonders erfolgreiche Diversifikationsstrategie im Verhältnis zu den beiden anderen heuristischen Ansätzen darstellt.

Am Ende des Tages führten also all diese Ansätze dazu, dass sich die Kernaussagen der Mannheimer Wissenschaftler nicht änderten. Der Vergleich heuristischer Strategien mit wissenschaftlichen, Markowitz-basierten Optimierungsmodellen zeigt keinen statistisch festzumachenden Bias zugunsten der letzteren.

Was sind nun die Implikationen dieser Aussagen für institutionelle Investoren? „Das bedeutet nicht, dass Institutionelle nun ihre Optimierungsmodelle wegwerfen sollten“, resümiert Müller, „sie müssen sich aber deren Grenzen bewusst machen.“ Ist 1/N jetzt der Stein der Weisen? Professor Weber: „Die Performance von 1/N ist möglicherweise stark abhängig von der Ausgestaltung der zugrunde liegenden Portfoliokomponenten. In unserer Analyse bestehen die Komponenten aus vier großen regionalen Aktienmarktindizes mit jeweils mehreren hundert Einzeltiteln. Insofern bieten bereits die einzelnen Portfoliobausteine selber ein hohes Diversifikationspotenzial. Bei einer Analyse auf Länder- oder gar Einzeltitelebene wäre das weitaus weniger der Fall.“ Und Weber weiter: „In bestimmten Fällen kann eine 1/N-Heuristik durchaus logische Inkonsistenzen aufweisen. In einem gleichgewichteten DAX30 etwa hätte das dreißiggrößte Unternehmen dasselbe Gewicht wie das größte Unternehmen. Das einunddreißiggrößte Unternehmen hingegen würde überhaupt nicht berücksichtigt.“

Mehr Assetklassen
 
Die Kapitalmarktforschung ist zudem aufgerufen, weiterzuarbeiten und sich etwa mit damit zu beschäftigen, weitere Assetklassen in die Betrachtungen miteinzubeziehen, wenn verlässliches, lange genug in die Vergangenheit zurückreichendes Datenmaterial vorliegt. Eun und Petrella etwa haben argumentiert, dass Investoren zusätzliche Diversifikation durch die Aufnahme von Small und Mid Caps ins Portfolio bekommen können. Dann sollte nach Alternativen zu der Schätzung der Inputparameter für Optimierungsmodelle geforscht werden. Des Weiteren sollte man eruieren, inwieweit man Portfoliooptimierungskonzepte mit heuristischen Allokationsschemata kombinieren kann, um bessere Resultate zu erzielen. Professor Weber: „Einen ersten Schritt in diese Richtung unternimmt die Studie von Tu/Zhou (2009). Die Autoren können zeigen, dass eine Kombination der 1/N-Heuristik mit Optimierungsmodellen unter bestimmten Voraussetzungen zu einer signifikanten Ergebnisverbesserung führt – neben einer Diversifikation über Anlageklassen wird hier auch bei der Wahl des zugrunde liegenden Portfoliomodells nicht alles auf eine Karte gesetzt.“ Viel Arbeit steht also aufstrebenden Kapitalmarktforschern ins Haus.

Man darf gespannt sein, ob es letztlich gelingt, die heuristischen Ansätze durch neue Optimierungstools ihres Charmes zu zu berauben oder überlegene Fusionsprodukte zu erzeugen.    

Link zu: 1/N Ansätze in der Praxis

Das heuristische Modell mit Marktkapitalisierungsgewichtung zeigte mit 0,098 die schwächste Sharpe Ratio, was vermuten lässt, dass es sich dabei um die am wenigsten effiziente Diversifikationsstrategie handelt. Der Einfachheit halber wurden nur drei von elf Optimierungsmodellen dargestellt. */**/*** entspricht Signifikanz von 90/ 95/ 99 Prozent. Quelle: Studie

Die Streuung der Renditen, Standardabweichungen und Sharpe Ratios ist größer als im Ein-Assetklassen-Fall. Dabei zeigt das Minimum-Varianz-Portfolio mit Leerverkaufsverbot die beste Sharpe Ratio, während die Sharpe Ratio des klassischen Markowitz-Ansatzes hinterherhinkt. Der GDP- und der naive 1/N-Ansatz zeigen statistisch signifikante Alphas in einer Drei-Faktor-Analyse. Quelle: Studie

twitterlinkedInXING
 Schliessen

Mit der Nutzung dieser Website stimmen Sie der Verwendung von Cookies und unserer Datenschutzerklärung zu. Mehr erfahren