Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
3/2020 | Theorie & Praxis
twitterlinkedInXING

Wenn weniger mehr ist

Mehr Daten ermöglichen bessere Prognosen – könnte man annehmen. Ein MIT-Forschergespann hat diese verbreitete Annahme infrage gestellt. Können kleinere Datensätze unter Umständen informativer sein? Und wenn ja: Wo findet man diese?

1601297573_datenflut.jpg

Will man das Phänomen „süß“ erfassen, muss man nicht alles kosten – Pommes frites tragen beispielsweise nicht unbedingt zum Erkenntnisgewinn bei. Eine Auswertung der kleineren, nur süßen Teilmenge an Lebensmitteln ist in diesem Fall also effizienter. Forscher haben diesen intuitiven Gedanken verfeinert – und kommen in puncto Prognose zu bemerkenswerten Thesen.

© beats | stock.adobe.com
Landläufig gilt für Versuche, Markttrends statistisch vorherzusagen: Mehr ist besser – also je mehr Datenpunkte, desto höher die Wahrscheinlichkeit, echte Trends erfassen und fortschreiben zu können. Diese Denkweise ist in Zeiten von Big Data und künstlicher Intelligenz verfestigt worden: Millionen und Milliarden Daten werden ­erfasst, teils in Millisekundenabständen, teils in historischen Betrachtungen, die bis ins Mittelalter zurückreichen. Dieser Mehr-ist-besser-Ansatz hat auch in der modernen Faktortheorie seine Anhänger gefunden. Mittels komplexer mathematischer Modelle werden Faktoren errechnet, die als Treiber verschiedener Ertragsstrategien und Risikobudgets dienen und im Rahmen der modernen Portfoliotheorie zu echter Diversifizierung führen sollen.
 
Doch ist dieser Datenquantitätsansatz wirklich der allein selig machende? Gerade im Faktoruniversum ist in den vergangenen Jahren immer häufiger Kritik an der ausufernden Masse an Faktoren aufgekommen. Von Scheinfaktoren ist da die Rede, der „Faktor-Zoo“ – nicht zuletzt von Faktor-Papst Rob Arnott (siehe Institutional Money Ausgabe 03/2016) so genannt – ist inzwischen zu einem geflügelten Wort geworden. Auch andere Schwergewichte wie Wirtschaftsnobelpreisträger Paul Romer (siehe Institutional Money Ausgabe 01/2019) kritisieren die „Mathiness“, also die Zahlen- und Datenverliebtheit des Fachs.
 
Couragierte Ansage
 
Für die Sloan School of Management des Massachusetts Institute of Technology haben Megan Czasonis und David Turkington, beide vom Fondsgiganten State Street, gemeinsam mit MIT-Mann und Co-Gründer der Windham Labs, Mark Kritzman, die Arbeit „Addition by Subtraction: A Better Way to Forecast Factor Returns (and Everything Else)“ vorgelegt. In dem Paper stellt Kritzman folgende Frage: „Was, wenn die zunehmenden Datenmengen einzelnen Beobachtungen zu viel Gewicht ­verleihen? Was, wenn gewisse historische Datenpunkte in Wirklichkeit ein statistisches Rauschen erzeugen, weil sie nicht besonders relevant sind?“ Dann könnte es sein, wie Czasonis, bei State Street Managing Director für das Portfolio and Risk ­Research Team, fortfährt, „dass tatsächlich wertvolle Information in einem Subset an Beobachtungen steckt, die jedoch von einer Masse an Beobachtungen mit weniger ­Relevanz quasi zugedeckt wird“.
 
Könnte man also diese relevanteren Subsets an Daten herausfiltern, würde man möglicherweise zwei Fliegen auf einen Streich erwischen: Zum Ersten wäre es nicht mehr notwendig, gewaltige Datenmengen zeit- und rechenaufwendig auszuwerten. Und zum Zweiten wären die Ergebnisse einer solchen Stichprobe möglicherweise relevanter und mit höherer Prognosekraft ausgestattet als die Auswertung des kompletten Datensets.
 
Für die Forscher steht also die Relevanz der Datenmenge und nicht deren Umfang im Vordergrund. „Und genau diese ‚Relevanz‘ definieren wir auf mathematisch ­präzise Art als die Summe von multivariater Ähnlichkeit und Informationsgrad“, wie MIT-Forscher Kritzman erklärt. 
 
Exotischer Ansatz
 
Errechnet wird die Relevanz unter Anwendung der Mahalanobis-Distanz, die per Definition „ein Maß für die Strecke zwischen zwei Punkten in einem Raum darstellt, der durch zwei korrelierte Variablen definiert wurde. Es ist eine multidimensionale Verallgemeinerung des Prinzips, die Distanz zwischen einem Punkt und dem Mittelwert einer Verteilung auszudrücken. Die Distanz ist hierbei die Anzahl der Standardabweichungen, die der Punkt vom ­Mittelwert der Verteilung entfernt liegt. Die Distanz ist null, wenn der Punkt dem Mittelwert entspricht“, wie in der vorliegenden Studie ausdefiniert wird. In unserem speziellen Fall sieht die Anwendung der Mahalanobis-Distanz folgendermaßen aus: 
 
d(xi, xt) = (xi – xt)Ω-1 (xi – xt)´
 
Hier beschreibt d die Distanz der Vektoren x, wobei xt den gegenwärtigen und xi den vergangenen Status umfasst. Ω-1 entspricht einer inversen kovariaten Matrix, die wiederum aus allen Vektoren der unabhängigen Variablen besteht. Das Symbol „´“ weist auf die Transponierung, also die Veränderung, der Matrix hin. 
 
Ähnlichkeit und …
 
Die multivariate Ähnlichkeit, die ja eine der Komponenten des Relevanzmaßes ausmacht, ist quasi das Gegenteil der Distanz zwischen xi und xt und stellt sich demzufolge so dar: 
 
d(xi, xt) = – (xi – xt)Ω-1 (xi – xt)´
 
Doch wenn es nur um Ähnlichkeiten ­ginge, bräuchte man mit der Mahalanobis-Distanz kein statistisches Werkzeug, das vor allem darin gut ist, Ausreißer und Sonderfälle zu vermessen.
 
… Informationsgrad
 
Dass dieser relativ exotische Ansatz trotzdem zum Tragen kommt, liegt an der Arbeits­these, wonach „Beobachtungen, die sich nahe an ihrem historischen Durchschnitt bewegen, viel stärker von statistischem Rauschen als von relevanten Ereignissen getrieben werden können“, erklärt David Turkington, bei State Street Head of Portfolio & Risk Research. „Hingegen sind Beobachtungen, die sich fern ihrer historischen Mittel und deshalb viel stärker anlassgetrieben sind, informativer.“ Demzufolge stellt sich der Informationsgrad einer Be­obachtung xi als multivariate Distanz von ihrem durchschnittlichen Wert dar:
 
Informationsgrad(xi) = xiΩ-1 x´i
 
Somit können wir abschließend einen ­Relevanz-Score errechnen, der Ähnlichkeit und Informationsgrad summiert und somit Perioden umfasst, die vergangenen Zeiträumen ähneln, sich aber vom historischen Durchschnitt abheben. Die entsprechende Formel (siehe Grafik „Ähnlich, aber nicht gleich relevant“) sieht folgendermaßen aus: 
 
Relevanz-Score(xi) = Ähnlichkeit(xi, xt) + Informationsgrad(xi)
 
Um zu prüfen, ob sich diese Methode in eine wissenschaftlich tragfähige Prognose ummünzen lässt, haben die Autoren ihren relevanzgewichteten Ansatz mit den Ergebnissen einer herkömmlichen OLS-(Ordinary Least Square)-Regression verglichen. Als Input dienten die hypothetischen Erträge zweier Variablen und der Marktertrag über sechs Zeitabschnitte. Der relevanzgewichtete Ansatz (siehe Chart „Relevanzgewichtete Prognose“) kam zu einer Prognose von 4,9 Prozent für den 6. Abschnitt. Die OLS-­Regression kam auf denselben Wert. 
 
Für die Autoren ist dieses Ergebnis eine veritable Errungenschaft: „Unseres Wissens nach verwenden weder Researcher noch Praktiker die Mahalanobis-Distanz für diese Art von Prognose. Wir kennen auch keine Ergebnisse, in denen ein Mahalanobis-basierter Ansatz die Ergebnisse einer linearen OLS-Regression exakt reproduziert.“ 
 
Effiziente Faktoranalyse
 
Solcherart ermutigt, wagen sich die Auto­ren nun an die eigentliche selbst gestellte Aufgabe: nämlich die Voraussage von Markterträgen über die Anwendung ­eines limitierten Datenuniversums. Hierfür teilen sie ihr Set in die 25 Prozent relevantesten, die 25 Prozent irrelevantesten und das restliche Gros der Daten ein. Analysiert werden die jähr­lichen Zeiträume von 1974 bis 2018. Untersucht werden sieben Kenneth- French-Faktoren: Equity – also S&P 500 minus Bloomberg Treasuries, Size, ­Value, Profitability, Investment, Momentum und Volatility. Mittels Regressionsanalyse wird der Zusammenhang mit ausgewählten makroökonomischen Daten hergestellt: Wirtschaftswachstum, Arbeitslosenquote, Inflation und Credit Spreads.
 
Anschließend werden die Faktoren gewich­tet und mit dem Relevanz-Score kombiniert. Als Beispiel sei der Value-Faktor angeführt (siehe Grafik „Wie der Faktor ‚Value‘ im Relevanzansatz vermessen und eingesetzt wird“): Der reine Relevanz-Score zeigt, dass die relevantesten Perioden verstärkt nach 2014 auftreten. Diese hohe Rele­vanz fällt mit der Schwächeperiode des ­Value-Faktors zusammen, am Ende erfolgt die Performance des relevanzgewichteten Value-Ertrags. Führt man nun die Regres­sionsgleichung über den gesamten Zeitraum durch, so kommt man auf einen Prognosewert von minus 3,4 Prozent für den nächsten Beobachtungszeitraum, die Prognose, die sich aus der Hochrechnung mit den rele­vantesten Werten ergibt, kommt auf eine ­Value-Per­formance von minus 4,1 Prozent, der irrelevanteste Datensatz prognostiziert minus 0,3 Prozent. 
 
Das bedeutet, dass die stark reduzierte ­relevante Stichprobe ziemlich ähnliche Prognosen abwirft wie die umfangreiche Regres­sion – ein theoretisches Ergebnis, das sich mit dem bereits beschriebenen Testlauf deckt. Doch wie zuverlässig sind die Vermessungen nun, wenn man die Nagelprobe macht und sie an tatsächlich eingetretenen Ereignissen misst? Um das zu eruieren, ­haben die Forscher eine Korrelationsmatrix zu den einzelnen Faktoren erstellt (siehe ­Tabelle „Hoch relevante Ergebnisse“). Gegenübergestellt wurden die Korrelationen der historisch tatsächlich eingetretenen individuellen Faktorerträge jenen einer komplett umfänglichen Regression und den gefilterten hoch relevanten und hoch irrelevanten Ergebnissen – der Vergleich ist für die ­Autoren ermutigend: Denn die Korrelation zwischen tatsächlich erfolgtem Ertrag und den Ergebnissen der hoch relevanten Datenmenge sind durchgängig stärker als bei den Regressionen unter Verwendung der gesamten Datenmenge. 
 
Auch die statistische Relevanz ist in den meisten Fällen durchaus zufriedenstellend, „wenn wir auch eingestehen müssen, dass es einige Verhältnisse gibt, die insignifikant sind. Das lässt den Schluss zu, dass gewisse Faktoren wie die Profitabilität weniger auf ökonomische Rahmenbedingungen reagieren als andere“, erklärt Kritzman. Tatsächlich erreicht der P-Wert bei „Profitabilität“ 0,84. Diese Insignifikanz ist für die Regression mit 0,93 aber noch höher und spricht für die These Kritzmans, wonach die zugrunde liegenden Rahmenbedingungen bei der Auswahl der Variablen und nicht die Methode selbst zu den schwachen Ergebnissen führen.
Somit kann der Schluss gezogen werden, dass die Methode der Hochrechnung aus quantitativ begrenzten hoch relevanten Datenmengen „unter bestimmten Rahmenbedingung besser funktioniert als die Regres­sion von möglichst umfangreichen Datenuniversen“, wie Turkington meint. Er schränkt aber ein, dass „wir nicht behaupten, dass unsere Methode überall die bessere ­Lösung ist. Aber in Settings, in denen die Daten weder stationär noch normalverteilt sind und für die je nach historischer Periode signifikante Unterschiede bestehen, können wir unsere Methode empfehlen“, so das ­Resümee des Forschers.
 
Hans Weitmayr 

Anhang:

twitterlinkedInXING
 Schliessen

Mit der Nutzung dieser Website stimmen Sie der Verwendung von Cookies und unserer Datenschutzerklärung zu. Mehr erfahren