Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:

Steigendes Interesse am Biotechsektor

Ad

Der Biotechsektor verzeichnet im 3. Quartal Kapitalzuflüsse. Im Rahmen des aktiven Anlagestils setzt BB Biotech neue Schwerpunkte im Portfolio und investiert vermehrt in neue Technologien mit Wachstumspotenzial.

Anzeige
| Theorie
twitterlinkedInXING

Faktor Investing: So setzt AXA IM Rosenberg Equities diesen Ansatz um

Der Europa-CIO von AXA IM Rosenberg Equities erläutert, auf welchen Grundlagen ein erfolgreicher Faktor Investing-Ansatz fußt und wie sein Haus das Thema Faktor Investing in der Praxis umsetzt.

smith_gideon_axa-im_querformat_www_2018_erhalten.jpg
Gideon Smith, Europa-CIO von AXA IM Rosenberg Equities
© AXA IM

Bewertung, Qualität, niedrige Volatilität und Marktstimmung sind in der Regel die Grundlagen von Factor Investing, also eines Anlagegrundsatzes, der auf Basis bestimmter Faktoren in Aktien investiert. Nach Ansicht von Gideon Smith, Europa-CIO von AXA IM Rosenberg Equities, enthalten Faktoren Informationen über den zukünftigen Erfolg eines Unternehmens. „Bewertung und Qualität helfen uns, stabile, unterbewertete Unternehmen zu finden. Und Faktoren wie Marktstimmung können dazu beitragen, Unternehmen zu identifizieren, die hohes Wachstum und Erfolge erwarten lassen“, so Smith. Die Kunst beim Factor Investing sei es, eben diese Informationen deuten zu können. Dabei verlassen die Rosenberg-Experten sich nicht allein auf Fundamentaldaten, sondern greifen auf unterschiedliche Modelle künstlicher Intelligenz zurück.

Research als Basis
„Die erste Voraussetzung für erfolgreiches Factor Investing ist, dass es aktiv und researchorientiert ist, da es Erträge über die Rendite einer – meist effizienten – Marktbenchmark erwirtschaften muss“, erläutert Smith. Jeder Faktorstrategie gehe ein Versprechen voraus, etwa eine Wertentwicklung über der Benchmark, höhere Dividenden oder weniger Konjunktursensitivität. Ein Beispiel für ein Faktorportfolio sei die beliebte Low-Volatility-Strategie. Es verspricht unterdurchschnittliche Kursvolatilität – durch die Auswahl von Aktien, die im Schnitt weniger schwanken. „Um solche Grundlagen in Faktoren zu überführen und dann diversifizierte Portfolios zusammenzustellen, sind Investmentkompetenz, fundierte Analysen und korrekte Daten unumgänglich“, so der Experte.

Fundamentaldaten und Statistik
Um beispielsweise die zukünftige Aktienkursvolatilität zu prognostizieren, müsse mitunter vorausgesehen werden, wie erfolgreich oder erfolglos ein Unternehmen sein wird. Dies geschieht Smith zufolge mithilfe von Fundamentaldaten. „Doch zweifellos ist auch eine gewisse Modellierungskompetenz nötig. Wie schwer zukünftige Unternehmenserfolge zu prognostizieren sind, sieht man am Beispiel von Next, einem britischen Einzelhandelsunternehmen, dessen Kursvolatilität 2016 und 2017 deutlich gestiegen ist. Next litt unter der höheren Inflation aufgrund der Pfundschwäche nach dem Brexit-Referendum. Hinzu kamen Sektorverschiebungen; es wurde weniger Bekleidung gekauft“, erläutert Smith.

Volatilitätssprünge sind dem Experten zufolge nur schwer zu antizipieren und alles andere als linear. Empirische Modelle, die auch mit ungewöhnlichen nichtlinearen Ergebnissen fertig werden, können hier Abhilfe schaffen. Rosenberg nutzt dazu zwei unterschiedliche Algorithmen: künstliche neuronale Netze und das Random-Forest-Modell. Während erstere mithilfe von plausiblen Inputvariablen eine bestimmte Entwicklung vorhersagen, erweist sich zweiteres als sehr effizient, wenn es darum geht, in großen Datenmengen wichtige Zusammenhänge herauszufiltern. „Mit dieser Form des maschinellen Lernens können wir Aktien finden, bei denen Volatilitätssprünge zu erwarten sind. Darauf schließen wir sie aus den niedrigvolatilen Portfolios aus, um beste Ergebnisse zu erzielen.“

Maschinelles Lernen als Ergänzung
Die Analyse auf Basis dieser Techniken habe bereits zu einer deutlichen Verbesserung gegenüber einem einfacheren linearen Modell geführt. „In Backtests erwies sich das naive Modell bei der Prognose extremer Erträge in 73 Prozent aller Fälle als richtig. Mit den Techniken des maschinellen Lernens ließ sich die Quote auf 86 Prozent steigern, also um 13 Prozentpunkte“, berichtet Smith.

Modernere Techniken der Dateninterpretation können dem Experten zufolge also einen traditionelleren, eher fundamentalen quantitativen Modellansatz verbessern. „Wir meinen, dass die Anwendung solcher Techniken zu neuen Erkenntnissen führen kann, wenn es keinen etablierten ökonomischen Rahmen für statistische Zusammenhänge gibt. Allerdings muss der Analyst akzeptieren, dass die Daten den statistischen Modellzusammenhang festlegen“, so Smith.

Wichtig sei daher Transparenz bei der Nutzung und die Pflege dieser Techniken. „Die genannten Modelle sind durch öffentliche Code-Bibliotheken leicht zugänglich, aber ihre Interpretation und ihr Nutzen für Vermögensmanagement- und Altersvorsorgesysteme müssen klar sein. Erst dann ist eine praktische Anwendung möglich“, schließt der Europa-CIO von AXA IM Rosenberg Equities. (aa)

 

twitterlinkedInXING

News

 Schliessen