Von wegen „sofort“
Der Theorie nach werden öffentliche Informationen sofort eingepreist. Doch in der Praxis ist das nicht der Fall, wie eine neue Studie zeigt. Deshalb kann deren geschickte Analyse ein entscheidender Performancefaktor sein.

In der traditionellen Kapitalmarktforschung gibt es vereinfachende Annahmen, die kaum hinterfragt werden. Eine davon ist, dass öffentliche Informationen allen Marktteilnehmern gleichermaßen frei zur Verfügung stehen und bei Bekanntwerden quasi sofort eingepreist sind. Das entspricht der mittelstrengen Form der Markteffizienz. Ist diese erfüllt, können Anleger mittels fundamentaler Analyse keine systematischen Überrenditen mehr erzielen. Viele gehen davon aus, dass das in der Praxis weitgehend der Fall ist. Dazu passen auch Studienergebnisse, die große Teile der Überrenditen von Managern auf Zufall oder Glück zurückführen.
Doch es gibt Ausnahmen. Mitunter können kleine Gruppen von Managern identifiziert werden, bei denen es Hinweise auf eine Beständigkeit der Performance gibt. Mögliche Gründe, warum sie besser abschneiden, sind vorherige Branchenerfahrung, fokussierte Wechsel zwischen Aktienauswahl und Market Timing oder Spezialisierung auf konkrete Regionen. Eine weitere Möglichkeit ist der Zugang zu privaten Insiderinformationen. Intuitiv scheint diese Erklärung nachvollziehbar. Denn viele Investoren fragen sich: Wie sollte sonst ein Vorteil erzielt werden, wenn nur auf Basis öffentlicher Informationen gehandelt wird, die bereits eingepreist sind?
Ein Paradoxon
Aus Sicht der Effizienzmarkttheorie ist diese Frage berechtigt. Demnach sollte es eben nicht möglich sein, allein mit öffentlich verfügbaren Informationen eine Überrendite zu erzielen. Doch es gibt ein Paradoxon: Wer sorgt eigentlich dafür, dass die Preise stets so effizient sind, und wie werden die dafür verantwortlichen Marktteilnehmer bezahlt? Sie müssten zumindest ihre Kosten und eine Extra-Rendite verdienen, um diese Aufgabe zu übernehmen. Andernfalls würde es sich nicht lohnen, überhaupt Zeit und Energie darin zu investieren, für effiziente Kurse zu sorgen.
Diese Argumentation bildet den Grundstein des sogenannten „Informationsparadoxons“. Sanford Grossman und Joseph Stiglitz stellten es im Jahr 1980 in ihrem Paper „On the Impossibility of Informationally Efficient Markets“ vor. Demnach ist es unmöglich, dass die Märkte immer alle verfügbaren Informationen vollständig und angemessen einpreisen. Vor allem die mit der Informationsverarbeitung verbundenen Kosten sowie das Erzeugen zuverlässiger Handelssignale dürften dabei eine Rolle spielen. Aus diesem Grund scheint es durchaus nachvollziehbar, dass Manager, die bei der Analyse von öffentlichen Daten und dem darauf basierten Handel besonders geschickt sind, Vorteile erzielen können.
Neue Studie
Es gibt zwar bereits Untersuchungen, die Belege dafür liefern, dass Signale auf Basis öffentlicher Informationen scheinbar Renditen vorhersagen können. Doch bislang war unklar, ob Manager, die in der Praxis mit verschiedenen Einschränkungen konfrontiert sind, ihre Performance durch einen stärkeren Fokus auf diese Inputs tatsächlich hätten nennenswert verbessern können. Doch genau das verdeutlicht nun eine neue Studie.
Die vier Forscher Ed deHaan, Chanseok Lee und Suzie Noh (alle Stanford University) sowie Miao Liu (Boston College) schreiben, dass die geschickte Nutzung öffentlicher Daten wie zum Beispiel Buchhaltungs- und Marktberichte durch erfahrene Manager tatsächlich eine Alpha-Quelle sein kann („The Shadow Value of ,Public‘ Information: Evidence from Mutual Fund Managers“).
Der KI-Analyst
Die empirische Untersuchung beginnt damit, dass die Forscher einen auf künstlicher Intelligenz basierten Analysten entwickeln. Dieser unterliegt denselben Beschränkungen wie menschliche Fondsmanager, was die Portfoliozusammensetzung angeht. Zum Beispiel sind bestimmte Anlagestile wie Large Cap oder Growth sowie Risikokriterien einzuhalten. Außerdem werden die Größe des Portfolios sowie damit verbundene Handelsfriktionen berücksichtigt. Das Ziel ist ein möglichst praxisnahes Modell.
Der entscheidende Unterschied zum Menschen: Der KI-Analyst ist besonders geschickt in der Verarbeitung öffentlicher Informationen. Er verwendet nur Daten etwa von Compustat, die auch realen Fondsmanagern in Echtzeit zur Verfügung standen. Allerdings kann die KI diese zu deutlich geringeren Kosten analysieren, als es in der Vergangenheit tatsächlich möglich war.
Die Autoren verwenden für den KI-Analysten insgesamt 170 Input-Variablen, darunter Aktienmarkt- und Makro-Daten, Analysteneinschätzungen und Ergebnisberichte der einzelnen Unternehmen. Dabei wird sichergestellt, dass die jeweiligen Daten tatsächlich bereits öffentlich verfügbar waren, um den Look-Ahead Bias zu vermeiden. Ein solcher Vorausschaufehler würde vorliegen, wenn Daten oder Informationen, die zum jeweiligen vergangenen Betrachtungszeitpunkt noch nicht bekannt waren, in der rückblickenden Betrachtung fälschlicherweise einbezogen werden.
Verbesserte Portfolios
Auf Basis ihrer Inputs versucht die KI, die Aktienauswahl der Fondsmanager zu Beginn jedes Quartals selektiv zu verbessern und dadurch bessere Ergebnisse zu erzielen. Dabei verwenden die Forscher ein Random-Forest-Modell, um benchmarkbereinigte Renditen vorherzusagen. Alternativ führte auch die Nutzung von neuronalen Netzen zu ähnlichen Ergebnissen. Ein großes Sprachmodell wie GPT wird dagegen nicht eingesetzt, da zu befürchten ist, dass durch deren Training mit aktuelleren Daten ein Look-Ahead Bias entsteht.
Konkret ersetzt der KI-Analyst Aktien der menschlichen Manager, die er als schlecht oder mittelmäßig einstuft, durch ähnliche Positionen, die eine Outperformance erwarten lassen. Zum Abgleich der Charakteristik werden dabei Faktoren wie Size, Buchwert/Marktwert-Verhältnis und Momentum verwendet. Schlechte Aktien, für die es keine ähnlichen Titel als Ersatz gibt, werden in Indexanlagen getauscht. Im Mittel unterscheidet sich am Ende der Prozedur etwa die Hälfte der Aktien zwischen ursprünglichem und modifiziertem Zustand.
Das Ergebnis sind Portfolios, die Manager hätten aufbauen können, wenn sie die gleichen Möglichkeiten zur Analyse gehabt hätten wie die KI. Aufgrund der relativ realitätsnahen Modellierung gehen die Forscher davon aus, dass ihre Simulationen eine glaubwürdige Schätzung des möglichen Mehrwerts öffentlicher Informationen darstellen.
Ergebnisse
Die untersuchte Stichprobe umfasst 3.337 aktiv gemanagte US-Aktienfonds im Zeitraum von 1990 bis 2020. Es werden um den Survivorship Bias bereinigte Daten des Center for Research in Security Prices (CRSP) verwendet.
Als Erstes berechnen die Forscher die benchmarkbereinigte Performance der Manager. Dazu ziehen sie die mittleren Renditen einer Vergleichsgruppe von Aktien ab, deren Merkmale hinsichtlich Size, Buchwert/Marktwert-Verhältnis und Momentum jeweils übereinstimmen. Das Ergebnis: Der durchschnittliche Manager erzielt vor Kosten ein Alpha von 2,8 Millionen US-Dollar pro Quartal (Median: –0,1 Mio. USD). Die Werte beziehen sich auf die Kaufkraft des Jahres 2022.
Spannend wird es nun beim KI-Analysten. Die dadurch verbesserten Portfolios erzielten zusätzlich zu den 2,8 Millionen US-Dollar der menschlichen Manager ein durchschnittliches Quartals-Alpha von 15,1 Millionen US-Dollar. Dabei schnitten 91 Prozent der durch die KI verbesserten Portfolios über den Gesamtzeitraum besser ab als menschliche Manager. Gleichzeitig zeigen die Autoren die praktischen Grenzen des Verbesserungspotenzials. Denn im Vergleich zum praxisnahen KI-Analysten, der den gleichen Beschränkungen der Portfoliozusammensetzung unterliegt wie reale Fondsmanager, konnten Modelle ohne die wichtigsten Beschränkungen das Doppelte an Alpha erzielen. Dies wäre aber in der Praxis so nicht umsetzbar gewesen.
In einer weiteren Untersuchung stellen die Forscher den KI-Analysten so ein, dass er die realen Portfolios nicht nur verbessert, sondern komplett ersetzt. Dabei wird der Teil des Portfolios, der nicht mit vergleichbaren Aktien des laut KI besten erwarteten Renditedezils bestückt werden kann, durch Indizes abgebildet. Anders als zuvor basiert dieses Portfolio vollständig auf öffentlichen Informationen, da alle Aktien der Manager ersetzt werden, bei denen möglicherweise auch private Informationen eine Rolle gespielt haben. Das Ergebnis liegt mit einem Alpha von 15,3 Millionen US-Dollar pro Quartal auf Höhe der bloßen Verbesserungen. Allerdings stecken nun im Mittel 42 Prozent der Portfolios in Indizes, da die KI nicht genügend wirklich aussichtsreiche Ersatzkandidaten ausfindig machen kann. Der Grund ist, dass die Positionsgrößen des Modells denen der realen Manager entsprechen, um die Ergebnisse vergleichbar zu halten. Das ermittelte Alpha dürfte also eine konservative Schätzung des Potenzials sein, das die KI in öffentlichen Informationen finden kann.
Abnehmendes Alpha
Es ist aber auch zu beobachten, dass die erzielte Outperformance des KI-Analysten im Zeitablauf abnimmt (siehe Grafik „Mensch vs. Maschine“). Das entspricht der allgemeinen Vorstellung, dass Informationen im Lauf der Zeit besser eingepreist und die Märkte effizienter werden. Andererseits dürften sich die Fähigkeiten der KI verbessern. Eine erneute Durchführung der Untersuchungen in einigen Jahren würde dann zu höheren Schätzungen führen. Den gleichen Effekt zeigt bereits heute eine Kombination des Random-Forest-Modells mit einem neuronalen Netz. Hieraus resultiert eine höhere Outperformance von 18,9 Millionen US-Dollar pro Quartal.
Interessant ist zudem, dass von den verwendeten Input-Variablen des KI-Analysten vor allem einfache Kennzahlen großen Einfluss haben (siehe Tabelle „Einfache Kennzahlen dominieren“). Die Vorhersagbarkeit der Modellrenditen beruht also nicht auf komplexen Inputs, die Managern in der realen Welt möglicherweise nicht bekannt waren. Insgesamt dürften die Simulationen also eine realistische Annäherung an das tatsächliche Potenzial öffentlicher Informationen sein. Dabei spielen neben den offensichtlichen Kosten für das Ermitteln von Aktienbewertungen und Signalen auch subtile Kosten eine Rolle, sei es zur Entwicklung neuer Handelsstrategien, zur Vermeidung kontraproduktiver menschlicher Verhaltenseffekte, zum Anwerben qualifizierter Mitarbeiter oder zur Einführung neuer Technologien. All diese Bereiche können direkte oder indirekte Hürden zur Einpreisung öffentlicher Informationen darstellen.
Ungenutztes Alpha-Potenzial
Es ist keine Selbstverständlichkeit, dass öffentliche Informationen wie von Zauberhand beschafft, verarbeitet und eingepreist werden. Hinter all dem stecken Arbeit, Zeitaufwand und Kosten. Darauf deuten die Simulationsergebnisse hin, die ein erhebliches ungenutztes Alpha bei öffentlichen Informationen nahelegen. Damit wären die Märkte ineffizient im Sinne der klassischen mittelstrengen Definition. Deshalb können einzelne Manager durchaus Skills aufbauen, die ihnen gewisse, im besten Fall beständige Performancevorteile ermöglichen. Das wiederum eröffnet einen neuen Erklärungsansatz für die Performance-Persistenz ausgewählter Manager.
Für die Praxis bedeuten die Ergebnisse auch, dass KI in Zukunft eine größere Rolle bei der Beschaffung und Verarbeitung von Informationen sowie beim Erzeugen aussichtsreicher Handelssignale spielen dürfte. Das könnte menschliche Portfoliomanager zurückdrängen – insbesondere wenn zunehmende Teile der öffentlichen Informationspalette „automatisch“ durch KI abgedeckt werden. Doch was, wenn in Zukunft alle Marktteilnehmer mit der KI arbeiten? Dann würde das ungenutzte Alpha wohl weiter abnehmen und irgendwann ganz verschwinden. Die Märkte würden also effizienter. Es sei denn, der kollektive Fokus auf ähnliche Informationen würde zu einer Überreaktion führen. Wirkliche Effizienz, wie sie die Kapitalmarkttheorie annimmt, dürfte also auch mit KI noch in weiter Ferne liegen. Deshalb sollte man menschliche Expertise vorerst nicht abschreiben.
Dr. Marko Gränitz