Logo von Institutional Money
3/2025 | Theorie & Praxis

Zu viel des Guten

Übersteigt die Zahl der marktteilnehmenden KIs eine gewisse Grenze, so verschlechtert sich die Datenqualität für den gesamten Markt – das geht ­zumindest aus den Resultaten einer neuen Studie hervor.

Oftmals erreicht man durch Masse Synergien. Im Bereich der KI-Anwendungen könnte aber das Gegenteil der Fall sein. Die massenhafte Generierung von Daten durch KI-Bots droht die Qualität der Daten zu verschlechtern. Das kann auch an den Finanzmärkten zu einer teilweisen Verschlechterung der Struktur führen. 
Oftmals erreicht man durch Masse Synergien. Im Bereich der KI-Anwendungen könnte aber das Gegenteil der Fall sein. Die massenhafte Generierung von Daten durch KI-Bots droht die Qualität der Daten zu verschlechtern. Das kann auch an den Finanzmärkten zu einer teilweisen Verschlechterung der Struktur führen. © muhammad | stock.adobe.com

Künstliche Intelligenz als Entscheidungsträger ist im Markt schon längst flächendeckend angekommen. Mit der zunehmenden Verbreitung drängt sich jedoch die Frage auf, wie die Durchsetzung mit KI-basierten Handelsstrategien die Marktstruktur und jene Renditemuster, die die KIs ursprünglich zu nutzen versuchten, beeinträchtigt. Trägt künstliche Intelligenz zu stabileren, effizienteren Märkten bei – oder schafft sie neue Friktionen, die die Marktqualität mindern?

Ivan Gufler von der Luiss University, Francesco Sangiorgi von der Frankfurt School of Finance and Management und Emanuele Tarantino, der sowohl für die Luiss University als auch für die EU-Kommission tätig ist, haben sich in der ­Arbeit „(Deep) Learning to Trade: An Experimental Analysis of AI Trading and Market Outcomes“ genau dieser Frage ­angenommen. Dazu eines vorweg: Laut den Autoren liegt ein Kernproblem von am Markt teilnehmenden AI-Modellen im Lernen selbst.

Interdisziplinäre Lektion

In der Informatik ist seit Langem bekannt, dass Algorithmen, die auf Reinforced Learning beruhen, in Mehr-Agenten-Systemen an ihre Grenzen stoßen. Sobald mehrere ­Akteure gleichzeitig lernen, wird das Umfeld instabil. Jeder Agent beeinflusst mit seinen Handlungen die Signale, aus denen andere wiederum lernen. Übertragen auf Finanzmärkte bedeutet dies: Preisbewegungen spiegeln nicht nur fundamentale Informationen wider, sondern auch das ­Rauschen, das aus den Lernprozessen anderer Algorithmen entsteht.

Dieses Phänomen bezeichnen die Autoren als Lernexternalität – und es könnte den Markterfolg der KI-Händler ebenso schmälern wie die Systemstabilität insgesamt. Ähnliche Effekte kann man auch in breit gefassten Anwendungen, also den diversen großen Chat-KIs, beobachten, deren Leistungen sich zuletzt nicht mehr verbessert haben. Auch hier dürfte sich die Qualität der Daten aufgrund des KI-­Inputs verschlechtern und nach unten lizitieren.

KIs im Markt: Das Experiment

Um herauszufinden, ob dies im Finanzmarkt ebenfalls passieren kann, haben die Autoren KI-Trader, modelliert über Deep Reinforcement Learning, in ein kalibriertes ­Asset-Pricing-Modell eingebettet. Akteure reagieren in Echtzeit auf Preise, die wiederum durch ihr eigenes Verhalten mitbestimmt werden. Damit entsteht ein endogenes Gleich­gewicht, in dem Lernprozesse, Handelsstrategien und Preisbildung miteinander verwoben sind.

Das Modell stützt sich auf den Ansatz einer nachfrage­basierten Bewertung, bei der die Asset-Nachfrage institutioneller Investoren aus realen Daten kalibriert wird: Analysiert werden in diesem Zusammenhang zehn US-Aktien mit unterschiedlichen fundamentalen Merkmalen: IBM, American Express, ABM Industries, Ameren, Weyco Group, General Mills, Coca-Cola, Loews, J. M. Smucker und Arrow Electronics. Die KI-Agenten müssen nun ohne Vorwissen – allein durch Erfahrung – lernen, wie sie Portfolios optimieren. Das wiederum hat entsprechende Rückwirkungen auf Preise und damit auf ihre Lernsignale.

Die Ergebnisse sind auf den ersten Blick ermutigend. Die KI-Agenten entwickeln Strategien, die qualitativ eng am theoretischen Optimum liegen. Ihre Portfoliogewichtungen steigen mit den relevanten Marktsignalen, sinken mit wachsender eigener Größe und passen sich nach Maßgabe der Konkurrenz an. Auch die Marktqualität profitiert zunächst: Effizienz und Liquidität verbessern sich. So wird die Vorhersagbarkeit reduziert, was darauf hindeutet, dass die Kurse ­einen großen Teil der verfügbaren Information bereits eingepreist haben. Außerdem werden Preisschocks besser ­absorbiert. Dazu Gufler: „KI-Händler verbessern zunächst die Marktergebnisse: Sie steigern die Effizienz und erhöhen die Liquidität.“

Doch mit zunehmender Verbreitung der KI-Händler weichen ihre Entscheidungen quantitativ von der Benchmark ab. Sie reduzieren ihre Exponierung bei wachsendem Marktanteil nicht ausreichend und erhöhen Positionen bei stärkerem Wettbewerb über Gebühr. Die Folge:?„Preise reagieren empfindlicher auf temporäre Schocks, und die Portfolioerträge fallen hinter das theoretisch mögliche Niveau zurück“, wie Sangiorgi ausführt.

Lernexternalität mindert Leistung

Die Ursache dieser Verzerrungen liegt in der angesprochenen Lernexternalität. Jeder Trade eines Agenten verändert die Preissignale, die anderen Marktteilnehmern zur Verfügung stehen. Da keiner die Identität oder Strategie der Teilnehmer kennt, kann das Rauschen nicht isoliert werden. Sangiorgi führt aus: „Jeder explorative Handelsschritt eines Agenten führt zu nicht stationären Preisbewegungen, die die für andere Akteure verfügbaren Lernsignale verfälschen.“ ­Gemeint ist damit, dass ein einzelner Algorithmus durch ­seine Test- und Lernschritte Preisbewegungen erzeugt, die für andere Händler wie echte Informationssignale aussehen – obwohl sie in Wahrheit nur künstliches Rauschen darstellen. So wird der Lernprozess aller Beteiligten verschlechtert, weil sie falsche Rückschlüsse ziehen und Strategien auf vermeintlich echte Marktsignale kalibrieren, die in Wirklichkeit aber nur von den Experimenten anderer KI-Agenten verursacht wurden. Damit wird aus einem Instrument zur Effizienzsteigerung ein Störfaktor, der sowohl die individuelle Performance wie auch die kollektive Marktqualität belastet.

Entscheidungsfindung

Doch wie kommen diese Entscheidungen überhaupt ­zustande? Wie steuern KI-basierte Händler ihre Portfolios, und welche Folgen hat dies für Renditen, Effizienz, Liquidität und Volatilität? Hier lohnt es sich, zunächst unterschiedliche Portfolioansätze und die außerstichprobenhaften ­Erträge zu untersuchen und sich in einem zweiten Schritt deren Rückwirkungen auf die Marktqualität anzusehen. Da zeigt sich zunächst, dass ein einzelner KI-Händler mit ­moderatem Preis­einfluss sehr nah an das rationale Benchmarkmodell heranreicht (siehe Chartbild „Gewichtungen im Vergleich“, erste Zeile).

In dieser Konstellation erzielt er rund 84 Prozent der Renditen, die von der rationalen Benchmark erzielt werden – Letztere besteht wiederum aus Akteuren, die über vollständiges Wissen über den datengenerierenden Prozess verfügen: Sie kennen die Preisbildungsregel, verstehen die Dynamik von Unternehmenskennzahlen und latenter Nachfrage und können aus den beobachteten Preisen exakt auf die zugrunde liegenden Signale schließen. Ihre Portfoliopolitik ist damit die optimale Lösung: Sie internalisieren Preiswirkungen, handeln aggressiv auf vorhersehbare Renditen und eliminieren Vorhersagbarkeit so weit wie möglich.

Untersucht man vor diesem Hintergrund den Zusammenhang zwischen dem hinreichenden Statistiksignal Z, ­also der im Markt vorhandenen Information auf der einen Seite und den Portfoliogewichten auf der anderen Seite, ­erhärten sich die bisher aufgestellten Thesen (siehe das restliche Chartbild „Gewichtungen im Vergleich“).

Sowohl bei der rationalen Benchmark als auch bei den KI-Händlern steigen die Gewichte streng monoton mit Z. Das kommt aus Sicht des Autorenteams nicht unerwartet: Ein höheres Signal weist auf größere erwartete Kapitalgewinne hin, entsprechend wächst die Allokation in den riskanten Titeln. Doch die Abweichungen von der Benchmark sind unübersehbar. Die Kurven der KI-Händler verlaufen flacher als die der rationalen Benchmark und liegen durchgehend unterhalb besagter Benchmarklinie.

Potenzial nicht ausgeschöpft

Die Einschätzung von Sangiorgi lautet in diesem Zusammenhang:?„Die KI-Trader verstehen die Richtung, aber nicht die volle Größenordnung.“ Das bedeutet, dass die KI zwar erkennt, dass steigende Signale höhere Gewichtungen rechtfertigen, aber systematisch die Notwendigkeit unterschätzt, diese in vollem Umfang umzusetzen. Nimmt die Portfoliogröße zu, reduzieren zwar sowohl die Benchmark als auch die KI ihre Gewichte, doch die KI reagiert zu schwach – ein Zeichen dafür, dass die Preiswirkung nicht vollständig internalisiert wird. Steigt hingegen die Zahl der konkurrierenden Händler bei konstantem Gesamtkapital, handeln beide ­aggressiver. Doch auch hier zeigt sich ein Muster: Die KI überschießt und erhöht ihre Positionen stärker als das rationale Modell. Das Hauptproblem:?Je mehr Agenten auftreten, desto deutlicher wird dieser Überschuss.

Die KI leitet ihre Entscheidungen also nicht nur aus dem Signal Z ab – ganz im Gegensatz zum rationalen Modell, in dem die optimale Allokation ausschließlich von Z abhängt. KI-Strategien reagieren auch auf irrelevante Variationen im Informationsset. Die Portfoliogewichte schwanken merklich, obwohl Z konstant bleibt. Dies zeigt, dass die Algorithmen die Information nicht vollständig verdichten, sondern das Rauschen verarbeiten, das für die Entscheidungsfindung ­eigentlich irrelevant ist.

Die quantitative Abweichung von der Benchmark weist dabei auf eine tieferliegende Ursache hin: die bereits erwähnte Lernexternalität. Wir erinnern uns: Das modellfreie Lernen der KI bedeutet, dass sie keine strukturelle Vorstellung davon hat, wie ihr eigenes Handeln Preise beeinflusst. Stattdessen orientiert sie sich ausschließlich an beobachteten Erträgen. Wenn mehrere Agenten gleichzeitig experimentieren, verzerrt jeder von ihnen die Preissignale, die den anderen als Lernbasis dienen. Das Ergebnis ist ein verfälschtes Feedback, das es erschwert, zwischen eigenem Preiseffekt und kollektiver Dynamik zu unterscheiden. Schon geringfügige Abweichungen vom optimalen Portfolio wiegen schwerer, da die Ertragsfunktion mit der Positionsgröße zunehmend gekrümmt wird. „Die Performance kann erheblich sinken, sobald KI-Agenten gemeinsam interagieren, lernen und ihre Portfolios an Größe gewinnen“, so Tarantino.

Deutliches Liquiditätsproblem

Besonders deutlich erscheinen die Defizite bei der Markt­liquidität. Während rationale Investoren Preisrückgänge als temporären Schock erkennen, antizyklisch kaufen und ­damit Liquidität bereitstellen, reagieren KI-Händler zurückhaltend. Sie deuten den Preisrückgang fälschlicherweise als Zeichen sinkender Nachfrage und handeln nur partiell ­dagegen. Die Folge: ein systematischer Liquiditätsmangel. Dazu Tarantino: „Die Liquidität ist um eine Größenordnung geringer als bei der Benchmark. Die Erklärung dafür liegt darin, dass in der rationalen Benchmark die Händler den vorübergehenden Charakter des Schocks erkennen und die Preisumkehr in der folgenden Periode antizipieren, ­sodass sie aggressiv kaufen, um von der erwarteten Korrektur zu profitieren. Im Gegensatz dazu deutet die KI den anfänglichen Preisrückgang als Signal für eine verringerte latente Nachfrage, die nur teilweise durch Mittelwertumkehr kompensiert wird.“ Besonders bemerkenswert erscheint in diesem Zusammenhang, dass in Extremszenarien mit hoher Kapitalisierung mehrerer KI-Agenten die Liquidität sogar unter das Niveau eines Marktes ganz ohne KI-Händler fällt.

Auch bei den Schwankungen zeigt sich ein ähnliches Muster: Rational handelnde Investoren glätten die Volatilität, indem sie die Mittelwertumkehr ausnutzen. KI-Agenten ­weisen diese Tendenz ebenfalls auf, doch abermals auf eine weniger ausgeprägte Weise. Insgesamt bleibt das Gesamtbild also ambivalent: Die Renditen einzelner Agenten können zwar nah an optimalen Strategien liegen – doch sobald ­Größe und Interaktion in einem stärkeren Maß ins Spiel kommen, verstärken sich Lernfriktionen, was wiederum zu persistenten Leistungsdefiziten führt. Strukturelles Wissen, etwa über die Natur temporärer Schocks, kann durch reine Mustererkennung nicht ersetzt werden.

Abwärtsspirale?

Kritisch könnte man an dieser Stelle anführen, dass die ­negativen Ergebnisse der KI teils aus einem Vergleich mit ­einer hochtheoretischen Benchmark entstehen. Das stimmt zum Teil natürlich. Kein Marktteilnehmer verfügt über ­absolutes Marktwissen, auch menschliche Händler würden in einem derartigen Setting schlechter abschneiden als die Benchmark.

Was aber nachdenklich stimmt, ist, dass sich die Leistung der KI mit zunehmender Marktteilnahme de facto verschlechtert – ganz egal ob man eine Benchmark zum Vergleich heranzieht oder nicht. Wie bereits erwähnt, scheint man dieses Phänomen auch bei allgemeinen KI-Anwendungen abseits der Finanzmärkte zu beobachten:?Eine KI erzeugt Fehlsignale, anhand derer sich andere KIs trainieren. Mit Zunahme der KI-Signale, die theoretisch Richtung ­unendlich gehen könnten – unendliche Energieversorgung vorausgesetzt –, wird die Qualität der Trainingsdaten zusehends schlechter.

Man befindet sich also möglicherweise in einer Abwärtsspirale. Kein Wunder, dass manche KI-Anbieter dazu übergegangen sind, ihre Modelle mit einer Bias zu trainieren, die ganz oder zum Teil auf Daten aus der Zeit vor ChatGPT stammt – also Sets, die nicht KI-kontaminiert sind und ­somit über eine vermeintlich höhere Qualität verfügen.

Sollen KI-Anwendungen also besser werden, müsste der Fokus stärker darauf ausgerichtet sein, zwischen echten ­Signalen und Noise zu unterscheiden. Das könnte über verstärktes, aber kostspieliges Human Reinforced Learning ­geschehen. Seit der Markteinführung von DeepSeek – ein Modell, das eine rein maschinelle Huckepack-Trainings­methode entwickelt hat und de facto von bestehenden Chat-Modellen trainiert wird – erscheint diese Art des Trainings jedoch nicht mehr wettbewerbsfähig. Es wird spannend zu beobachten sein, aus welcher Ecke die nächste echte KI-Innovation kommt.

Hans Weitmayr

Dieses Seite teilen