Institutional Money, Ausgabe 4 | 2025
Damit demonstrierten die Modelle, dass eine dynamische Umschichtung zwischenGold und Bitcoin die Balance zwi- schen Risiko und Ertrag verbessert. Problematische Realitätsnähe Ambivalenter stellt sich das Bild imWalk-Forward-Test dar (siehe Chart „ErnüchternderWalk Forward“) : Hier wurde jedes Modell mehrfach neu trainiert und anschließend auf ein nachfolgendes Zeitfenster angewendet – eine Methodik, die reale Neuberechnungenmit frischen Daten nachahmt. In dieser Umgebung verloren beide Systeme ihren Vor- sprung gegenüber einer simplen Buy-and-Hold-Strategie: 'LH 6KDUSH 5DWLRV ljHOHQ DXI UXQG ELV NDXP EHV- ser als die passiven Benchmarks, während die Drawdowns teils deutlich anstiegen. Das Verhalten der Agenten ähnelte in vielen Phasen einer Art adaptivem Buy-and-Hold: Sie bevorzugten jeweils jenes Asset, das im vorangegangenen Abschnitt die besseren Renditen gezeigt hatte. Ernüchterung macht sich breit Das Fazit fällt somit letzten Endes ernüchternd aus. Rein- forcement-Learning-Modelle können in der Rückschau zwar beeindruckende In-Sample-Ergebnisse liefern, doch ihre Fähigkeit, in unbekannten Marktregimes zufrieden- stellende Ergebnisse abzuliefern, erweist sich als begrenzt. In der Praxis erzielt die KI-Strategie gegenüber einem Buy-and-Hold-Ansatz keinen Vorsprung – und das bei ver- mutlich deutlich höheren Kosten. Schwierige Phase Die Ergebnisse fügen sich damit nahtlos in die aktuelle Diskussion rund um das Phänomen „KI“ ein. Zum Ers- ten besteht demnach die Möglichkeit, dass die Modelle tendenziell an ihre Grenzen stoßen. Das kann aus mehre- ren Gründen geschehen: hardwaretechnische Limits oder schlicht Begrenzungen beim Reinforced Learning. Diese Art von Training ist, wenn von Menschen durchgeführt, extrem kostspielig und langwierig. Maschinelles Reinfor- FLQJ LVW ]ZDU NRVWHQJĞQVWLJHU WULȬW DEHU DXI HLQ 3ODWHDX beim Trainingsfortschritt, was technisch noch nicht gelöst werden konnte. Ein populäres Beispiel dafür ist der Markt- eintritt von Deepseek im Februar des Jahres. Das chine- sische Modell wird maschinell trainiert, in dem es – ver- einfacht gesagt – ChatGPT und andere große Modelle „huckepack“ reitet. Deepseek nähert sich dabei bei einem Zehntel der Kosten der Leistung der US-Konkurrenz an, bleibt jedoch in der Regel einen Tick hinter den US-Vor- reitern zurück. Diese haben wiederum Probleme, ihre Modelle bezüglich der Informationsqualität zu verbessern, da die enormen Summen, die das Training und dieWeiter- entwicklung der Systeme verschlingen, nur schwer zu recht- fertigen sind, wenn der Wettbewerbsvorteil mit Deepseek de facto über Nacht von mehreren Jahren auf drei Monate zusammengeschrumpft ist. Wenn sich die Investitionen aber tatsächlich nicht rech- nen, wird zum Zweiten die Diskussion um eine Blasenbil- dung rund um die KI-Branche durchaus schlagend. Gute Hedging-Strategienwürden dannwieder hoch imKurs ste- hen. So wie die Ergebnisse der vorliegenden Studie ausge- sehen haben, sollten diese aber nicht unbedingt von einer KI gelenkt werden. HANS WEITMAYR Unter realistischeren Rahmenbedingungen: Überschaubare Ergebnisse KI-Agent REINFORCE KI-Agent PPO In der Walk-Forward-Analyse schneiden die KI-Modelle nicht besonders berauschend ab – egal nach welcher der beiden angewandten Methoden sie trainiert wurden. Letzten Endes entsprechen die Ergebnisse dieses hochaktiven Ansatzes denen einer Buy-and-Hold-Strategie, das aber mit deutlich höherem Aufwand und Kosten. Quelle: Studie Kronewitter & Pham -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 12 Fold I 10 I 8 I 6 I 4 I 2 I 0 Durschnittlicher Ertrag Fold -0,2 -0,1 0,0 0,1 0,2 0,3 12 I 10 I 8 I 6 I 4 I 2 I 0 » Das Volatility-Penalty-Design soll dazu führen, dass der KI-Agent strategisch ruhigere Pfade bevorzugt. « Tamson Pham, Rebellion Research / University of Columbia N o . 4/2025 | institutional-money.com 115 Gold und KI | THEORIE & PRAXIS
Made with FlippingBook
RkJQdWJsaXNoZXIy ODI5NTI=