Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:

Artikel Filter

Erweiterte Suche

Theorie & Praxis

3/2017 | Theorie & Praxis
twitterlinkedInXING

Die Prophezeiung

US-Dollar, Euro, Yen – keine Leitwährung, deren langfristige Stabilität derzeit nicht angezweifelt wird. Werden die hohen Schuldenberge, die demografischen Probleme oder das nachhaltig magere Wachstum die nächste Währungskrise auslösen? Wir haben Frühwarnsysteme unter die Lupe genommen.

1508491959_teaserbild10.jpg

A posteriori war die Größe des Bootes ein Frühindikator für den unvorhergesehenen Ausgang des Brexit-Votums und den daraus resultierenden Einbruch des Pfund. Finanzmathematiker feilen an Modellen, die derartige Überraschungen etwas wissenschaftlicher vorhersehen sollen.

Foto: © Bloomberg | Luke MacGregor

Von allen ökonomischen Krisen sind Währungskrisen die schlimmsten. Das liegt an ihrer Häufigkeit und den destruktiven Aus­wirkungen, die diese auf Volkswirtschaften haben.“ Was wie eine biblische Warnung anmutet, ist der Einleitungssatz zur Studie „Predicting Currency Crises: How do Indicators Differ According to Crisis Definition?“. Der quasi druckfrische Artikel ist im „Cankiri Karatekin University Journal of The Faculty of Economics and Administrative Sciences“ erschienen und widmet sich den Schwierigkeiten, die bei der Prognose von Währungskrisen entstehen. Verfasst wurde die Arbeit vom türkischen Wirtschaftswissenschaftler Dogus Emin von der Universität Ankara und seiner Kollegin ­Aysegul Aytac von der Economic Policy Research Foundation of Turkey, ebenfalls in Ankara. Aus unmittelbarer Beobachtung der höchst volatilen Lira dürfen die Autoren nicht nur als akademische, sondern auch als intuitive Experten zu dem Thema gewertet werden. Und angesichts der Herausforderungen, die der Euro seit 2008 zu bestehen hat, der Spekulationen rund um den Dollar und seine Währungskriege sowie der Verwerfungen, denen das britische Pfund im Nachhall des Brexit-Votums und während der laufenden schwierigen Verhandlungen ausgesetzt ist, kommen Arbeiten, die sich mit diesem Thema auseinandersetzen, gerade zur rechten Zeit.


Unvorhersehbares prophezeien?
Wobei die Frage, ob Währungskrisen vorhersehbar sind, sowohl auf lang- als auch auf kurzfristige Sicht gestellt werden kann. Dass hier langfristige Prognosen funktionieren können, scheint intuitiv wenig wahrscheinlich. Umso couragierter erscheint, dass Mark E. Wohar darauf besteht, nach dem jüngsten Pfund-Einbruch sehr wohl der „natürlichen Frage nachzugehen, ob das tatsächliche Ausmaß der Abwertung hätte vorhergesehen werden können“. Der Finanzökonom, der an der University of Nebraska und der Loughborough University tätig ist, hat zu diesem Zweck gemeinsam mit Vasilios Plakandaras von der Democritus-Universität von Thrakien und Rangan Gupta von der University of Pretoria ein Experiment gestartet, dessen Ergebnisse im Paper „The Effects of Brexit on the Pound: Could it have been Predicted?“ zusammengefasst wurden. Dazu später mehr, nur eines vorweg: Die bereits erwähnte erste intuitive Antwort „nein“ ist … falsch. Zumindest teilweise – und aus Sicht der Studienautoren.


Die angeführten Arbeiten sind natürlich nicht die Ersten, die sich mit den Prognosen von Währungskrisen auseinandergesetzt ­haben. Ziel der Forschung ist die Installa­tion von Frühwarnsystemen. Davon gibt es inzwischen schon einige. Das Problem dieser Systeme erinnert jedoch an den alten Witz, wonach es so viele ökonomische Theorien wie Volkswirte gibt. Umgelegt auf unser Problem könnte man sagen: Es gibt so viele Frühwarnsysteme wie Warnsignale.


Zumindest stellt sich das aus Sicht von Dogus Emin so dar, für den die wichtigste Frage zunächst lautet: Wie definiere ich eine Währungskrise überhaupt? Denn erst wenn die „relevanten erläuternden Variablen und die wichtigsten ökonomischen Bedingungen, die die Wahrscheinlichkeit ­einer Währungskrise erklären, identifiziert sind“, kann man mit der Konstruktion eines Währungskrisenfrühwarnsystems beginnen.


In der Definitionsgeschichte von Währungskrisen haben sich in diesem Kontext zwei dominierende Denkschulen etabliert. Die erste basiert schlicht auf der Abwertung der betreffenden Währung in einem ­gewissen Zeitraum. Die vielleicht prominentesten Ökonomen dieses Ansatzes sind Kenneth Rogoff und Carmen Reinhart. Die Starökonomin hat auf dem Institutional Money Kongress des Vorjahres einen viel beachteten Vortrag zum Thema Staatsschulden gehalten. In ihrem 2009 erschienenen Beststeller „This Time is Different“ orten die beiden Wissenschaftler eine Krise, wenn die betreffende Währung gegenüber dem Dollar oder einer anderen relevanten Ankerwährung 15 Prozent oder mehr an Wert verliert.


Ein zweiter Ansatz bei der Definition von Währungskrisen basiert auf dem Exchange Market Pressure (EMP) Index in der Ausarbeitung von Eichengreen et al. aus dem Jahr 1996. Dieser Ansatz bezieht sich wiederum auf eine frühe ­Arbeit von Girton und Roper aus dem Jahr 1977. Ziel eines EMP ­Index ist es, aus verschiedenen makroökonomischen Variablen eine Währungskrise zu identifizieren. Die drei veränderlichen Variablen, die in den ursprünglichen Eichengreen-Index einfließen, sind: Wechselkurs, Reserven und Zinsen. Übersteigt die Standardabweichung des Index in Bezug auf den Durchschnitt den Wert von 1,5, spricht man von einer Währungskrise.


In den folgenden Jahrzehnten wurde dieses System um diverse Variablen und statistische Werkzeuge verfeinert, die zugrunde liegende Gleichung sieht aber ­folgendermaßen aus:
Δei,t drückt die Veränderung des Wechselkurses einer lokalen Währung im Vergleich zum Dollar zum Zeitpunkt t aus. Δ(ii,t-i*t) bildet die Abweichung des Spreads zwischen dem lokalen Zinssatz und den Dollarzinsen aus. (%Δri,t – %Δr*t) entspricht der prozentuellen Veränderung des Spreads zwischen den internationalen Reserven, die innerhalb und außerhalb der Lan­des­grenzen gehalten werden.


In der Wahl des Datensets zur Definition einer Währungskrise orientieren sich Emin und Aytac an Reinhart und Rogoff. Insgesamt werden 35 der Weltbank entnommene makroökonomische Variablen von 69 Volkswirtschaften aus den Regionen Afrika, Asien, Europa, Lateinamerika, Nordamerika und Ozeanien für den Zeitraum 1970 bis 2010 ausgewertet. Anschließend werden die Daten logistisch regressiert und so ihr möglicher Einfluss auf die Währungskrisen erfasst. Laufen ließen die Autoren die Daten gegen die beiden genannten Methoden zur Bestimmung einer Krise: also einmal gemäß der reinen Abwertung einer lokalen Währung und einmal gemäß der EMP-Index-Methode. In beiden Ansätzen haben vier makroökonomische Faktoren statistisch sig­nifikanten Einfluss auf das Auftreten ­einer Währungskrise: erstens die Veränderung des BIP pro Kopf. Je höher dieser Wert ist, desto geringer ist die Wahrscheinlichkeit für den Eintritt einer Krise. Zweitens das Verhältnis der Geldmenge M2 zu den internationalen Reserven. Drittens der effektive Wechselkurs. Und viertens die Inflation. Für beide Modelle gibt es dann noch ­jeweils eine fünfte Variable, die aber für die jeweils andere Methode keine statistische Relevanz hat. Im reinen Abwertungsansatz spielt die heimische Kreditvergabe durch Banken eine Rolle, die EMP-An­näherung berücksichtigt das Verhältnis der gesamten Reserven zur gesamten externen Verschuldung.


Erste Schritte
Das bringt Entscheidungsträger, Regulatoren und Investoren einen Schritt voran, erhalten sie doch eine erste Orientierung bei der Einschätzung des Gefahrenpotenzials in Bezug auf eine Währungskrise. Doch wie stark sind die in der Wissenschaft verwendeten Regressionsmodelle zur Vorhersage von Währungskrisen wirklich? In einer Folgearbeit mit dem Titel „The Challenge of Predicting Currency Crises: How do Definition and Probability Threshold Choice Make a Difference?“ wertet das Autorenduo aus Ankara bestehende Frühwarnregressionen wieder entlang der beiden erwähnten Methoden aus. Herausgefunden werden soll, welcher Weg eine höhere Prognosekraft ­besitzt. Zu diesem Zweck wurden drei Auswertungsgruppen erstellt. In der ersten wurden verschiedene Definitionen einer Währungskrise getestet. Also zum Beispiel: „Jährliche Abwertung gegenüber dem Dollar um 35 Prozent.“ Oder: „Jährliche Abwertung gegenüber dem Dollar um 15 Prozent und Vorjahresabwertung bis zu 40 Prozent.“ In einer zweiten Versuchsgruppe wurde die EMP-Methode von Eichengreen et al. eingesetzt, die verwendeten makroökonomischen Variablen aber verändert. In der dritten Gruppe blieben die originalen Eichengreen-Varia­blen erhalten, die Standardabweichung variiert jedoch. Die Tabelle „Frühwarnsysteme für Währungskrisen: Zu viele falsche Alarme“ zeigt die Ergebnisse der ersten und dritten Defini­tionsgruppe, da diese über die relativ stärkste Prognosekraft verfügen.


Schlüsselt man nun die Testreihe, die für den bereits bekannten zeitlichen und geografischen Rahmen durchgeführt wurde, auf, sei zunächst die Plain-Vanilla-Defini­tion, wie auch von Reinhart und Rogoff verwendet, ins Feld geführt – also die Ansicht, wonach eine Währung dann in einer Krise steckt, wenn sie im Jahresvergleich gegen eine Ankerwährung um 15 Prozent abwertet. Laut dieser Definition gab es 187 Fälle, in denen es im Sample zu einer Währungskrise kam. Die Prognosekraft liegt bei 50,8 Prozent. Ab Definition 4, also in dem Moment, in dem Zusatzannahmen über das Jahr zuvor getroffen werden, rasseln die Quoten in den Keller. „Annualisierte Abwertungsraten stellen also eine adäquate Definition für Währungskrisen dar, das Hinzufügen weiterer Variablen ist nicht notwendig“, erklärt Emin.


Theorie zerschellt an Praxis
Analysiert man die Auswertung gründlich, werden Schwächen deutlich. Nicht bei der Prognose der tatsächlich eingetretenen Krisen; Diese Subprognosen-Stärke liegt bei 63,1 Prozent – immerhin besser als würfeln. Es werden aber auch 2.298 Perioden gezählt, in denen es zu keiner Währungskrise kam. Das ist an sich beruhigend. Allerdings haben die Frühwarnregressionen in 1.153 von 2.298 Fällen fälschlicherweise eine ­anstehende Währungskrise gemeldet. In nur 1.145 Perioden sind die Warnglocken stumm geblieben. Man stelle sich dieses Szenario in der Realität vor: ein Wirtschaftsforschungsinstitut, das 1.340-mal bei der Regierung anruft und vor einer Währungskrise warnt, wobei es sich 1.153-mal um falschen Alarm handelt. Dem Institut stünde wohl ein ähnliches Schicksal bevor wie dem Jungen, der zum Spaß „Ein Wolf, ein Wolf!“ ruft.


Sehen wir uns nun das scheinbar erfolgreichere Modell – gemäß EMP-Index mit variierenden Standardabweichungen – an. Dessen Prognosen liefern bessere Ergebnisse. Sie liegen kontinuierlich bei über 50 Prozent und korrelieren mit der Standardab­weichung. „Unsere Analyse zeigt, dass die ­Erhöhung des Multiplikators der Standardabweichung von eins auf drei die Prognosekraft des Modells erhöht, weil es zu weniger falschen Alarmen kommt.“


Das stimmt in der Theorie. Im Gedankenexperiment sieht es aber wieder anders aus. Denn die Erhöhung der Standardabweichung bei den Einzelvariablen bedeutet ja ­eigentlich nur, dass die Definition einer Währungskrise extremer gefasst wird – beispielsweise in Form ausnehmend hoher Inflationsraten. Entsprechend wenige Krisenfälle werden bei einer dreifachen Standardabweichung gemeldet: 57. Die EWS-Regressionen schlagen 39-mal korrekt an. Das ist kein schlechter Prozentsatz. Allerdings gibt es auch 767 Fehlalarme. Das ist zugegebenermaßen weniger als bei dem Modell, das die 15-Prozent-Abwertung misst und 1.135-mal fehlerhaft ausschlägt. In Relation zu den tatsächlichen Krisen schlägt das EMP-Modell aber deutlich öfter mit einem Fehlalarm aus. 95 Prozent der Anrufe unseres imaginären Wirtschaftsforschungsinstituts sind also „Ein Wolf!“-Rufe, im Falle des reinen Abwertungsmodells sind es „nur“ rund 90 Prozent.


Den Autoren der Studie kann man hier keinen wirklichen Vorwurf machen, bewegen sie sich doch im akademischen Rahmen, wonach die gesamte Prognosekraft ­eines Modells über Validität oder Nutzlo­sigkeit entscheidet. Dieser Wert ergibt sich da­raus, wie oft die EWS-Regressionen Krisen- und Nicht-Krisen-Episoden vorhersagen. Und wenn eine solches Modell bei 1.695 möglichen Fehlalarmen nur 767 meldet, dann ist das eben eine akademisch gute Nachricht, der praktische Nutzen bleibt aber überschaubar.


Wenn allgemein gebräuchliche Regressionen für den praktischen Einsatz also nur sehr eingeschränkt verwendbar sind, egal wie die Krisendefinition aussieht, stellt sich die Frage, ob es auch andere Methoden gibt und wie diese aussehen.


Alternativen
Ein solches alternatives System verwenden die bereits erwähnten Autoren der Studie „The Effects of Brexit on the Pound“. Wir erinnern uns: Unmittelbar nach dem überraschenden Leave-Entscheid stürzte das Pfund gegenüber dem Dollar bis zum 27. Juni auf 1,315 ab, was wiederum dem tiefsten Stand seit 1985 entsprach. Tagesverluste von bis zu zehn Prozent erschütterten den Markt, die Verwerfungen waren schlimmer als bis zum „Schwarzen Montag“ 1992, als die britische Währung aus dem Euro­päischen Wechselkursmechanismus flog.


Hätte man diese Entwicklung vorhersehen können? Immerhin lag der Großteil der Währungshändler im Vorfeld der Entscheidung daneben. Die Antwort der Autoren: Man hätte. Allerdings unter Zuhilfenahme recht mächtiger und aufwendiger Analysetools, die maschinelles Lernen, also künst­liche Intelligenz, involvieren. Die zugrundeliegenden Daten stammen außerdem nicht aus den volkswirtschaftlichen Datenbanken des IWF, sondern aus dem Economic Policy Uncertainty (EPU) Index. Die Wechselkurse kommen aus den Datensets der Federal Reserve Bank of St. Louis. Der Unsicherheitsindex selbst wurde von Baker et al. im Jahr 2015 entworfen. Ausgewertet wird die relative Häufigkeit, mit der Begriffe wie „Unsicherheit“, „Defizit“ oder „Notenbank“ in den Medien fallen. Aktuelle Daten zum Thema sind übrigens online unter www.policyuncertainty.com in Echtzeit einsehbar. Auf Basis dieser Datensätzen haben die ­Autoren der Studie ein Prognosemodell, basierend auf der Stützvektormethode (SVM), entworfen. Bei dieser Form des maschinellen Lernens – deshalb auch oft vielleicht nicht ganz korrekt Stützvektormaschinen genannt – löst man die nicht linearen Verhaltensweisen von Wechselkursmechanismen mithilfe des „Kernel-Tricks“. Dieser besteht, allgemein formuliert, darin, dass man einen linearen Klassifikator auf nicht linear klassifizierbare Daten anwendet. Das wird erreicht, indem man die Daten in einen höherdimensionalen Raum transformiert, in welchem man sich eine bessere lineare ­Separierbarkeit erhofft.


Schwere statistische Geschütze
Das Modell wurde mit täglichen Daten aus dem Zeitraum 1. Januar 2001 bis 31. Dezember 2007 trainiert. Angewendet wurden die bereits erwähnte SV-Methode und die Methode der kleinsten Quadrate (MKQ). Pseudo-Out-of-Sample-Prognosen erfolgten vom 2. Januar 2008 bis zum 8. August 2016. Beide Methoden liefern de facto dieselben Ergebnisse und sind statistisch relevant. Die bes­ten Resultate (siehe Chart „Hohe Trefferquote“) ergeben sich nach sechs Lags für die MKQ- und nach fünf Lags für die SV-Methode. „Beide Modelle prognostizieren für die Zeit unmittelbar nach dem Referendum eine mildere Abwertung; sobald der Chart aber in den Kanal zwischen 1,35 bis 1,30 Pfund je Dollar eintritt, wird der Prognosefehler geringer“, erläutert Studien-­Koautor Vasilios Plakandaras. „Die steile Abwertung im Nachhall des Referendums deutet außerdem auf einen strukturellen Bruch der Wechselkurssequenz hin.“ Eine Neuskalierung, in der das Modell bis zum 23. Juni trainiert wurde, brachte Ergebnisse, die den tatsächlichen Kurs bis 7. August mit einer Zeitverzögerung von zwei Tagen de facto 1:1 nachbildeten. „Aus diesen Resultaten heraus können wir sagen, dass der UK-Unsicherheitsindex ein nützliches Mittel zu Vorhersage der Brexit-Effekte ist.“
Die Nachfrage, ob das Pfund nach dem Crash in einer Währungskrise steckt, verneint der griechische Finanzexperte übrigens. Er sieht die Abwertung als Einmal­effekt, „der den Kurs in ein neues, niedrigeres Band gedrückt hat. Dort sollte er bleiben, vorausgesetzt, es kommt zu keinen ­signifikanten Ereignissen.“ Für eine solche Stabilität spreche auch, dass „der Level an politischer Unsicherheit gegenwärtig niedriger ist als unmittelbar nach dem Brexit“.


Definitionsproblem
 Währungskrisen gehören zu den am ­häufigsten auftretenden Verwerfungen mit erheblichen negativen Auswirkungen auf die betroffenen Volkswirtschaften. Der Einbruch des Pfund, die andauernde Diskus­sion über die Überlebensfähigkeit des Euro, aber auch Sorgen, dass „das Drucken von Dollars gefährliche Risse im internationalen Geldwesen geschaffen hat“, wie sie Lan Cao vom Chapman College in ihrem Paper „Currency Wars and the Erosion of the ­Dollar Hegemony“ äußert, stärken die Sehnsucht nach starken Prognosetools.


Diese gibt es derzeit aber nur ansatzweise. Akademisch etablierte Frühwarnsysteme liefern zwar mitunter eine relativ hohe Trefferquote; was die Vorhersage von Währungskrisen betrifft, scheitern sie in der Praxis aber relativ spektakulär. Zum einen schon an der Definition des Terminus selbst. Denn frei nach Grönemeyer stellt sich die Frage: „Wann ist eine Krise eine Krise?“ Wenn eine Währung um 15 Prozent abwertet? Oder sollte man eine Währungskrise an ihren Auswirkungen auf makroökonomische Aspekte festmachen? Auf diese Herausforderung weisen Emin und Aytac zu Recht hin. Ihre Auswertung legt aber unfreiwillig dar, dass eine akademische Erfolgsmeldung in der Realität ein relativ kom­pletter Fehlschlag sein kann. Denn ein Frühwarnsystem, in dem es sich bei nahezu jedem zweiten Signal um falschen Alarm handelt, hat weder für Investoren noch für Entscheidungsträger einen besonders hohen Nutzen. Auch das auf Unsicherheitsindizes beruhende maschinell lernende Prognosemodell von Plakandaras bringt uns nur ­einen kleinen Schritt weiter. Die Prognosefähigkeit ist sehr kurz gefasst, monatliche Modelle liegen in der Prognosesicherheit weit von den tatsächlich eingetretenen Kursen entfernt.


Was nicht bedeutet, dass die Arbeit in dieser Richtung nutzlos ist. Ganz im Gegenteil: Emin und Aytac weisen nach, welche makroökonomischen Faktoren stärkeren Einfluss auf das Entstehen von Krisen ­haben als andere. Die Analyse des Brexit-Szenarios gibt Aufschluss darüber, welche vorhandenen Indizes empirisch gesehen als Werkzeuge für Prognosetools herangezogen werden können. Die ersten Schritte sind ­also gesetzt. Der Weg in die Praxis muss noch beschritten werden. 


Anhang:

twitterlinkedInXING
 Schliessen