Das Fachmagazin für institutionelle Investoren

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden:
3/2021 | Theorie & Praxis
twitterlinkedInXING

»Intuition ist ein guter Ratgeber«

Gerd Gigerenzer, Direktor des Harding-Zentrums für Risikokompetenz in Potsdam, gilt als einer der prominentesten Kritiker von Nobelpreisträger Daniel Kahneman. Im Interview rät er ab von einem allzu großen Vertrauen in die Ergebnisse komplexer Algorithmen.

Wenn ein Psychologe, der ein Zentrum für Risikoforschung leitet, vor den Verheißungen der Verhaltensökonomik warnt, muss einen das hellhörig werden lassen. Gerd Gigerenzer, Leiter des Harding-Zentrums für Risikokompetenz an der Universität Potsdam, hat allerdings gute Gründe dafür. Denn er beschäftigt sich seit Jahren mit den Themen Unsicherheit und Entscheidungsfindung. Im Gegensatz zu anderen Wissenschaftlern verlässt Gigerenzer gern einmal den Elfenbeinturm der Forschung, um seine Theorien anhand von selbst durchgeführten Experimenten auf ihre Praxistauglichkeit zu überprüfen. Wir haben seine jüngste Veröffentlichung zum Anlass für ein Gespräch genommen.

Herr Professor Gigerenzer, Sie haben vor kurzem Ihr neues Buch mit dem mehr oder weniger vielsagenden Titel „Klick“ veröffentlicht. Erklären Sie uns doch in kurzen Worten, worum es im Wesentlichen geht.
Gerd Gigerenzer: Zum einen beschäftige ich mich darin mit der Frage, wie wir in einer zunehmend digitaler werdenden Welt die Kontrolle behalten können. Es geht aber auch darum, wie der Mensch eigentlich Entscheidungen trifft. Unter anderem widme ich mich dem Problem, unter welchen Voraussetzungen es für ihn sinnvoll ist, solche Entscheidungen einer Maschine, besser gesagt, dem Algorithmus einer Software zu überlassen, und in welchen Situationen er das eher nicht tun sollte, um sich stattdessen besser auf seine eigene Intuition zu ver­lassen. Es geht darum zu verstehen und zu wissen, was durch den Einsatz eines Computers wirklich gut, nein, besser funktioniert. Deshalb gehe ich in weiten Teilen des Buchs der durchaus berechtigten Frage nach, was Algorithmen eigentlich tatsächlich zu leisten imstande sind und wo ihre Leistungsfähigkeit sozusagen überschätzt wird, weil sie eben nicht vermögen, eine der menschlichen Entscheidung überlegene ­Lösung zu bieten.

Sie scheinen eher skeptisch zu sein, was die Leistungsfähigkeit von Algorithmen und den Einsatz von künstlicher Intelligenz angeht.
Keineswegs, zumindest nicht generell. Grundsätzlich haben Algorithmen in bestimmten Situationen im Hinblick auf ihre Entscheidungsfähigkeiten die Nase vorn gegenüber dem Menschen. Was mich allerdings in Gesprächen oder auf ­Veranstaltungen, die ich besucht habe, immer wieder verwundert hat in den vergangenen Jahren, war das häufig nahezu bedingungslose Vertrauen, das viele Menschen den Ergebnissen komplexer Algorithmen entgegenbringen. Bei vielen ist die Bereitschaft sehr stark ausgeprägt, den Verhei­ßungen von Technologieunternehmen zu vertrauen, eine Maschine könne nahezu ­jede Aufgabe genauer, schneller und billiger erledigen als der Mensch. Mehr noch, indem man Menschen durch Software ersetze, könne man die Welt besser und angenehmer machen. Nicht selten heißt es, Google kenne uns besser als wir uns selbst und künstliche Intelligenz werde schon bald unser Verhalten fast perfekt vorhersagen können.

Meinen Sie das, wenn Sie in Ihrem Buch von einem „Mensch-über-Maschine-Argument“ sprechen?
Damit ist gemeint, dass – ganz gleich ob jemand nun von der Nützlichkeit von künstlicher Intelligenz überzeugt ist oder darin eher eine Bedrohung sieht – beide im Grunde der immer gleichen Argumentationskette folgen, die ungefähr so lautet: Künstliche Intelligenz hat die größten Meister in Spielen wie Schach und Go besiegt, und die Computerleistung ­verdoppelt sich alle zwei Jahre. Deshalb werden Maschinen bald alles ­besser machen als Menschen. Die beiden Prämissen sind durchaus richtig, die Schlussfolgerung daraus ist falsch.

Warum?
Der Grund liegt einfach darin, dass Computer für bestimmte Probleme geradezu hervorragend geeignet sind, für andere aber eben nicht. Es geht im Prinzip um genau diese Unterscheidung. Solange wir es mit einer stabilen Welt zu tun haben, sind Algorithmen dem Menschen weit überlegen. Unter dieser Voraussetzung gelten durchaus die weithin bekannt gewordenen Beispiele wie Schach oder das Go-Spiel, bei denen der Mensch nicht gegen einen Computer gewinnen kann. Aber es handelt sich immer um Situationen, in denen es feste Regeln innerhalb einer stabil bleibenden Umgebung gibt. Regeln, die keiner der Teilnehmer verletzen kann oder darf und die morgen noch genauso gelten wie heute. Deshalb ist es kein Wunder, dass Big Data seine großen Erfolge in Bereichen wie ­Astronomie und anderen Situationen erzielt hat, in denen alles morgen noch so ist, wie es gestern war. Dieses Prinzip der stabilen Welt gilt aber natürlich bei Weitem nicht für alle im Leben von Menschen auftretenden Situationen – etwa wenn die Polizei vorherzusagen versucht, wo, wann oder von wem die nächste Straftat begangen wird. An einer solchen Aufgabe wird auch künftig der Computer scheitern, sei er auch noch so leistungsfähig.

Weil menschliches Verhalten die Hauptquelle von Unsicherheit ist?
So ist es. Die meisten Situationen, denen wir uns als Menschen gegenübersehen, sind nun einmal keine Spiele mit wohldefinierten Regeln. Es sind vielmehr Probleme, bei denen Ungewissheit herrscht und bei denen noch mehr Rechenleistung und noch größere Datenmengen eben nur begrenzt hilfreich sind. Man stelle sich nur einmal vor, wie viel schwieriger ein Spiel wie Schach wäre, wenn der König aus einer Laune heraus die Regeln verletzen oder die Dame unter Protest das Brett verlassen könnte, nachdem sie die Türme in Brand gesteckt hat. Das mag Ihnen verdeutlichen, worum es mir eigentlich geht, nämlich die Einsicht, dass komplexe Algorithmen zwar in einer stabilen Umgebung oder Situation durchaus erfolgversprechend sind; tritt allerdings Unsicherheit hinzu, geraten sie sozusagen ins Schleudern.

Sie raten vor diesem Hintergrund dazu, smart zu bleiben. Was meinen Sie in dem Fall mit smart?
Damit rufe ich dazu auf, ­einerseits die Möglichkeiten und Risiken von digitalen Technologien oder künstlicher Intelligenz so gut wie möglich einzuschätzen oder, besser gesagt, zu verstehen. Dabei aber andererseits entschlossen zu bleiben, in einer immer stärker von Algorithmen durchdrungenen Welt die Kontrolle zu behalten. Wir sollten eben nicht einfach die Hände in den Schoß legen, um es einer Software zu überlassen, unsere persönlichen Entscheidungen zu treffen. Smart bedeutet, der Technologie eben nicht blind zu vertrauen, aber ihr auch nicht ängstlich zu misstrauen.

Sie gelten als einer der prominentesten Kritiker der Theorie, die der Nobelpreisträger Daniel Kahneman in seinem gemeinsam mit Amos Tversky verfassten Werk „Schnelles Denken, langsames Denken“ formuliert hat. Wo liegt der Verhaltensökonom Ihrer Ansicht nach falsch?
Bevor ich auf meine Kritik zu sprechen komme, vielleicht zunächst zu den ohne Zweifel vorhandenen Verdiensten, die man den beiden Wissenschaftlern zuschreiben muss. Sie haben zum einen den Begriff der Heuristik wieder erfolgreich in die Psychologie eingeführt. Was viele nicht wissen: Die Heuristik, womit im Grunde so etwas wie eine Faustformel gemeint ist, war lange Zeit eine Art Kernkategorie der ­Psychologie. Kahneman und Tversky haben ­zudem anhand von Experimenten gezeigt, dass die ökonomische Theorie des rationalen Verhaltens, im Englischen als „rational choice“ bezeichnet, deskriptiv falsch ist. Wo beide meiner Auffassung nach definitiv in die Irre gegangen sind, das ist die Tatsache, dass sie die ökonomische Theorie des ­Homo oeconomicus im Grunde dennoch beibehalten haben. Denn die logischen Axiome von Konsistenz und erwarteter Nutzenmaximierung sind bei den beiden Wissenschaftlern als normativ gesetzt, weil auch bei ihnen Logik und Wahrscheinlichkeitstheorie angeblich immer die richtige Antwort auf ökonomische Fragen liefern.

Aber wo liegt das Problem?
Im Grunde geht es immerhin um die Frage, ob Menschen wirklich in der Lage sind, rational auf Risiken zu ­reagieren oder ob sie gewissermaßen sys­­tematisch suboptimale Entscheidungen ­treffen. Kahneman und Tversky haben dazu die bekannte und in der Ökonomik weithin anerkannte Unterscheidung in ein System eins und ein System zwei vorgenommen. Das erste ist eine Art Sammlung von ­In­tuitionen und Heuristiken, die die Ent­scheidungen von Menschen unbewusst steuern. Deshalb komme bei Entschei­dungen das System zwei zum Einsatz, weil erst dieses bewusste und rationale Ent­scheidungen auf der Basis komplexer Daten ermögliche.

Eine Erkenntnis, die im Prinzip ja auch ­Einzug gehalten hat in vielen finanzmathematischen Modellen, die auf entsprechend komplexe Parameter und die Schätzung von Kovarianzen setzen.
Wobei die Frage ist, ob das wirklich so sinnvoll ist. Denn auch wenn Kahneman im Grunde natürlich dafür plädiert, ökonomische Entscheidungen mithilfe von System zwei zu treffen und so das erste System zu überstimmen, ist das ja nicht ­automatisch richtig. Denn zum einen ist ­Intuition durchaus ein guter Ratgeber. Und Heuristiken münden nicht immer in eine unbewusst getroffene Entscheidung, sondern können durchaus auch zu einer bewussten Entscheidung führen. Unter den Gesichtspunkten von Logik und komplexen Wahrscheinlichkeitsannahmen getroffene Entscheidungen sind keineswegs immer besser als eine unter heuristischen Annahmen gefällte Entscheidung. Hier verkennt Kahneman, dass ein Unterschied zwischen Risiko und Ungewissheit besteht.

Inwiefern?
Für ihn führen immer nur Logik und Wahrscheinlichkeit zur richtigen Antwort, Intuition und Heuristik sind immer nur zweitklassig. Er verkennt, dass es zwar sinnvoll sein mag, Entscheidungen mithilfe komplexer Annahmen zu treffen, aber eben nur dann, wenn es sich um Entscheidungen unter bekannten Risiken handelt. In der realen Welt aber treffen die Menschen sehr viel häufiger Entscheidungen unter Ungewissheit. Das ist durch die Arbeiten von John Maynard Keynes oder auch Frank Knight eigentlich längst auch in der Ökonomie bekannt. Kahneman vernachlässigt das jedoch. Aber es gibt ja durchaus eine Lösung für dieses Problem.

Die wie genau aussieht?
Ich plädiere schon seit Langem dafür, Entscheidungen möglichst einfach zu halten und lieber mit einer einfachen Formel wie „1/n“ zu arbeiten, um mit nur geringem Aufwand und wenigen Informationen zu einem besseren Ergebnis zu gelangen. Auch wenn ich damit einer in der Ökonomik immer noch weit verbreiteten Ansicht widerspreche, die in ihren gängigen Modellen auf eine deutlich höhere Kom­plexität setzt. Es gibt gute Gründe, warum ­unser Gehirn Emotionen einbezieht, warum wir uns oft auf Heuristiken stützen, um ­etwas zu entscheiden, und warum wir nicht nach der vollkommenen Information suchen. Übrigens hat selbst Harry Markowitz, der für seine Portfoliotheorie mit dem ­Nobelpreis ausgezeichnet wurde, bei seinen eigenen Investments, die er für die Zeit ­seiner Pensionierung vorgenommen hat, ­eine Heuristik auf der Basis von 1/n verwendet.

Haben Sie ein praktisches Beispiel für uns, das Ihre Sichtweise bestätigt?
In meinem Buch erläutere ich dieses Prinzip eines „Weniger ist mehr“ an einem damals viel gepriesenen Vorzeigeprojekt der Big-Data-Analytik von Google und einem Modell, das wir am Max-Planck-Institut für Bildungsforschung in Berlin entwickelt haben. Im Jahr 2008 gaben Medien in aller Welt in großer Aufmachung bekannt, dass Google-Ingenieure eine Methode gefunden hätten, die Ausbreitung der Grippe vorherzusagen. Dadurch seien Aussagen sehr viel schneller möglich als durch die Informationen der US-Gesundheitsbehörde Center for Disease Control, die schon damals über die Zahl der grippebezogenen Arztbesuche in allen ­Regionen der USA ­informierte. Die Idee schien vernünftig zu sein, denn Nutzer, die sich mit der Grippe angesteckt haben, nutzen gewöhnlich die Google-Suchmaschine, um ihre Symptome zu diagnostizieren und nach Abhilfe zu suchen. Diese Suchen, so die These, ließen erkennen, wo sich die Grippe ausbreitet. Um die entsprechenden Suchanfragen herauszufiltern, analysierten die Ingenieure rund 50 Millionen Suchbegriffe und berechneten, welche von ihnen mit der Grippe assoziiert waren. Dann ­testeten sie 450 Millionen verschiedene Modelle, um das beste herauszufinden. Das Ergebnis war ein geheimer Algorithmus, der 45 ebenfalls geheime Suchbegriffe verwendete. Mit diesem Algorithmus wurden dann täglich und wöchentlich die grippebezogenen Arztbesuche vorhergesagt.

Mit welchem Resultat?
Zunächst lief alles glänzend. Google Flu Trends, so hieß das Analyse­modell, sagte die Grippe früher voraus als die CDC-Berichte. Google prägte sogar das neue Wort „nowcast“, um die aktuelle Ausbreitung der Grippe und der grippebezogenen Krankheiten in jeder Region der Ver­ei­nigten Staaten vorherzusagen. Monate später, im Frühjahr 2009, geschah etwas Unerwartetes. Die Schweinegrippe brach aus. Sie wütete außerhalb der üblichen Grippesaison, wobei die Fälle zunächst im März auftraten und einen Höhepunkt im Oktober erreichten. Google Flu Trends verpasste den Ausbruch, weil das Programm aus den Jahren zuvor gelernt hatte, dass die Grippe­infektionen im Winter hoch waren und im Sommer niedrig. Die Folge war, dass die Vorhersagen in sich zusammenfielen.

Wie hat man bei Google darauf reagiert?
Die Ingenieure machten sich nach dem Rückschlag daran, ihren Algorithmus zu verbessern. Sie bekämpften sozusagen Komplexität mit Komplexität und erhöhten die Zahl der Suchbegriffe von 45 auf ungefähr 160. Zunächst bewährte sich der revidierte Algorithmus bei der Vorhersage neuer Fälle, aber nicht auf Dauer. Ein Hauptgrund war die Instabilität der Grippe selbst. Grippeviren sind die reinsten Chamäleons, ständig verändern sie sich, sodass es äußerst schwer ist, ihre Ausbreitung vorherzusagen. Ein zweiter Grund war die ­Instabilität menschlichen Verhaltens. Viele Nutzer gaben grippebezogene Suchbegriffe aus reiner Neugier ein, wollten mehr über die Schweinegrippe wissen, fühlten sich aber nicht krank. Doch der Algorithmus konnte nicht zwischen den unterschiedlichen Motivationen für die Suche unterscheiden. Nach weiteren Versuchen, das Modell zu retten, wurde Google Flu Trends schließlich 2015 in aller Stille beerdigt.

Nun wird manch einer entgegnen, das sei 2015 gewesen und die heutigen Algorithmen seien unendlich viel größer und besser.
Mir geht es nicht um den Erfolg oder Misserfolg eines bestimmten von Google entwickelten Algorithmus. Das Problem liegt für meine Begriffe vor allem darin, dass das eingangs beschriebene Prinzip der stabilen Welt für alle Algorithmen gilt, die mithilfe der Vergangenheit eine ­unbestimmbare Zukunft vorhersagen.

Aber wie sah die Alternative aus, die Sie ­offenbar entwickelt haben?
Aus der Forschung wissen wir, dass Menschen sich auf das verlassen, was sie in jüngerer Zeit erlebt haben, allerdings nur in instabilen Situationen, in denen die weiter zurückliegende Vergangenheit keine zuverlässige Orientierung für die ­Zukunft bietet. Im Extremfall verlässt man sich nur auf die letzte, neueste Information und vergisst alles andere. Gemäß diesen Überlegungen entwickelten meine Kollegen und ich einen extrem einfachen Algorithmus, der der Prämisse folgt: Nächste Woche wird so sein wie die vorherige. Im Gegensatz zu Googles Algorithmus ist diese ­heuristische Regel transparent und kann mühelos von jedem angewandt werden. ­Ihre Logik ist verständlich und stützt sich nur auf einen einzigen Datenpunkt, der auf der Webseite des Centers for Disease Control oder des Robert-Koch-Instituts nachgeschaut werden kann. Sie erspart uns zudem, 50 Millionen Suchbegriffe durchzukämmen und Millionen Algorithmen per Versuch und Irrtum zu testen.

Bleibt die Frage, wie gut Ihr Modell tatsächlich die Grippe voraussagt.
Meine Kollegen und ich haben die Heuristik an genau denselben Daten überprüft, die dem Algorithmus von Google Flu Trends zugrunde lagen, also den wöchentlichen Beobachtungen zwischen März 2007 und August 2015. Die Vorhersage von Google Flu Trends war zwar deutlich besser als eine am reinen Durchschnittswert orientierte Vorhersage. Der mittlere Fehler unserer Vorwoche-Heuristik aber lag noch deutlich niedriger als bei Google. Das Grippe-Beispiel ist weder ein Glückstreffer noch ­eine Ausnahme. Es zeigt aber vor allem ­eines: Bei Ungewissheit erweisen sich einfache Regeln im Vergleich zu komplexen Algorithmen als äußerst wirksam. Ihr großer Vorteil liegt zudem darin, dass sie verständlich und leicht anwendbar sind.

Dennoch sind ja auch mit dem Setzen auf eine einfache Formel wie 1/n nicht alle Probleme gelöst.
Das räume ich gern ein. Zum Beispiel wäre es wünschenswert, wenn sich jemand der Frage annehmen würde, wie groß denn eigentlich „n“ idealerweise sein sollte. Noch ungelöst ist auch die Frage, wie oft man ein nach 1/n konstruiertes Portfolio rebalancen sollte. Wir wissen lediglich, dass man ein solches ­Rebalancing vornehmen muss, aber nicht in welchen zeitlichen Intervallen.

Wir danken für das Gespräch.   

Hans Heuser


Verfechter der Einfachheit

Gerd Gigerenzer ist ein weltweit renommierter Psychologe und Risikoforscher. Als dessen ­Direktor leitet er das Harding-Zentrum für ­Risikokompetenz an der Universität Potsdam. Er ist zudem Direktor emeritus der Abteilung „Adaptives Verhalten und Kognition“ am Max-Planck-Institut für Bildungs­forschung. Gigerenzer hat eine Vielzahl internationaler Auszeichnungen erhalten, darunter den AAAS-Preis, den Communicator-Preis und den Deutschen ­Psychologie-Preis. Das Gottlieb Duttweiler Institut hat ihn als einen der 100 einfluss­reichsten Denker der Welt ­bezeichnet. Seine populärwissenschaftlichen Bücher „Das Einmaleins der Skepsis“ (2002) und „Bauchentscheidungen“ (2007, ausgezeichnet als „Wissenschaftsbuch des Jahres“ und „Wirtschaftsbuch des Jahres“) sowie „Risiko. Wie man die richtigen Entscheidungen trifft“ (2013) fanden große Beachtung und sind zu internationalen Bestsellern geworden. Sein gerade erst erschienenes jüngstes Werk trägt den Titel „Klick. Wie wir in ­einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen“. Darin widmet er sich der ­Frage, wie wir in einer zunehmend digitaler werdenden Welt die Kontrolle behalten.

twitterlinkedInXING
 Schliessen

Mit der Nutzung dieser Website stimmen Sie der Verwendung von Cookies und unserer Datenschutzerklärung zu. Mehr erfahren