Institutional Money, Ausgabe 2 | 2025

Sandra Wachter: Derzeit gibt es zwei wichtige Punkte zu die- sem Thema: erstens das Problemmit der Datenqualität, die technisch verursacht wird. Die Modelle lernen ihre Ant- worten ja ursprünglich aus menschlich erstellten Inhalten im Internet. Bis vor drei, vier Jahren waren fast alle Online- inhalte menschlichen Ursprungs. Mittlerweile aber über- utet künstlich erzeugter Content das Netz, wodurch Modelle zunehmend ihre eigenen Outputs konsumieren. Da KI keine eigene Wahrheits ndung betreibt beziehungs- weise betreiben kann, hält sie Informationen für wahr, wenn sie diese nur oft genug gesehen hat – egal ob richtig oder falsch. Dadurch verstärken sich Fehler selbst, denn die Modelle sehen ihre eigenen falschen Antworten immer häu ger und nehmen sie somit zunehmend als wahr an. Dies führt dazu, dass Fehler immer schwieriger zu erkennen sind, da sie durch Wiederholung zur scheinbaren Wahrheit werden. Der zweite Punkt betri t hausgemachte Probleme, also wie die KI-Modelle bewusst gestaltet werden. Ich habe das in meinem Vortrag bereits angeschnitten: Diese Systeme sind darauf optimiert, möglichst überzeugend aufzutreten. Aktuell ist gut beobachtbar, dass Chatbots einem häu g schmeicheln und versuchen, dem Nutzer positive Gefühle zu vermitteln – etwa durch Aussagen wie: „Sehr gute Frage! Das zeigt, dass du intelligent bist.“Das spricht unser mensch- liches Ego an. Der Fokus der Entwickler liegt also weniger auf der Wahrheits ndung, sondern eher darauf, Nutzer möglichst lang zu binden. Meine Vermutung ist, dass dies zukünftig Werbeeinblendungen ermöglicht. Der Marktwert einer Plattform steigt schließlich mit ihrer Nutzungshäu g- keit. Wäre die KI nüchtern wie ein Wörterbuch, würden Nutzer vermutlich seltener zurückkehren. Diese Entwick- lung ist bewusst so gestaltet, dass der Wahrheitsgehalt zweit- rangig ist und die Wirkung der Antworten, ihr Klang und ihre Attraktivität, im Vordergrund stehen. Zur Wahrheitsfindung: Wäre es nicht möglich, Quellen unter- schiedlich zu gewichten? Also wenn ich zum Beispiel sieben belie- bige Aussagen aus dem Internet habe und drei Aussagen von anerkannten Experten, könnte die KI das doch entsprechend gewichten … Sandra Wachter: Das wäre in der Theorie möglich. Aber dann stellt sich erneut die Herausforderung, wie die KI erkennen soll, ob eine Quelle vertrauenswürdig ist oder nicht. Außer bei ganz simplen Fakten, etwa wenn es um das Durchschnittsgewicht eines Hundes geht, das sich leicht überprüfen lässt, ist die Beurteilung der Glaubwürdigkeit einer Quelle oft schwierig. Selbst scheinbar einfache Szena- rien können schiefgehen, wie das Beispiel mit den Vulkanen gezeigt hat, das ich in meinem Vortrag erwähnt habe … Das war im Rahmen des IM Spezial … Sandra Wachter: Genau. Das Beispiel stammt aus einem Ex- periment unseres Teams.Wir hatten mit Googles AI-Modell interagiert und gefragt, ob es aktive Vulkane in England gibt. Die KI antwortete zunächst, ja, sowohl aktive als auch inak- tive.Da wir wussten, dass dies falsch ist, fragten wir nach, wo diese aktiven Vulkane denn lägen. Google wies dann auf Orte in Schottland und Wales, nicht in England. Die Ant- wort war also doppelt falsch: Es gibt dort natürlich keine aktiven Vulkane, und die KI verwechselte sogar geogra sche Gebiete. Auf nochmaliges Nachfragen korrigierte das Modell sich dann plötzlich selbst und meinte, natürlich gebe es keine aktiven Vulkane in England. Ein eigentlich einfaches und klar überprüfbares Thema führte hier komplett in die Irre. Wie hoch ist denn nun tatsächlich die Fehlerquote bei solchen KI-Modellen ? Sandra Wachter: Forscher aus Stanford haben verschiedene Legal-Tech-Tools untersucht und herausgefunden, dass in 60 bis 80 Prozent der Fälle Fehler auftreten. Das heißt, etwa zwei Drittel bis zu vier Fünftel aller Antworten enthalten Fehler. Wir danken für das Gespräch! HANS WEITMAYR 76 N o . 2/2025 | institutional-money.com THEORIE & PRAXIS | Sandra Wachter | Universität Oxford FOTO: © NIKOLA HAUBNER » Manche Experten glauben, die Fähigkeiten der KI-Bots hätten aktuell ein Plateau erreicht. Allerdings ist das schwer zu beurteilen. « Prof. Sandra Wachter, Oxford

RkJQdWJsaXNoZXIy ODI5NTI=