Institutional Money, Ausgabe 2 | 2025

auf den Markt kommen, sorge ich mich darum, dass diese nicht ausreichend auf ihre Sicherheit geprüft werden. Ich befürchte, dass Regulierungslücken entstehen, wodurch Qualitätsstandards und Sicherheitschecks vernachlässigt werden. Es ist entscheidend, dass geprüft wird, ob „Bias“, also eine wie auch immer geartete nicht objektive Tendenz, in den Systemen steckt, ob ihre Entscheidungen erklärbar sind und ob Menschen imNotfall eingreifen können. Es braucht auch Transparenz darüber, welche Datensätze verwendet werden,wie vollständig und qualitativ hochwertig diese sind. All diese Aspekte – Transparenz, Bias-Erkennung, Erklär- barkeit – stehen zwar theoretisch im Regulierungsvorschlag, aber entscheidend ist, wie diese Vorgaben um- und durch- gesetzt werden. Meine zweite Sorge betri t die Ex-post-Phase: Was passiert, wenn nach der Markteinführung Schäden auftreten? Wer haftet, wenn durch den Einsatz einer KI nanzielle Verluste entstehen? Wer haftet, wenn die KI anfängt, falsche oder di amierende Aussagen über mich, meine Familie, mein Unternehmen oder meinen CEO zu verbreiten? Solche Skandale verbreiten sich schnell, und der entstandene Ruf- schaden kann enorm sein. Wie kann man sich dagegen rechtlich wehren, und wäre Schadenersatz überhaupt aus- reichend? Außerdem: Was geschieht, wenn die KI Kunden beleidigt, belästigt oder diskriminiert? Haftet dann der Nut- zer der KI, obwohl er wenig Kontrolle und Transparenz über das System hat – während die eigentlichen Entwickler keinerlei Verantwortung übernehmen müssen? Das wäre ethisch, wirtschaftlich und sozial ein riesiges Problem, bei dem ich große Sorge habe. Dass es ethisch und haftungsrechtlich erhebliche Probleme geben könnte, kann ich absolut nachvollziehen. Auch dass die Wirtschaft stark belastet werden könnte, wenn unsichere Produkte auf den Markt kommen und es keine Haftung bei verursachten Schäden gibt. Aber was die Qualitätsfrage betrifft: Muss man hier wirklich regulatorisch eingreifen? Sollte das nicht eigentlich der Markt regeln, sodass sich am Ende das qualitativ bessere KI-Modell automatisch durchsetzt? Sandra Wachter: Na ja, das ist immer so eine Sache.Das wäre vergleichbar damit, wenn wir sagen würden: Wir lassen ein paar Autos mit Bremsen und ein paar ohne Bremsen auf den Markt und schauen dann, was passiert. Sicherlich wür- den die Leute irgendwann nur noch die Autos mit Bremsen kaufen, das würde sich rasch regeln. Aber in der Zwischen- zeit entstünde enormer menschlicher Schaden, bevor sich der Markt selbst reguliert. Die entscheidende Frage lautet also: Ist es wirklich gerechtfertigt, zunächst Schaden zuzu- lassen, bis sich der Markt von selbst reguliert? Das kann eben einige Zeit dauern. Bedeutet das nicht einen Wettbewerbsnachteil? Werden europäi- sche KI-Produkte durch strengere Regulierung nicht automatisch schwächer als amerikanische oder chinesische? Sandra Wachter: Nein, ganz im Gegenteil. Strengere Regu- lierung ist in Wahrheit ein Wettbewerbsvorteil. Denken Sie an die Luftfahrt: Jeder iegt gern, weil sie streng reguliert und damit sicher ist. Würden wir auf diese Standards ver- zichten, wären Flugzeuge deutlich unsicherer. Dasselbe gilt für KI: Regulierung verhindert nicht Innovation, sondern macht Technologie sicherer und verlässlicher. Auffällig ist, dass die Krypto-Industrie stark für eine Regulierung eintritt, während KI-Unternehmen oft dagegen sind.Warum sieht die KI-Branche die Dinge anders als Sie, obwohl Ihre Argumente ja durchaus nachvollziehbar erscheinen? Sandra Wachter: Das müsste man historisch genauer betrach- ten. Es ist bemerkenswert, wie es der Tech-Industrie gelun- gen ist, die Vorstellung zu etablieren, dass gerade sie keinerlei Regulierung benötigt – anders als nahezu alle anderen Bran- chen wie Bauwesen, Medizin oder Luftfahrt. Jede dieser N o . 2/2025 | institutional-money.com 73 Sandra Wachter | Universität Oxford | THEORIE & PRAXIS FOTO: © NIKOLA HAUBNER » Als würde man sagen: Wir lassen ein paar Autos mit Bremsen und ein paar ohne Bremsen auf den Markt und schauen dann, was passiert. « Prof. Sandra Wachter, Oxford

RkJQdWJsaXNoZXIy ODI5NTI=