Logo von Institutional Money
| Kongress-News

Künstliche Intelligenz darf lügen

Die in Oxford wirkende KI-Forscherin Sandra Wachter zeigte auf dem Institutional Money Kongress auf, wo für Investoren die größten Gefahren bei der Anwendung von Künstlicher Intelligenz liegen. Insbesondere warnte sie vor der Tatsache, dass es für KI keine Wahrheitspflicht gebe.

Sandra Wachter forscht in Oxford zum Thema KI und präsentierte am Institutional Money Kongress 2024 ihre aktuellsten Erkenntnisse.
Sandra Wachter forscht in Oxford zum Thema KI und präsentierte am Institutional Money Kongress 2024 ihre aktuellsten Erkenntnisse.© Poblete / Institutional Money

Die zunehmende Nutzung von KI-Systemen wie Chatbots und generativer KI birgt sowohl große Chancen als auch Risiken, wie die Oxford-KI-Forscherin Sandra Wachter im Rahmen ihres "IM Spezial" auf dem Institutional Money Kongress 2024 meinte.

Milliarden-Geschäft
Unternehmen und Regulierer stünden demnach vor der Herausforderung, diese Technologien sicher und für den Nutzer vertrauenswürdig einzusetzen. Laut Studien von McKinsey und Wyman könnten KI-Anwendungen allein in ausgewählten Branchen und Funktionen ein zusätzliches Wirtschaftspotenzial von bis zu 340 Milliarden US-Dollar erschließen. Große Unternehmen wie Google, Microsoft, Morgan Stanley und die Deutsche Bank testen und nutzen bereits verschiedene KI-Tools für Aufgaben wie Kundenberatung, Recherche und Reporting.

Doch gerade bei offenen Dialogsystemen wie Chatbots gibt es noch große Unsicherheiten. Zwar würden diese Systeme überzeugend kommunizieren, aber letztlich sind sie kein Wahrheitsfindungstool. "Sie errechnen lediglich Wahrscheinlichkeiten für die nächste Antwort, ohne zwischen Fiktion und Fakt unterscheiden zu können", wie Wachter warnt.

Keine Wahrheitspflicht
Hier besteht laut der KI-Forscherin dringender Handlungsbedarf: Weder im EU KI Act noch in den Technologien selbst finden sich derzeit Verpflichtungen, korrekte und nachprüfbare Aussagen zu treffen. Stattdessen liegt die Verantwortung bei den Anbietern, mögliche Risiken offenzulegen. Doch ohne einheitliche Standards und Überprüfbarkeit bleibt fraglich, ob sie diesen Anforderungen auch gerecht werden. Künftig sollten Systeme so trainiert werden, dass sie eindeutig als Software identifizierbar sind. Zudem müssen klare Grenzen für Offenheit gesetzt werden, um sogenannte "Halluzinationen" zu vermeiden.

Halluzinationen und zu Gärtner werdende Böcke
Denn ohne die richtigen Trainingsdaten und den korrekten Kontext können KIs selbst nicht zwischen Fiktion und Fakten unterscheiden. "Sie können dem Nutzer also Informationen geben, die schlicht falsch sind", meint Wachter. Da die Systeme darauf ausgelegt sind, dem Nutzer zu gefallen und weiter mit ihm zu kommunizieren, besteht auch die Gefahr, dass sie Aussagen treffen, die nicht ganz korrekt, aber dem vermeintlichen Interesse des Nutzers dienlich sind. In sensiblen Bereichen wie Recht, Finanzen oder Gesundheit können solche falschen Aussagen schwerwiegende Folgen für den Nutzer haben.

Wachter warnte jedenfalls wiederholt vor beträchtlichen Interessenskonflikten, da die Anbieter im Rahmen von Zertifizierungsprozessen selbst für Prüfung und Kennzeichnung zuständig sein sollen. (hw)

Dieses Seite teilen