Logo von Institutional Money
| Kongress-News

"Why Nations Fail"-Autor Acemoglu: „Menschen Werkzeuge geben!"

Der am dritthäufigsten zitierte Ökonom der Welt und bekannte Bestseller-Autor Prof. Daron Acemoglu warnte am Institutional Money Kongress vor den negativen Folgen, wenn Künstliche Intelligenz falsch eingesetzt wird. Das ist ein Risiko, dass Investoren jedenfalls am Radarbildschirm haben sollten.

Prof. Daron Acemoglu, MIT: „Generative KI könnte den Menschen Werkzeuge an die Hand geben, mit denen sie ihre Wissensarbeit verbessern können.“
Prof. Daron Acemoglu, MIT: „Generative KI könnte den Menschen Werkzeuge an die Hand geben, mit denen sie ihre Wissensarbeit verbessern können.“© Nikola Haubner für Institutional Money

„Die KI-Forschung nimmt Fahrt auf, und die Modelle werden immer leistungsfähiger“, erklärte Keynote Speaker Daron Acemoglu, Professor für Angewandte Wirtschaftswissenschaften am Massachusetts Institute of Technology (MIT), zu Beginn seines Vortrages am 15. Institutional Money Kongresses im Frankfurter Congress Center. In der Keynote Speech zum Thema „Redesigning AI” spannte der Autor mehrerer Bestseller wie „Why Nations Fail (gemeinsam mit Co-Autor James A. Robinson) oder zuletzt „Power and Progress“, einen weiten Bogen von den historischen Anfängen Künstlicher Intelligenz über deren Weitentwicklung bis hin zu einer möglichen dystophischen Zukunft. Diese könnte im Worst Case drohen, wenn heute nicht die richtigen Weichenstellungen vorgenommen werden, um die Menschheit zukünftig bestmöglich von den Vorteilen generativer Künstlicher Intelligenz profitieren zu lassen.

Kampf zweier Visionen
Im ersten Teil seines Vortrages erinnerte Acemoglu daran, dass seit der Anfangszeit der KI-Entwicklung zwei grundsätzliche Denkrichtungen respektive Visionen bestehen: Die eine Seite sieht das Ziel darin, dass KI intelligenter und mächtiger als die (meisten) Menschen wird. Die andere Denkschule erachtet KI mehr als komplementäres Tool, das Menschen bei ihren (Routine-)Tätigkeiten unterstützt und Freiräume für hochwertigere Arbeit schafft.

Acemoglu gab in Folge einen kurzen Überblick über die historischen Arbeiten und Erkenntnisse von Computer- und KI-Pionieren wie Alan Turing, Norbert Wiener, JCR Licklider und Douglas Engelbart bevor der MIT-Professor Beispiele anführte, wie KI bei verschiedenen (komplementären) Anwendungen zu Produktivitätsgewinnen zum Wohle vieler Menschen führte.

Hilfreiches Tool
Diese umfassen zum Beispiel die Software-Programmierung, einfachere Schreibarbeiten oder die Kundenbetreuung. „Dabei ist das gemeinsame Element die Nutzung besserer Informationen auf Basis von Large Language Models (LLM) als Input im Rahmen menschlicher Entscheidungen, um die Effektivität menschlicher Fähigkeiten und Fachkenntnisse zu erhöhen“, umreißt der Professor die Vorzüge von KI. Es gibt aber auch eine Schattenseite.

Gefährliches Werkzeug
Das hehre, pro-humanistische Ziel, dass generative KI allen Menschen wertvolle Dienste erweist, wird gleich durch mehrere Faktoren behindert. Acemoglu hat diese in seinem Vortrag übersichtlich unter folgenden vier Punkten zusammengefasst:

  • Übermäßige Automation
  • Verlust von informationeller Vielfalt
  • Diskrepanz zwischen menschlicher Kognition und KI-Algorithmen
  • Monopolisierte Kontrolle von Informationen

Ausbeutung der Arbeiterschaft 2.0
Acemoglu warnte davor, dass viele Unternehmen zur Rationalisierung und Arbeitskostenreduktion generative KI vielfach einfach nur dazu nutzen würden, um menschliche Arbeitskräfte durch intelligente Programme und Maschinen zu ersetzen. Dies könnte vor allem schlecht ausgebildete Arbeitskräfte in Armut stürzen und die von vielen Seiten unerwünschte, wirtschaftliche Ungleichheit in der Gesellschaft erhöhen. Der Professor erinnerte in diesem Zusammenhang an den Beginn der industriellen Revolution im 18. Jahrhundert, die zumindest anfangs zu Lasten breiter Bevölkerungsschichten ging und deren Auswirkungen erst durch kollaborative Gegenmaßnahmen, wie insbesondere die Gründung von Gewerkschaften und bessere Arbeitnehmerrechte, gemildert werden konnten.

Der zweite Kritikpunkt ist der Verlust der informationellen Vielfalt. Falls die KI „dumm“ sei und unzuverlässigen Quellen vertraue, könnten Falschinformationen zu Tatsachen erklärt werden, auf die sich wiederum weitere KI-Programme und in Folge immer mehr Menschen verlassen würden.

Auch drohe über ein mögliches „Herden-Verhalten“ das Risiko, dass weniger oder gar keine „neuen“ Erkenntnisse erdacht und in Folge keine oder weniger Informationen von der KI gefunden werden.

Wissen ist Macht
Neben der „Gefahr der Diskrepanz zwischen menschlicher Kognition und KI-Algorithmen“ gibt vor allem die „monopolisierte Kontrolle von Informationen“ dem Starökonomen großen Anlass zur Sorge: Nicht umsonst gibt es das auf den englischen Philosophen Francis Bacon zurückgehende Sprichwort „Wissen ist Macht“: Wer die Information respektive den Zugang dazu kontrolliert, sitzt am längeren Machthebel. „Generative KI könnte die monopolistische Kontrolle von Informationen und Überwachung verstärken“, warnte Acemoglu. So könnten die Menschen nicht nur überwacht, sondern auch manipuliert werden – Stichwert Deep Fakes. Dadurch droht die Gefahr, dass die Menschen schlussendlich vieles oder gar nichts mehr glauben und erst Recht für Verschwörungstheorien anfällig werden oder gar ausländischer, staatlich gesteuerter Propaganda - wie aus Russland oder China - zum Opfer fallen.

Politik gefordert
Damit die Menschen zukünftig einen möglichst hohen Nutzen aus generativer KI ziehen können, schlägt Acemoglu exemplarisch folgendes vor, wo der Staat tätig werden sollte:

  • Weniger Fokus auf Automation
  • Reform der Steuerpolitik um jene Asymmetrien zu beseitigen, die die Kapitalseite bevorzugen
  • Besseres Dateneigentum und -märkte zur Veränderung von Geschäftsmodellen und zur Verbesserung der KI-Qualität;
  • Neue Normen und Vorschriften für die Entwicklung und den Einsatz von KI

„Möglicherweise ist auch eine neue Architektur der generativen KI für mehr menschliche Komplementarität notwendig“, erklärte Acemoglu abschließend. (aa)

Dieses Seite teilen