Institutional Money, Ausgabe 3 | 2021

Sie scheinen eher skeptisch zu sein, was die Leistungsfähigkeit von Algorithmen und den Einsatz von künstlicher Intelligenz angeht. Gerd Gigerenzer: Keineswegs, zumindest nicht generell. Grundsätzlich haben Algo- rithmen in bestimmten Situationen im Hin- blick auf ihre Entscheidungsfähigkeiten die Nase vorn gegenüber dem Menschen. Was mich allerdings in Gesprächen oder auf Veranstaltungen, die ich besucht habe, im- mer wieder verwundert hat in den vergan- genen Jahren, war das häufig nahezu bedin- gungslose Vertrauen, das viele Menschen den Ergebnissen komplexer Algorithmen entgegenbringen. Bei vielen ist die Bereit- schaft sehr stark ausgeprägt, den Verhei- ßungen von Technologieunternehmen zu vertrauen, eine Maschine könne nahezu jede Aufgabe genauer, schneller und billiger erledigen als der Mensch. Mehr noch, in- dem man Menschen durch Software ersetze, könne man die Welt besser und angenehmer machen. Nicht selten heißt es, Google ken- ne uns besser als wir uns selbst und künst- liche Intelligenz werde schon bald unser Verhalten fast perfekt vorhersagen können. Meinen Sie das, wenn Sie in Ihrem Buch von einem „Mensch-über-Maschine-Argu- ment“ sprechen? Gerd Gigerenzer: Damit ist gemeint, dass – ganz gleich ob jemand nun von der Nütz- lichkeit von künstlicher Intelligenz über- zeugt ist oder darin eher eine Bedrohung sieht – beide im Grunde der immer gleichen Argumentationskette folgen, die ungefähr so lautet: Künstliche Intelligenz hat die größten Meister in Spielen wie Schach und Go besiegt, und die Computerleistung verdoppelt sich alle zwei Jahre. Deshalb werden Maschinen bald alles besser ma- chen als Menschen. Die beiden Prämissen sind durchaus richtig, die Schlussfolgerung daraus ist falsch. Warum? Gerd Gigerenzer: Der Grund liegt einfach da- rin, dass Computer für bestimmte Probleme geradezu hervorragend geeignet sind, für andere aber eben nicht. Es geht im Prinzip um genau diese Unterscheidung. Solange wir es mit einer stabilen Welt zu tun haben, sind Algorithmen dem Menschen weit über- legen. Unter dieser Voraussetzung gelten durchaus die weithin bekannt gewordenen Beispiele wie Schach oder das Go-Spiel, bei denen der Mensch nicht gegen einen Com- puter gewinnen kann. Aber es handelt sich immer um Situationen, in denen es feste Regeln innerhalb einer stabil bleibenden Umgebung gibt. Regeln, die keiner der Teil- nehmer verletzen kann oder darf und die morgen noch genauso gelten wie heute. Deshalb ist es kein Wunder, dass Big Data seine großen Erfolge in Bereichen wie Astronomie und anderen Situationen erzielt hat, in denen alles morgen noch so ist, wie es gestern war. Dieses Prinzip der stabilen Welt gilt aber natürlich bei Weitem nicht für alle im Leben von Menschen auftretenden Situationen – etwa wenn die Polizei vorher- zusagen versucht, wo, wann oder von wem die nächste Straftat begangen wird. An einer solchen Aufgabe wird auch künftig der Computer scheitern, sei er auch noch so leistungsfähig. Weil menschliches Verhalten die Hauptquelle von Unsicherheit ist? Gerd Gigerenzer: So ist es. Die meisten Situa- tionen, denen wir uns als Menschen gegen- übersehen, sind nun einmal keine Spiele mit wohldefinierten Regeln. Es sind vielmehr Probleme, bei denen Ungewissheit herrscht und bei denen noch mehr Rechenleistung » Solange wir es mit einer stabilen Welt zu tun haben, sind Algorithmen dem Menschen weit überlegen. « Gerd Gigerenzer, Direktor des Harding-Zentrums für Risikokompetenz 54 N o. 3/2021 | www.institutional-money.com T H E O R I E & P R A X I S | PROF. GE RD G I GE R ENZ E R | HARD I NG - Z ENT RUM FÜR R I S I KOKOMP E T ENZ FOTO: © TIM FLAVOR

RkJQdWJsaXNoZXIy ODI5NTI=