Institutional Money, Ausgabe 3 | 2020

L andläufig gilt für Versuche, Markttrends statistisch vorher- zusagen: Mehr ist besser – also je mehr Datenpunkte, desto höher die Wahrscheinlichkeit, echte Trends erfassen und fortschreiben zu können. Diese Denkweise ist in Zeiten von Big Data und künstlicher Intelligenz verfestigt worden: Millionen und Milliarden Daten werden erfasst, teils in Millisekundenabständen, teils in historischen Betrachtungen, die bis ins Mittelalter zurückreichen. Dieser Mehr-ist-besser-Ansatz hat auch in der modernen Faktortheorie seine Anhänger gefunden. Mittels komplexer mathemati- scher Modelle werden Faktoren errechnet, die als Treiber verschiedener Ertragsstrate- gien und Risikobudgets dienen und im Rahmen der modernen Portfoliotheorie zu echter Diversifizierung führen sollen. Doch ist dieser Datenquantitätsansatz wirklich der allein selig machende? Gera- de im Faktoruniversum ist in den vergan- genen Jahren immer häufiger Kritik an der ausufernden Masse an Faktoren aufge- kommen. Von Scheinfaktoren ist da die Rede, der „Faktor-Zoo“ – nicht zuletzt von Faktor-Papst Rob Arnott (siehe Institutio- nal Money Ausgabe 03/2016) so genannt – ist inzwischen zu einem geflügelten Wort geworden. Auch andere Schwerge- wichte wie Wirtschaftsnobelpreisträger Paul Romer (siehe Institutional Money Ausgabe 01/2019) kritisieren die „Mathi- ness“, also die Zahlen- und Datenverliebt- heit des Fachs. Couragierte Ansage Für die Sloan School of Management des Massachusetts Institute of Technology haben Megan Czasonis und David Tur- kington, beide vom Fondsgiganten State Street, gemeinsam mit MIT-Mann und Co- Gründer der Windham Labs, Mark Kritz- man, die Arbeit „Addition by Subtraction: A Better Way to Forecast Factor Returns (and Everything Else)“ vorgelegt. In dem Paper stellt Kritzman folgende Frage: „Was, wenn die zunehmenden Datenmengen ein- zelnen Beobachtungen zu viel Gewicht verleihen? Was, wenn gewisse historische Datenpunkte in Wirklichkeit ein statisti- sches Rauschen erzeugen, weil sie nicht be- sonders relevant sind?“ Dann könnte es sein, wie Czasonis, bei State Street Mana- ging Director für das Portfolio and Risk Research Team, fortfährt, „dass tatsächlich wertvolle Information in einem Subset an Beobachtungen steckt, die jedoch von einer Masse an Beobachtungen mit weniger Relevanz quasi zugedeckt wird“. Könnte man also diese relevanteren Sub- sets an Daten herausfiltern, würde man möglicherweise zwei Fliegen auf einen Streich erwischen: Zum Ersten wäre es Mehr Daten ermöglichen bessere Prognosen – könnte man annehmen. Ein MIT-Forschergespann hat diese verbreitete Annahme infrage gestellt. Können kleinere Datensätze unter Umständen informativer sein? Und wenn ja: Wo findet man diese? Ähnlich, aber ungleich relevant Welcher historische Wert ist aussgekräftiger? Der, der sich nahe am historischen Mittelwert befindet, oder der Extremwert? Die Grafik bildet die beiden hypothetischen vergangenen Variablen A und B ab. Für beide Variablen wird eine Standard- abweichung von 5,0 Prozent angenommen. Die Variablen weisen eine Korrelation von 50 Prozent auf. Der rote Punkt C (für Current) entspricht dem gegenwärtigen Wert der Variablen, A und B bilden den Wert an zwei verschiedenen Punkten in der Vergangenheit ab. Je weiter weg vom Fadenkreuz des Koordinatensystems – und somit vom historischen Durchschnitt – sich ein Punkt befindet, desto extremer ist sein Wert und desto weiter ist er vom historischen Durchschnitt entfernt. Das bedeutet also, dass Punkt B in diesem Fall am extremsten ist. Die Eintrittshäufigkeit von Ereignissen wie Punkt B ist also gering, entsprechend wenige dieser Punkte gibt es. Um die Relevanz der beiden vergangenen Punkte für den gegenwärtigen Wert der Beobachtung zu prüfen, wird zunächst die multivariate Ähnlichkeit zum gegenwärtigen Wert C gemessen. In diesem Beispiel sind beide Datenpunkte aus der Vergan- genheit mit 0,5 der gegenwärtigen Beobachtung C gleich ähnlich. Dann werden die multivariaten Entfernungen vom Durch- schnittswert erhoben. Obwohl die Distanz von A und B zu C gleich groß ist, ergibt sich für B aufgrund der größeren Entfer- nung zum Durchschnitt ein höherer Informationsgrad. Und obwohl A und B dem Wert C gleich ähnlich sind, ist die Relevanz von B höher, weil auch der Informationsgrad höher ist. Quelle: Studie -20 % 0 % 20 % Abweichung vom Durchschnitt Abweichung vom Durchschnitt 10 % -10 % -10 % 10 % -20 % 0 % 20 % Variable 1 Variable 2 Historischer Wert B Distanz vom gegenwärtigen Wert C = 0,5 Ähnlichkeit zu C = - 0,5 Informationsgehalt: 6 Relevanz-Score: -0,5 + 6 = 5,5 Historischer Wert A Distanz vom gegenwärtigen Wert C = 0,5 Ähnlichkeit zu C = - 0,5 Informationsgehalt: 1 Relevanz-Score: -0,5 + 1 = 0,5 Wert C (Current) FOTO : © B E AT S | S TOCK . ADOB E . COM Wenn weniger mehr ist 134 N o. 3/2020 | www.institutional-money.com T H E O R I E & P R A X I S : PROGNOS T I S CHE I NNOVAT I ON

RkJQdWJsaXNoZXIy ODI5NTI=