Institutional Money, Ausgabe 3 | 2020

nach verwenden weder Researcher noch Praktiker die Mahalanobis-Distanz für diese Art von Prognose. Wir kennen auch keine Ergebnisse, in denen ein Mahalanobis-ba- sierter Ansatz die Ergebnisse einer linearen OLS-Regression exakt reproduziert.“ Effiziente Faktoranalyse Solcherart ermutigt, wagen sich die Auto- ren nun an die eigentliche selbst gestell- te Aufgabe: nämlich die Voraussage von Markterträgen über die Anwendung eines limitierten Datenuniversums. Hierfür teilen sie ihr Set in die 25 Pro- zent relevantesten, die 25 Prozent irre- levantesten und das restliche Gros der Daten ein. Analysiert werden die jähr- lichen Zeiträume von 1974 bis 2018. Untersucht werden sieben Kenneth- French-Faktoren: Equity – also S&P 500 minus Bloomberg Treasuries, Size, Value, Profitability, Investment, Momentum und Volatility. Mittels Regressionsanalyse wird der Zusammenhang mit ausgewählten makroökonomischen Daten hergestellt: Wirtschaftswachstum, Arbeitslosenquote, Inflation und Credit Spreads. Anschließend werden die Faktoren gewichtet und mit dem Relevanz-Score kombiniert. Als Beispiel sei der Value-Fak- tor angeführt ( siehe Grafik „Wie der Faktor ‚Value‘ im Relevanzansatz vermessen und eingesetzt wird“ ): Der reine Relevanz-Score zeigt, dass die relevantesten Perioden ver- stärkt nach 2014 auftreten. Diese hohe Rele- vanz fällt mit der Schwächeperiode des Value-Faktors zusammen, am Ende erfolgt die Performance des relevanzgewichteten Value-Ertrags. Führt man nun die Regres- sionsgleichung über den gesamten Zeitraum durch, so kommt man auf einen Prognose- wert von minus 3,4 Prozent für den nächsten Beobachtungszeitraum, die Prognose, die sich aus der Hochrechnung mit den rele- vantesten Werten ergibt, kommt auf eine Value-Performance von minus 4,1 Prozent, der irrelevanteste Datensatz prognostiziert minus 0,3 Prozent. Das bedeutet, dass die stark reduzierte relevante Stichprobe ziemlich ähnliche Pro- gnosen abwirft wie die umfangreiche Regression – ein theoretisches Ergebnis, das sich mit dem bereits beschriebenen Testlauf deckt. Doch wie zuverlässig sind die Ver- messungen nun, wenn man die Nagelprobe macht und sie an tatsächlich eingetretenen Ereignissen misst? Um das zu eruieren, haben die Forscher eine Korrelationsmatrix zu den einzelnen Faktoren erstellt (siehe Tabelle „Hoch relevante Ergebnisse“). Ge- genübergestellt wurden die Korrelationen der historisch tatsächlich eingetretenen indi- viduellen Faktorerträge jenen einer komplett umfänglichen Regression und den gefilter- ten hoch relevanten und hoch irrelevanten Ergebnissen – der Vergleich ist für die Autoren ermutigend: Denn die Korrelation zwischen tatsächlich erfolgtem Ertrag und den Ergebnissen der hoch relevanten Daten- menge sind durchgängig stärker als bei den Regressionen unter Verwendung der gesam- ten Datenmenge. Auch die statistische Relevanz ist in den meisten Fällen durchaus zufriedenstellend, „wenn wir auch eingestehen müssen, dass es einige Verhältnisse gibt, die insignifikant sind. Das lässt den Schluss zu, dass gewisse Faktoren wie die Profitabilität weniger auf ökonomische Rahmenbedingungen reagieren als andere“, erklärt Kritzman. Tatsächlich er- reicht der P-Wert bei „Profitabilität“ 0,84. Diese Insignifikanz ist für die Regression mit 0,93 aber noch höher und spricht für die The- se Kritzmans, wonach die zugrunde liegen- den Rahmenbedingungen bei der Auswahl der Variablen und nicht die Methode selbst zu den schwachen Ergebnissen führen. Somit kann der Schluss gezogen werden, dass die Methode der Hochrechnung aus quantitativ begrenzten hoch relevanten Da- tenmengen „unter bestimmten Rahmenbe- dingung besser funktioniert als die Regres- sion von möglichst umfangreichen Daten- universen“, wie Turkington meint. Er schränkt aber ein, dass „wir nicht behaupten, dass unsere Methode überall die bessere Lösung ist. Aber in Settings, in denen die Daten weder stationär noch normalverteilt sind und für die je nach historischer Periode signifikante Unterschiede bestehen, können wir unsere Methode empfehlen“, so das Resümee des Forschers. HANS WEITMAYR » Wir definieren ›Relevanz‹ als die Summe der multivariaten Ähnlich- keit und des Informationsgrades. « Mark Kritzman, Co-Gründer der Windham Labs, MIT FOTO : © M I T Hoch relevante Ergebnisse Faktoren nach Kenneth French und ihre Korrelation zu den verschiedenen Prognoseansätzen Faktor Regression Gefiltert: Gefiltert: Gesamtdaten geringste Relevanz höchste Relevanz Differenz Korrelation 33,5 % 4,5 % 48,6 % 38,5 % Equity P-Value 0,51 0,61 0,34 0,07 Korrelation 55,5 % 32,9 % 60,4 % 29,9 % Size P-Value 0,00 0,05 0,02 0,03 Korrelation 36,9 % -10,6 % 53,7 % 59,7 % Value P-Value 0,35 0,89 0,11 0,01 Korrelation 22,2 % -14,1 % 38,1 % 46,8 % Profitability P-Value 0,93 0,93 0,84 0,07 Korrelation 41,5 % 6,1 % 54,4 % 44,3 % Investment P-Value 0,18 0,57 0,10 0,01 Korrelation 62,2 % 38,6 % 67,2 % 26,2 % Momentum P-Value 0,00 0,02 0,00 0,02 Korrelation 35,7 % 2,9 % 47,9 % 39,8 % Volatility P-Value 0,40 0,64 0,38 0,05 Werden die Faktoren mittels Relevanzgewichtung prognostiziert, so korrelieren sie mit den faktisch eingetretenen Faktoren stärker, als wenn das mittels gebräuchlicher und vollumfänglicher OLS-Regression geschieht. Quelle: Studie 138 N o. 3/2020 | www.institutional-money.com T H E O R I E & P R A X I S : PROGNOS T I S CHE I NNOVAT I ON

RkJQdWJsaXNoZXIy ODI5NTI=