Institutional Money, Ausgabe 2 | 2022

ve Quintile hinaus. Diese werden in weite- rer Folge vom nonlinearen Autoencoder verwaltet, wobei die Autoren mit der Zahl der Hidden Layer experimentieren: Verein- facht könnte man sagen: Je mehr Layer, desto nonlinearer das Modell. Ausgewiesen werden schlussendlich über ein Long/Short- Portfolio die Performances des Conditional Autoencoders, der drei Layer ausweist, sowie die Erträge von zwei linearen Ansät- zen – hierbei handelt es sich um das er- wähnte IPCA-Modell und einen Autoen- coder, der über null nonlineare Aktivie- rungs-Layer beziehungsweise „Hidden Layers“ verfügt, womit dieser Autoencoder ebenfalls zu einem linearen Modell mutiert. Spekulative Überrendite Vergleicht man nun die risikoadjustierte Performance entlang des Sechs-Faktor-Mo- dells von Fama/French, ergeben sich recht eindeutige Resultate: Entlang der Anomalie SIGMA, die die Volatilität der betreffenden Werte berücksichtigt, ergibt sich etwa bei nicht spekulativen Aktien ein monatlicher Übertrag des dreischichtigen Autoencoders mit nonlinearen Aktivierungsfunktionen gegenüber dem linearen IPCA-Modell ein monatlicher, risikoadjustierter Überertrag von lediglich 0,065 Prozent, der statistisch nicht relevant ist. Bei spekulativen Aktien beträgt die Differenz hingegen statistisch hochrelevante 1,6 Prozent. Ähnlich sieht das Verhältnis zwischen einem nonlinearen Au- toencoder mit drei und null Ebenen an non- linearen Aktivierungsfunktionen aus. Das Muster wiederholt sich tendenziell über alle Anomalien hinweg. „Im Spekula- tionsindex SPECF produziert die Long/ Short-Portfoliostrategie, die auf non- linearem Machine Learning basiert, gegen- über linearen Strategien für spekulative Aktien eine statisch hochrelevante risiko- adjustierte Überrendite von 1,18 Prozent pro Monat.“ Auch für den Index gilt, dass die Überrenditen bei nichtspekulativen Titeln keine statistische Relevanz aufwei- sen. Die Autoren erweitern ihre Versuchs- reihen auf Aktien, die bevorzugt von nicht- professionellen Anlegern gehandelt werden, woraufhin sich die Ergebnisse verfestigen. Letzten Endes beantworten die Autoren die Frage, ob KI aus behavioristischen Ten- denzen lernen und diese Anomalien auch für sich verwenden kann, mit einem klaren „Ja“. Voraussetzung ist ein nonlineares Encoding-Modell, das latente Variablen berücksichtigt und berechnet – was auch naheliegend ist, da menschliche Emotionen letzten Endes alles andere als linear sind. „Genau dieser Vorteil erklärt die bereits nachgewiesene Outperformance von non- linearen gegenüber linearen Modellen über den gesamten Markt hinweg“, wie Cho meint. Spannend wird sein, wie sich diese Erkenntnisse in die Praxis umsetzen lassen. Kann eine nonlineare KI über ihren beha- vioristischen Interpretationsvorsprung die Kostenersparnis wettmachen, die mit regel- basierten quantitativen Strategien einher- geht? Wir erinnern uns: Herkömmliche Quant-Strategien schlagen KI-Ansätze der- zeit in der Praxis, weil ihre Tradingfrequenz und die damit verbundenen Kosten deutlich niedriger sind. Sollte die KI diesen Nachteil durch das Erkennen behavioristischer Mus- ter ausgleichen können, ist ihre Dominanz im Asset Management wohl nur eine Frage der Zeit. HANS WEITMAYR Tabelle siehe Seite 164 Nonlinearer KI-Autoencoder nach Gu et al. Latente Daten werden nonlinear verarbeitet, was der KI die Mustererkennung in irrationalen Situationen erleichtert. In diesen nonlinearen Autoencoder werden im Beta-Strang zum Zeitpunkt „t–1“ Erträge „N“ von einzelnen Positionen und Portfoliocharakteristika („P“) eingegeben, die bei der Aktivierungsfunktion „g“ verarbeitet werden und die Beta-Output-Ebene N × K (Ertrag) ergeben. Der Vektor (N × 1) fließt schließlich ins Portfolio ein. Auf der Faktorseite fließen entweder Portfoliocharakteristika (P) oder die Erträge von Einzeltiteln (N) als Vektoren (N × 1) oder (P × 1) ein, der resultierende Faktor-Vektor (K × 1) fließt in Kombination mit (N × 1) zum Zeitpunkt „t“ in das Portfolio. Quelle: Gu et al. Output-Ebene Vektor (N × 1) Portfolio Beta-Output-Ebene Vektor (N × K) Faktor-Output-Ebene Vektor (K × 1) Input-Ebene 2 (P × 1) oder (N × 1) Input-Ebene Vektor (N x P) Versteckte Ebenen; Aktivierungsfunktion g ... ... ... ... ... ... ... ... ... ... g g g g g g g g g g g g P (Beta) (Faktor) N ... ... Horizontal: K Vertikal: N 162 N o. 2/2022 | www.institutional-money.com T H E O R I E & P R A X I S | KÜNS T L I CHE I NT E L L I GENZ 

RkJQdWJsaXNoZXIy ODI5NTI=