Teilen Sie diesen Artikel & Unterstützen Sie unsere Mission Alpha for Impact
6
05
2021

Machine Learning an den Finanzmärkten.

Post by 
Maschinelles Lernen ist der neueste Schrei im quantitativen Asset Management, aber sorgt auch für viel Verwirrung. Unser Hintergrund-Artikel basiert auf einem aktuellen Paper zu dem Thema und beleuchtet – ohne zu weit ins Detail zu gehen –, was sich hinter dem Begriff verbirgt, welche Herausforderungen es bei Anwendung auf Finanzmarktdaten gibt und für welche Bereiche es am besten geeignet erscheint.

Was ist Machine Learning?

Allgemein versteht man unter Machine Learning die Idee, dass sich Computerprogramme durch Lerneffekte im Zeitablauf selbst verbessern können. Bezogen auf den Börsenhandel ist damit die nächste Stufe in der Evolution statistischer und quantitativer Methoden gemeint. Denn obwohl sich der Einfluss des Menschen im Quant-Geschäft bereits zunehmend verringerte, spielten die Entscheider weiterhin eine wichtige Rolle – etwa, indem sie zu Beginn quantitativer Analysen zunächst das zu verwendende Modell festlegten.

Dieser menschliche Einfluss ist bei Machine Learning nochmals weitaus geringer bzw. im Idealfall nicht mehr existent. Die Algorithmen können viele Modelle parallel betrachten und dann selbst entscheiden, welches Framework für die weiteren Untersuchungen verwendet werden soll.

Für viele etablierte Asset Manager scheint dieser Schritt revolutionär. Entsprechend weit gehen die Meinungen auseinander und reichen von Skepsis, Verwirrung und Unverständnis bis hin zum modernen Denken, dass dies eine fortschrittliche, bessere Entscheidungsfindung ermöglicht.

Ein neues Wort für alte Ideen?

Im Paper „Can Machines 'Learn' Finance?“ schreiben Ronen Israel, Bryan Kelly und Tobias Moskowitz, dass die hohe Bandbreite an Einschätzungen damit zusammenhängt, dass Machine Learning ein sich schnell entwickelndes, aber sehr technisches Gebiet ist, auf dem nur wenige Marktteilnehmer den vollen Durchblick haben. Deshalb wird der Begriff in der Praxis mitunter so verwendet, wie es gerade passt, etwa für Marketingzwecke.

Doch wodurch unterscheidet sich Machine Learning von bisherigen quantitativen Konzepten? Dazu nennt das Paper drei Kriterien, welche die Algorithmen erfüllen: [1]

Merkmale von Machine Learning:

Anwendung „großer“ Modelle mit vielen Parametern (Features) und/oder komplexen nichtlinearen Zusammenhängen zwischen Inputs und Outputs mit dem Ziel, auf Basis eines unbekannten Pricing-Modells des Marktes die maximale Prognosegüte zu erzielen
Auswahl eines bevorzugten Modells aus einer Anzahl vieler verschiedener Modelle unter Berücksichtigung von Regulierungstechniken zur Begrenzung der Granularität sowie von Cross-Validation-Methoden mit simulierten Out-of-Sample-Tests, um Überoptimierungen zu vermeiden
Innovative Ansätze zur effizienten Modelloptimierung, die den Berechnungsaufwand in Big-Data-Umgebungen reduzieren, wie etwa der Stochastic Gradient Descent, der nur zufällige Teile der Daten ohne großen Genauigkeitsverlust betrachtet

Die Autoren schreiben, dass als Input für Machine Learning im Idealfall „Goldilocks-Modelle“ verwendet werden. Diese sind groß genug, um verlässlich die echten, potenziell komplexen Zusammenhänge mit Prognosecharakter in den Daten zu erkennen. Gleichzeitig sind sie nicht dermaßen flexibel, dass sie eine Überoptimierung auf historischen Daten erzeugen, was Out of Sample zu einer enttäuschenden Performance führen würde.

Wann funktioniert Machine Learning?

Die bisherigen Erfolgsstorys von Machine Learning in Bereichen wie Spracherkennung, strategische Spiele und Robotik stammen dem Paper zufolge aus Umgebungen, die zwei entscheidende Faktoren vereinen: [1]

Big-Data-Umgebung: Machine-Learning-Algorithmen profitieren von einer massiven Flut an Trainingsdaten. So verfügt zum Beispiel AlexNet, ein neuronales Netzwerk zur Bilderkennung, über rund 61 Millionen Parameter. Das ermöglicht es – ausreichend hohe Rechenpower vorausgesetzt –, hochkomplexe Zusammenhänge verschiedener Muster abzubilden.
Signal-to-Noise Ratio: Dieses Verhältnis beschreibt den Grad an Prognostizierbarkeit innerhalb eines Systems. Je höher der Wert, desto besser. Zum Beispiel sind im Bereich der Bilderkennung oft hohe Ratios erzielbar, was zu stabilen, verlässlichen Ergebnissen der entsprechenden Algorithmen führt.
Es ist weitaus einfacher, mit Machine Learning einen Großmeister im Schach zu schlagen, als die Kurse an der Börse auch nur annähernd gut zu prognostizieren.
Israel, R. / Kelly, B. / Moskowitz, T. (2020), Can Machines „Learn“ Finance?

Die Probleme mit Finanzmarktdaten

Es ist weitaus einfacher, mit Machine Learning einen Großmeister im Schach zu schlagen, als die Kurse an der Börse auch nur annähernd gut zu prognostizieren. Den Autoren des Papers zufolge liegt das daran, dass im Finanzbereich andere Rahmenbedingungen gegeben sind: [1]

Rahmenbedingungen im Finanzbereich:

Small-Data-Umgebung: Die Datenmenge an den Finanzmärkten ist nur scheinbar groß. Tatsächlich werden die Prognosevariablen, von denen Algorithmen lernen können, von der limitierten Anzahl verlässlich messbarer Parameter – nämlich den beobachteten Renditen – begrenzt. So ergeben sich etwa bei Monatsdaten für ganze Asset-Klassen jeweils nur ein paar hundert Datenpunkte. Das ist ein winziger Datensatz, der nur Modelle mit einer Handvoll an Variablen zulässt, wenn diese eine gewisse Stabilität aufweisen sollen. Selbst für die Analyse von Einzelaktien, bei denen das verfügbare Universum hunderttausende Daten umfassen kann, handelt es sich aus Machine-Learning-Sicht um einen kleinen Datensatz. Zudem ist die effektive Anzahl an Beobachtungen infolge von Querschnittskorrelationen zwischen den einzelnen Titeln weitaus kleiner. Das Problem dabei ist, dass wir an den Märkten nicht wie in anderen Bereichen beliebig viele neue Daten durch Experimente generieren können, um den Trainingsdatensatz zu erweitern. Deshalb werden Renditeprognosen auch in 100 Jahren noch ein Small-Data-Problem sein, egal wie fortgeschritten die Methoden sind. Eine Ausnahme ist das High Frequency Trading. Aufgrund der extrem kurzen Zeiträume ist die Datenfrequenz hier sehr hoch, was die Anwendung weitaus höher parametrisierter Modelle ermöglicht. Allerdings haben die entsprechenden Strategien eine sehr begrenzte Kapazität, weshalb diese Nische von wenigen, hochspezialisierten Akteuren umkämpft wird.
machine learning_komponenten
Bild 1) Anzahl Komponenten zur Erklärung von 80+ Prozent Renditevariation
Die Grafik zeigt die Anzahl an Principal Components, die notwendig sind, um mindestens 80 Prozent der Rendite-Kovarianz der monatlichen Size- und Value-Portfolios nach Fama/French zu erklären.
Quelle: Israel, R. / Kelly, B. / Moskowitz, T. (2020), Can Machines „Learn“ Finance?, S. 8

wenig Signal, viel Noise: Beim zweiten wichtigen Faktor sieht es nicht besser aus, denn die Kursbewegungen an den Märkten sind nahezu effizient. Das ist eine direkte Folge des fortlaufenden Einpreisens neuer Informationen durch alle beteiligten Akteure, was die verbleibende Prognostizierbarkeit vor allem im kurzfristigen Bereich stark verringert (aber nicht ganz auslöscht). Deshalb ist die Volatilität der Renditen erheblich höher als die Risikoprämien bzw. die erwarteten Renditen selbst. Der hohe Anteil des „Rauschens“ kommt dadurch zustande, dass bei nahezu effizienten Kursen vor allem unerwartete Nachrichten und Schocks den Markt bewegen. Die Autoren schreiben, dass sich das Signal-to-Noise Ratio auf längeren Zeithorizonten zwar verbessert, aber damit wiederum die Anzahl an verfügbaren Datenpunkten abnimmt und die Varianz der Prognosefehler steigt. Es geht also darum, einen geeigneten Kompromiss zu finden, der sowohl eine gewisse Signalstärke als auch eine ausreichende Anzahl an Beobachtungen ermöglicht.
machine learning signalstärke vs anzahl beobachtungen
Bild 2) Trade-Off zwischen Signalstärke und Anzahl Beobachtungen
Mithilfe von Regressionen wurde das klassische CAPE dazu verwendet, die Renditen des breiten, nach Marktkapitalisierung gewichteten CRSP-Datensatzes zu erklären. Anhand des Bestimmtheitsmaßes (Balken, rechte Achse) ist deutlich zu erkennen, dass die Aussagekraft bei längerem Zeithorizont zunimmt. Allerdings reduziert sich die Anzahl der Beobachtungen dabei erheblich (Linie, linke Achse), was zu einer entsprechend höheren Varianz der Prognosefehler führt.
Quelle: Israel, R. / Kelly, B. / Moskowitz, T. (2020), Can Machines „Learn“ Finance?, S. 10

Weitere Herausforderungen

Small Data und das schlechte Signal-to-Noise Ratio sind aber nicht die einzigen Probleme, mit denen sich Machine-Learning-Anwender im Finanzbereich herumschlagen müssen. Die Studie von  Israel / Kelly / Moskowitz nennt drei weitere Herausforderungen, die eine Umsetzung erschweren: [1]

Evolution der Märkte: Die Kapitalmärkte sind dynamisch und entwickeln sich durch Anpassung der Akteure an neue Bedingungen weiter. Insbesondere finden Signale, die eine gewisse Prognosegüte aufweisen, oft schnelle Verbreitung, was deren Aussagekraft meist dauerhaft reduziert oder ganz verschwinden lässt. Zudem beeinflusst der technische Fortschritt auch ganz grundsätzliche Zusammenhänge wie die Interaktion der Menschen an den Märkten. Deshalb sind die Finanzmärkte komplexer als die meisten anderen Anwendungsgebiete für Machine Learning. Die Autoren verdeutlichen dies mit einem treffenden Vergleich zur Bilderkennung: „Katzen fangen nicht an, sich in Hunde zu verwandeln, sobald der Algorithmus zu gut darin wird, sie auf Fotos zu erkennen“.
Unstrukturierte Daten: Klassische quantitative Finanzmarktdaten sind in gut aufbereiteter Form verfügbar, aber weitgehend „ausgebeutet“. Viele neue, interessante, alternative Daten sind dagegen unstrukturiert, etwa als Mix aus Text, Grafiken und Videos. Zudem sind die Historien vergleichsweise kurz, etwa bei Daten aus Social Media oder zur Geolocation.
Notwendigkeit zur Interpretation: Manche Machine-Learning-Modelle sind Black Boxes, bei denen es schwierig ist, überhaupt Interpretationen der Lernmechanismen abzuleiten. Genau dieses Verständnis ist jedoch – selbst bei hoher Prognosegüte – eine wichtige Anforderung im Asset Management, um etwa die Risiken gegenüber Kunden und Aufsichtsbehörden klar benennen zu können. Ähnliche Herausforderungen gibt es auch in anderen sensiblen Bereichen wie etwa der Medizin.
Machine Learning hat das Potenzial für einen deutlichen Fortschritt im Bereich quantitativer Investments. Dabei handelt es sich dabei aber nicht um eine echte Revolution, sondern eher die konsequente Weiterentwicklung und Automatisierung bereits angewandter statistischer und quantitativer Methoden.
Israel, R. / Kelly, B. / Moskowitz, T. (2020), Can Machines „Learn“ Finance?

Machine Learning - Anwendungsmöglichkeiten

Das Paper macht darauf aufmerksam, dass sich die Black-Box-Problematik durch strukturelle Modellierung vermeiden lässt. Dabei wird Machine Learning innerhalb eines übergeordneten, theoretisch fundierten und von menschlichen Experten akzeptierten (ökonomischen) Modells implementiert, was eine gewisse Interpretation des Outputs ermöglicht. Innerhalb des definierten Rahmens können die Algorithmen dann frei agieren und Zusammenhänge identifizieren, die einen potenziellen Mehrwert darstellen.

Ein weiteres Paper, „Empirical Asset Pricing via Machine Learning“, weist darauf hin, dass Machine Learning insbesondere bei Verwendung komplexer Modelle wie neuronaler Netze und Regressionsbäume einen Mehrwert bietet. [2] Die damit erzielbaren Verbesserungen lassen sich überwiegend auf die darin abgebildeten, nichtlinearen Zusammenhänge zurückführen, die von einfacheren Modellen nicht erkannt werden. Gleichzeitig besteht aber der Verdacht, dass gerade komplexe Modelle eine Prognosegüte in den Daten entdecken, die mit hohen Transaktionskosten verbunden ist – was gleichzeitig die Erklärung dafür liefern könnte, weshalb diese potenzielle Renditequelle noch nicht von anderen Marktteilnehmern ausgebeutet wurde.

Eine weitere Möglichkeit zum Einsatz von Machine Learning besteht darin, sich statt Renditen auf die bessere Einschätzung der Risiken – insbesondere Kovarianzen zwischen Aktien oder Faktoren – zu konzentrieren. Auf diese Weise wäre es ebenfalls möglich, Out of Sample bessere risikoadjustierte Renditen gegenüber einer klassischen Benchmark zu erzielen. Vielleicht ist das ein realistischeres Einsatzgebiet für Machine Learning, wenngleich diese Verbesserungen etwas im Schatten des „Heiligen Grals“ einer echten Alpha-Strategie stehen.

Eine weitere mögliche Anwendung ist den Autoren zufolge das Transaktionskostenmanagement. In der Regel sind in diesem Bereich ausreichend viele Daten vorhanden, die den Einsatz gut kalibrierter Modelle ermöglichen.

Fazit

Machine Learning hat das Potenzial für einen deutlichen Fortschritt im Bereich quantitativer Investments. Den Autoren der betrachteten Studie zufolge handelt es sich dabei aber nicht um eine echte Revolution, sondern eher die konsequente Weiterentwicklung und Automatisierung bereits angewandter statistischer und quantitativer Methoden – ganz im Sinne einer potenziell schnelleren, besseren und flexibleren Modellierung. Gleichzeitig weisen die Autoren anhand der Small-Data-Umgebung sowie des Signal-to-Noise Ratios darauf hin, dass die Erwartungen dafür, was die Methode tatsächlich leisten kann, nicht zu groß sein sollten.

Als Konzept zur Umsetzung von Machine Learning erscheint die strukturelle Modellierung geeignet. Hier wird die Methode wie beschrieben innerhalb eines vorgegebenen Rahmens – etwa eines einfachen, allgemeinen Faktormodells – und gegebenenfalls unter Einbezug menschlicher Expertise implementiert. Das deutet bereits darauf hin, dass man auch im Quant-Geschäft auf absehbare Zeit nicht ganz ohne den Menschen auskommen wird.

Quellen

[1] Israel, R. / Kelly, B. / Moskowitz, T. (2020), Can Machines „Learn“ Finance?, Yale University und AQR Capital Management
[2] Gu, S. / Kelly, B. / Xiu, D. (2020), Empirical Asset Pricing via Machine Learning. Review of Financial Studies, Vol. 33, Nr. 5, S. 2223-2273

Sie möchten diesen Beitrag – komplett oder in Auszügen – für Ihre Zwecke verwenden? Dann berücksichtigen Sie bitte die folgende Creative Commons-Lizenz.