Teilen Sie diesen Artikel & Unterstützen Sie unsere Mission Alpha for Impact
8
06
2021

Eine „Fabrik“ für taktische Algorithmen.

Post by 
Es ist kein Geheimnis, dass sich die Märkte im Zeitablauf in verschiedenen Phasen befinden. Kann es angesichts dieser Herausforderungen überhaupt Handelsstrategien geben, die „immer“ funktionieren? Und welche Methoden eignen sich für aussagekräftige Backtests? In der Studie "Tactical Investment Algorithms" widmet sich Marcos Lopez de Prado der Beantwortung dieser Fragen.

Einige Anleger erklären die Märkte mit fundamentalen Daten, andere mit technischen Instrumenten, und wiederum andere mit verhaltensbasierten Effekten. Viele Entwickler systematischer Handelsstrategien haben dagegen eine ganz andere Vorstellung – sie sehen die Märkte als abstrakte, Daten-Generierende-Prozesse.

Ein Pfad von vielen

Es ist kein Geheimnis, dass sich die Märkte im Zeitablauf in verschiedenen Phasen befinden. Neben dem klassischen, ruhigen Bullenmarkt gibt es volatile Seitwärtsphasen, turbulente Crashs und zermürbende Bärenmärkte. Jede dieser Phasen endet irgendwann und geht in ein neues Regime über. Dabei verändern sich auch die Ausprägungen der einzelnen Phasen in Zeitablauf, sodass kein Markt identisch zur früheren Version seiner selbst ist. Die einzelnen Akteure passen sich an und lernen dazu, und im Ergebnis dessen entwickeln sich die Märkte im Zeitablauf weiter.

Die Herausforderung, unter sich ständig verändernden Bedingungen dauerhaft profitable Algorithmen zu entwickeln, ist enorm.

In seinem Paper „Tactical Investment Algorithms“ erklärt Marcos López de Prado das entscheidende Problem: Wir kennen nicht den wahren Prozess, der die vergangene Datenzeitreihe generiert hat. Alles, was wir haben, ist ein einziger von vielen Pfaden, die sich alternativ hätten entwickeln können. Deshalb stehen einfache Backtests, die nur auf diesem einen Pfad basieren, auf wackeligen Beinen.

Bessere Backtests

Kann es angesichts dieser Herausforderungen überhaupt Handelsstrategien geben, die „immer“ funktionieren? Wenn es nach de Prado geht, stehen die Chancen dafür schlecht – und selbst wenn es sie gibt, wären sie wohl nicht gerade überragend.

Allerdings ist diese All-Weather-Annahme implizit in einer Testmethode enthalten, die in Theorie und Praxis besonders verbreitet ist: Die Walk-Forward-Analyse. Auf den ersten Blick scheint sie aufgrund des Einbezugs von Out-of-Sample-Perioden zwar ausgereifter als einfache Backtests, aber letztlich bleiben die beiden Grundprobleme die gleichen: Die Annahme, dass künftige Beobachtungen auf dem gleichen Daten-Generierenden-Prozess (DGP) beruhen wie die vergangenen. Und die Annahme, dass der eine beobachtete Pfad tatsächlich repräsentativ für diesen Prozess ist.

Wie de Prado in seinem Paper schreibt, können fortgeschrittene Testmethoden wie zum Beispiel das Bootstrapping eingesetzt werden, um die problematische Pfadabhängigkeit durch ein Resampling der Vergangenheitswerte zu lösen. Doch auch hier bleibt de Prado zufolge das Problem der begrenzten Datenhistorie, die nicht unbedingt repräsentativ für die künftige Entwicklung ist.

Monte Carlo, der klare Favorit

In seinem Paper favorisiert de Prado die Monte-Carlo-Methode. Diese simuliert auf Basis eines vorgegebenen, geschätzten DGP eine Vielzahl von Datensätzen, deren statistische Eigenschaften denen des DGP entsprechen und die mit zufälligem Rauschen überlagert sind. Anders als etwa beim Bootstrap-Resampling, bei dem die Simulation auf Basis tatsächlich beobachteter Marktdaten beruht, handelt es sich bei der Monte-Carlo-Methode um künstliche Daten. Als klassisches Beispiel beschreibt das Paper ein Regime-Switching-Modell, in dem die Stichproben aus verschiedenen DGP gezogen werden können. Hierbei wird ein spezieller Algorithmus eingesetzt, der fortlaufend die Wahrscheinlichkeit schätzt, dass der DGP in ein neues Regime kippt. Ein so parametrisiertes Modell lässt sich dann optimieren, um den statistischen Eigenschaften der tatsächlich beobachteten Daten zu entsprechen. Basierend auf diesen Zielvorgaben kann eine Vielzahl künstlicher Datensätze repliziert werden, die eine deutlich umfangreichere Analyse als beim Resampling einer begrenzten und potenziell nicht repräsentativen Datenhistorie ermöglicht.

Neben den statistischen Eigenschaften können auch fundierte theoretische Überlegungen zu einem tieferen Verständnis für den wahrscheinlichen DGP beitragen. De Prado nennt als Beispiel zwei dynamische Variablen, zwischen denen nach anerkannten Theorien ein langfristiges Gleichgewicht besteht (Kointegration). Durch empirische Untersuchungen lässt sich die ungefähre Bandbreite von Werten bestimmen, die diese Variablen annehmen können. Auf Basis dieser Inputs ist es möglich, viele Millionen Jahre an künstlichen Daten zu simulieren, in denen die Variablen alle möglichen Werte innerhalb der geschätzten Bandbreite realisieren.

Monte-Carlo-Backtests haben gegenüber Walk-Forward- und Resampling-Analysen viele Vorteile und ermöglichen es, Algorithmen unter kontrollierten Bedingungen zu testen und zu entwickeln.
Marcos López de Prado, „Tactical Investment Algorithms“

Gibt es einen Haken?

Gerade die Tatsache, dass Algorithmen beim Monte-Carlo-Ansatz auf Basis künstlicher Daten getestet werden, wird oft kritisiert – dies sei eventuell wenig aussagekräftig für künftige Daten, die der DGP realisiert. Doch diese Kritik lässt de Prado aus zwei Gründen nicht gelten. Erstens ist das Schätzen eines geeigneten DGP nicht unbedingt schwieriger als eine Marktprognose: Wer davon überzeugt ist, dass statistische Methoden erfolgreiche Anlageergebnisse ermöglichen, sollte auch davon überzeugt sein, dass man mit diesen Methoden einen DGP identifizieren kann. Und zweitens ist es auch bei Walk-Forward- sowie Resampling-Analysen unwahrscheinlich, dass diese Beobachtungen genau wie simuliert eintreten, sodass die mit Monte Carlo erzeugten synthetischen Pfade auch nicht weniger wahrscheinlich sind.

Grundsätzlich haben Monte-Carlo-Backtests gegenüber Walk-Forward- und Resampling-Analysen dem Paper nach folgende Vorteile:

Es können randomisierte, kontrollierte Experimente auf Basis eines angenommenen DGP durchgeführt werden.
Es ist möglich, verschiedene taktische Algorithmen zu definieren, die im Zeitablauf zur Anwendung kommen; statistische Instrumente können die Wahrscheinlichkeit bestimmen, dass diese dem DGP entsprechen.
Es lassen sich Zusatzinformationen einbinden, etwa aus ökonomischen Theorien; das ermöglicht es, die wahrscheinlichsten Szenarien zu simulieren – inklusive solcher, die bisher noch nie aufgetreten sind (potenzielle Schwarze Schwäne).
Der Umfang der Simulation kann so weit ausgedehnt werden, wie notwendig, um ein vorgegebenes Niveau an statistischer Sicherheit zu erreichen.

Eine "Fabrik" für taktische Algorithmen

Die klassischen Walk-Forward- und Resampling-Analysen basieren wie beschrieben auf der All-Weather-Annahme, möglichst „immer“ zu funktionieren – also unabhängig von bestimmten, genauer eingegrenzten DGP. Das steht im Widerspruch zu der Tatsache, dass sich der Markt im Zeitablauf in unterschiedlichen Regimes entwickelt, in denen rational erwartet werden kann, dass bestimmte Algorithmen funktionieren, während andere scheitern. Die Monte-Carlo-Methode ermöglicht es dagegen, die Sensitivität eines Algorithmus gegenüber den speziellen Merkmalen verschiedener, definierter DGP zu bestimmen. Daraus lässt sich ableiten, welche Merkmale den Erfolg bestimmen. Entsprechend kann der Algorithmus immer dann eingesetzt werden, wenn es taktisch vorteilhaft ist. Daraus leitet de Prado das Paradigma einer Algo-Fabrik ab.

Paradigma einer Algo-Fabrik:

Es wird eine Vielzahl an taktischen Algorithmen erstellt, von denen selektiv nur diejenigen zum Einsatz kommen, die sich in den Simulationen für das gegenwärtige Marktumfeld qualifiziert haben. Mit anderen Worten: Es werden Algorithmen gehandelt statt Märkte. Der Vorteil: Es ist viel einfacher abzuschätzen, durch welchen DGP der Markt gerade bestimmt wird, als einen Algorithmus zu finden, der „immer“, also für alle möglichen DGP funktioniert.

Den Prozess beschreibt das Paper wie folgt:

Entwicklung einer Vielzahl von taktischen Algorithmen für eine breite Palette an DGP mithilfe von Monte-Carlo-Simulationen.
Auswahl einer Stichprobe der jüngsten Marktentwicklung.
Abschätzen mithilfe statistischer Tests, mit welcher Wahrscheinlichkeit jeder untersuchte DGP diese Stichprobe erzeugt haben könnte; dabei lassen sich oft schon mit vergleichsweise kleinen Stichproben die meisten DGP ausschließen.

Das Ergebnis dieses Prozesses ist eine Wahrscheinlichkeitsverteilung, die dazu genutzt werden kann, das verfügbare Exposure den entsprechenden Algorithmen zuzuteilen. Es wird also nicht nur auf die eine, als optimal bewertete Strategie gesetzt, sondern auf eine Auswahl der wahrscheinlich besten. Das hat den Vorteil, dass sich das Exposure bei fortlaufender Anwendung dieses Prozesses im Zeitablauf dynamisch an potenzielle Veränderungen des DGP anpasst.

Fazit

Monte-Carlo-Backtests ermöglichen es, Algorithmen wie in einem Labor unter kontrollierten Bedingungen zu testen und zu entwickeln. Dieser Ansatz kommt am nächsten an das wissenschaftliche Ideal heran, das wir zum Beispiel aus der Physik kennen. Die Simulationen lassen sich als eine Art Performance-Zertifizierung verstehen, die algorithmische Strategien für ganz bestimmte Marktbedingungen erhalten. Deshalb sollten diese Strategien nur dann eingesetzt werden, wenn die richtigen Bedingungen mit ausreichend hoher Wahrscheinlichkeit gegeben sind. Umgekehrt lassen sich Bedingungen definieren, unter denen ein Algorithmus besonders verwundbar ist und nicht verwendet werden sollte. Das ermöglicht es, eine Strategie im Idealfall rechtzeitig auszutauschen, bevor sie viel Geld verliert.

Quellen

De Prado, M. L. (2019), Tactical Investment Algorithms, True Positive Technologies

Sie möchten diesen Beitrag – komplett oder in Auszügen – für Ihre Zwecke verwenden? Dann berücksichtigen Sie bitte die folgende Creative Commons-Lizenz.