Teilen Sie diesen Artikel & Unterstützen Sie unsere Mission Alpha for Impact
1
09
2023

Die neue Ära des systematischen Investierens

Post by 
Dr. Campbell Harvey
‍Im Zeitalter kostengünstiger Berechnungen und umfangreicher Daten werden systematische oder algorithmisch gesteuerte Anlagen immer beliebter. Systematische Strategien werden sowohl in eigenständigen Produkten als auch in Tail-Hedging- und Defensiv-Overlay-Strategien eingesetzt. Angesichts des enormen Datenwachstums ist es in der Tat nicht mehr möglich, diese Daten ohne die Hilfe systematischer Tools zu verarbeiten. Der Hauptvorteil des systematischen Ansatzes liegt in der Disziplin, die er auferlegt - Maschinen werden beispielsweise nicht von Verhaltensproblemen wie Dispositionsverzerrungen geplagt, und in Krisenzeiten bewahrt eine systematische Strategie einen "kühlen Kopf". Systematische Ansätze bringen aber auch viele Herausforderungen mit sich. Systematische Strategien passen sich möglicherweise nicht schnell an strukturelle Veränderungen auf dem Markt an. Sie bergen auch das Risiko des "Tech-Washing", bei dem ein Anlageprodukt behauptet, "die neuesten KI- und Machine-Learning-Tools" zu verwenden, diese jedoch falsch angewandt werden oder nur eine minimale Rolle spielen. Wenn systematische Tools von einem unerfahrenen Forscher angewandt werden, sind die Backtests oft zu gut angepasst, was zu einer enttäuschenden Leistung beim Live-Handel führt.

Artikel von Dr. Campbell Harvey, Partner und Leiter der Forschungsabteilung bei Research Affiliates

Wir sind alle Quants

In meinem Aufsatz "Mensch gegen Maschine" habe ich eine faszinierende Übung unternommen. [1] Für die Analyse war eine umfangreiche Stichprobe von Hedgefonds erforderlich. Die Hälfte der Stichprobe gab an, ob es sich um systematische oder diskretionäre Fonds handelt. Die andere Hälfte gab keine Erklärung ab, beschrieb aber detailliert, was der Fonds tat. Wir begannen mit der folgenden Übung zur Verarbeitung natürlicher Sprache: Wir suchten nach Wörtern und Ausdrücken, die in unserer Trainingsstichprobe (bei der wir die Wahrheit kannten) zwischen systematisch und diskretionär unterschieden, und wandten dies dann auf die Tausenden von nicht klassifizierten Fonds an.

Bestimmte Wörter, wie z. B. "algorithmisch", waren sehr sinnvoll. Wir waren auch sehr an dem Wort "Quant" oder "quantitativ" interessiert. Zu unserer Überraschung unterschied das Wort "Quant" nicht zwischen systematisch und diskretionär. Es war sogar wahrscheinlicher, dass "Quant" mit diskretionären Fondsbeschreibungen in Verbindung gebracht wurde!

Was hat das zu bedeuten? Ganz einfach: Die quantitative Analyse ist sowohl für diskretionäre als auch für systematische Fonds ein wesentlicher Bestandteil des Anlageprozesses. Während der diskretionäre Portfoliomanager in der Vergangenheit vielleicht eine Excel-Tabelle mit Bewertungsmodellen für seine Lieblingsnamen zur Verfügung gestellt hat, verlangt das heutige Informationsumfeld den Einsatz quantitativer Instrumente. Anlageexperten stehen heute Tausende von Datenbanken zur Verfügung, und es ist unwahrscheinlich, dass ein einzelner Manager alle von diesen quantitativen Instrumenten benötigten Daten manuell verarbeiten kann.

In der heutigen Zeit sind wir alle Quants, aber wir steuern nicht alle systematische Portfolios. Bei systematischen Anlagen werden die Geschäfte durch Regeln oder Algorithmen generiert, die natürlich von Menschen entworfen werden. Diese Algorithmen arbeiten unabhängig, wenn sie im Live-Handel eingesetzt werden. Bei diskretionären Portfolios treffen die Manager die endgültigen Handelsentscheidungen, auch wenn sie viele quantitative Instrumente einsetzen, um ihren Entscheidungsprozess zu unterstützen. Letztendlich ist es jedoch ein Mensch, der die Handelsidee entwickelt - und kein Algorithmus.

Ursprünge

Vor fünfunddreißig Jahren war das systematische Investieren ein Nischenanlagestil, der sich hauptsächlich auf Trendfolgesysteme konzentrierte. Die ersten Algorithmen operationalisierten einen jahrhundertealten Anlageansatz, die so genannte technische Analyse. Die technische Analyse hat zwar viele Facetten, aber die Identifizierung und Extrapolation von Trends ist ihr Eckpfeiler. Ein Nachteil ist der unvermeidliche Wendepunkt. Irgendwann wird sich der Trend umkehren. Die Algorithmen haben sich so entwickelt, dass nach einem längeren Trend (oder einem sehr starken Trendsignal) das Risiko reduziert wurde. Diese Fähigkeit ermöglichte die Erkennung von Reversals und verringerte die Verluste an Wendepunkten.

Die nächste Welle waren quantitative Modelle zur Aktienauswahl. Diese Modelle verwendeten einen algorithmischen Ansatz, um Aktien zu identifizieren, die die Strategie kaufen oder verkaufen sollte. Bei Long-only-Portfolios bestimmten diese Modelle die Über- und Untergewichtung von Wertpapieren. Diese Modelle gingen in der Regel über die Kursdaten hinaus und bezogen fundamentale Informationen wie Bewertung, Wachstum, Rentabilität und Qualitätskennzahlen mit ein.

Die nächste bedeutende Innovation im Bereich der systematischen Anlagen war das Aufkommen der so genannten Smart-Beta-Strategien. Diese kostengünstigen Produkte können sich auf einen bestimmten Faktor oder eine bestimmte Strategie konzentrieren, wie z. B. Value.  Der Name - der in der Regel für eine breite Palette von formelhaften oder algorithmischen Strategien verwendet wird, die oft beeindruckende Backtest-Ergebnisse aufweisen - erweckt den Eindruck, dass die Strategien intelligent sind. Es gibt jedoch eine Vielzahl von Strategien, die nicht intelligent sind und unter dieser Bezeichnung angeboten werden. Bei den Smart-Beta-Strategien wird ein Index mithilfe eines algorithmischen Ansatzes erstellt. Die Anleger können diese Strategie in vielen Formen nutzen, z. B. als börsengehandelte Fonds oder Investmentfonds. Smart-Beta-Strategien haben auch multifaktorielle Versionen.

Als gleichzeitig mehr Kapital auf den Markt kam, erkannten viele Manager, dass der einfachste Weg, das Alpha zu erhöhen, darin bestand, die Kosten zu senken. Eine Möglichkeit zur Kostensenkung war eine verbesserte Ausführung. Die dritte Welle war daher das Aufkommen des systematischen Hochfrequenzhandels. Ein solcher Handel kann für Fonds wie Renaissance Technologies eigenständig rentabel sein - oder er kann Teil der Ausführungsstrategien sowohl von systematischen als auch von diskretionären Fonds sein.

Derzeit stehen wir am Anfang der Ära des Einsatzes von Instrumenten der künstlichen Intelligenz (KI) sowohl bei systematischen als auch bei diskretionären Strategien. So können beispielsweise umfangreiche Sprachmodelle Forschern dabei helfen, eine große Menge an Finanzinformationen zu analysieren und Risikofaktoren zu isolieren.

Maschinelles Lernen

In den letzten Jahren sind Tools für das maschinelle Lernen aufgetaucht, die systematische Anlagestrategien vorantreiben. Diese Tools gibt es schon seit geraumer Zeit. Tatsächlich habe ich vor fast 25 Jahren versucht, einige Deep-Learning-Tools auf Aktienrenditen anzuwenden. Das Modell scheiterte, weil es zu einfach war. Es war zu einfach, weil es zu wenig Rechenleistung hatte.

Drei spezifische Faktoren haben zu dem sprunghaften Anstieg der Anwendungen des maschinellen Lernens geführt. Erstens hat die Rechengeschwindigkeit stark zugenommen. Im Jahr 1990 kostete ein Cray 2 Supercomputer 32 Millionen Dollar (in heutigen Dollar), wog 5.500 Pfund und benötigte eine Kühleinheit. Er konnte 1,9 Milliarden Gleitkommaoperationen pro Sekunde durchführen. Heute ist Ihr Mobiltelefon 500 Mal schneller als der Cray 2.

Der zweite Faktor sind die Daten. Zu Zeiten der Cray 2 kostete ein Gigabyte Speicherplatz 10.000 Dollar. Heute liegen die Kosten für ein Gigabyte bei weniger als einem Cent. Dies ermöglicht die kostengünstige Erfassung und Speicherung riesiger Datenmengen. Neben der billigen Speicherung hat sich der Umfang der Daten über Finanz- und Preisinformationen hinaus auf unstrukturierte Daten aus einer Vielzahl von Quellen (Text, Sprache, Web, Geosat, Bilder usw.) erweitert.

Der dritte Faktor ist die Open-Source-Software. In der Vergangenheit war die Softwareentwicklung isoliert. Heute haben wir eine völlig andere Situation. Die Entwicklung ist viel effizienter, weil die Ingenieure das Rad nicht neu erfinden müssen: Sie gehen zu GitHub und finden dort viele andere, die sich mit demselben Problem befasst haben, und die Lösungen sind frei verfügbar.

Die Maschine hat natürlich keine direkten Verhaltensvorlieben und wird nicht von menschlichen Emotionen beeinflusst. In Zeiten erhöhter Marktspannungen behält sie einen "kühlen Kopf".
Dr. Campbell Harvey

Vorteile des systematischen Investierens

Der größte Vorteil ist die Disziplin. Der Algorithmus wendet ein vereinbartes Regelwerk an und setzt es um. Die Maschine hat natürlich keine direkten Verhaltensvorlieben und wird nicht von menschlichen Emotionen beeinflusst. Tatsächlich beobachten die besten algorithmischen Strategien die emotionalen Entscheidungen anderer, lernen daraus und profitieren davon. So wird der Algorithmus beispielsweise nicht unbedingt an Verlustgeschäften festhalten (Dispositionsverzerrung). Die Maschine ist nicht in der Lage, Bedauern zu empfinden. Außerdem hat die Maschine in Zeiten erhöhter Marktspannungen einen "kühlen Kopf".

Ein zweiter Vorteil ist die Fähigkeit der Maschine, Informationen zu verarbeiten. Zwei Komponenten erhöhen den Wert dieser Verarbeitung. Die erste besteht darin, dass die Maschine angesichts der explosionsartigen Zunahme von Big Data große Datenmengen verarbeiten kann - eine Aufgabe, die für einen Manager, der ohne ein Modell arbeitet, nicht machbar ist. Die andere Komponente ist die Geschwindigkeit. Ob bei der Verarbeitung großer Datenmengen oder bei der schnellen Reaktion auf Marktnachrichten - die Maschine hat deutliche Vorteile.

Nachteile des systematischen Investierens

Der größte Nachteil ist der Verlust an Flexibilität. Algorithmen sind eine Vereinfachung der Welt und oft stark parametrisiert. Sie sind auf das Verhalten in der Vergangenheit optimiert, aber die Welt ändert sich. Diese Zeit ist immer anders. Es ist eine Herausforderung - selbst mit der heutigen Technologie - einen zuverlässigen Algorithmus zu konstruieren, der sich im Laufe der Zeit weiterentwickelt. Die Anpassung eines stationären Algorithmus an einen nicht-stationären Markt ist ein Rezept zum Scheitern.

Ein zweiter Nachteil ist die Tendenz zur Überanpassung in der Phase der Modellentwicklung. [2] Algorithmen und Parametrisierungen werden auf die vergangenen Daten optimiert. Da das Signal-Rausch-Verhältnis bei Finanzanlagen so gering ist, neigen Forscher dazu, das Rauschen zu optimieren. Ein überangepasster Algorithmus sieht im Backtest gut aus, schneidet aber im Live-Handel schlecht ab.

Drittens berücksichtigen die Algorithmen in der Regel nicht die Marktstruktur. So kann ein Algorithmus beispielsweise erfolgreich eine Fehlbewertung des Marktes erkennen. In einem solchen Fall ist das Modell nicht überangepasst (d.h. die Backtest-Leistung ist nicht übertrieben). Bei der Anwendung im Echtzeithandel versagt das Modell jedoch. Dieses Versagen ist nicht auf einen Mangel im Forschungsprozess zurückzuführen. Vielmehr hat sich der Markt weiterentwickelt, da andere in den Markt eingetreten sind, um von einer (jetzt) vorübergehenden Fehlbewertung zu profitieren.

Viertens tappen manche Anleger in die Falle der "Black Box". Dies geschieht häufig bei Implementierungen des maschinellen Lernens, die rein datengesteuert sind und nicht auf einer soliden wirtschaftlichen Grundlage beruhen. Anleger sollten sich vor Aussagen von Managern wie "Wir können nicht verraten, wie das Modell funktioniert, da es sich um geschützte Informationen handelt" hüten. Alle Algorithmen müssen erklärbar sein. Selbst die komplexesten Algorithmen des maschinellen Lernens können bis zu einem gewissen Grad rückgängig gemacht werden, indem Schocks in die Eingaben eingespeist werden, um festzustellen, wie sich die Ergebnisse des Modells ändern.

Schließlich bergen neue KI-Tools auch Risiken. So kann die generative KI beispielsweise aus früheren Daten lernen und einige Verhaltensvorgaben übernehmen. GPTs sind relativ neu, und manchmal könnten die von der aktuellen Generation von Algorithmen vorgenommenen Extrapolationen problematisch sein. Um diese Tools erfolgreich einzusetzen, ist es wahrscheinlich am besten, wenn Vermögensverwalter die Open-Source-GPT-Tools auf ihre Bedürfnisse abstimmen, anstatt sich auf kommerzielle Standardprodukte zu verlassen, die unter dem Blackbox-Problem leiden.

Die Zukunft des systematischen Investierens  

Ich glaube, dass wir uns an einem Wendepunkt in der Landschaft der Anlageverwaltung befinden. Die Anleger haben richtig erkannt, dass die Instrumente für systematisches Investieren nicht nur Bestand haben, sondern wahrscheinlich noch an Bedeutung gewinnen werden. Die Investmentmanager setzen diese Instrumente zunehmend ein. Ihre Umsetzung erfordert jedoch ein hohes Maß an Kompetenz und Zusammenarbeit in den Bereichen Investment, Technologie und Quantität.

In der gegenwärtigen Übergangsphase müssen einige Vermögensverwalter ein Häkchen setzen und werden daher ihre aktuellen Strategien durch maschinelles Lernen und KI erweitern. Diese Vermögensverwalter befinden sich jedoch in einem erheblichen Nachteil. Erstens verfügen sie möglicherweise nicht über Fachwissen im Bereich der systematischen Modellentwicklung oder des maschinellen Lernens/der KI. Ein Sommerpraktikant mit einem einzigen Kurs über maschinelles Lernen in seinem Lebenslauf stellt keine "Expertise" dar. Zweitens gibt es Hunderte von Algorithmen für maschinelles Lernen und eine wachsende Zahl von KI-Tools, und die Auswahl des für das jeweilige Problem am besten geeigneten Ansatzes erfordert Fachwissen. Drittens glauben unerfahrene Unternehmen fälschlicherweise, dass "Big Data kostenlos" ist. Auch wenn die Daten leicht im Internet verfügbar sind, sind sie nicht kostenlos. Die Bereinigung der Daten ist mit erheblicher Sorgfalt (und Kosten) verbunden. Wenn die Daten nicht bereinigt sind, können sie irreführende Ergebnisse liefern, wenn der Algorithmus angewendet wird. Viertens ist es unwahrscheinlich, dass viele Wertpapierfirmen über die spezielle Rechenleistung verfügen, die erforderlich ist, um diese Algorithmen erfolgreich zu trainieren und in Echtzeit auszuführen.

Technologie allein erhöht nicht die Wahrscheinlichkeit einer Outperformance: Die Outperformance hängt von den Fähigkeiten des Teams ab, das die Technologie auf das Anlageproblem anwendet.
Dr. Campbell Harvey

Nimmt man all diese Punkte zusammen, werden viele Anleger enttäuscht sein, weil sie dachten, sie würden in die neueste Technologie investieren. Technologie allein erhöht jedoch nicht die Wahrscheinlichkeit einer Outperformance: Die Outperformance hängt von den Fähigkeiten des Teams ab, das die Technologie auf das Anlageproblem anwendet. Daher sehe ich eine Umwälzung in der Anlageverwaltung. Einige kleinere Unternehmen, die es sich nicht leisten können, ein Team für maschinelles Lernen einzustellen, in die IT-Ressourcen für ein zuverlässiges Datenbankmanagement zu investieren oder die erforderlichen Rechenkapazitäten zu erwerben, werden scheitern oder von größeren Unternehmen übernommen werden, die sowohl über die Erfahrung als auch über die erforderlichen technologischen Ressourcen verfügen.

Eine Vorhersage ist leicht zu treffen. Forschungsprojekte, die vor Jahrzehnten noch theoretisch waren, sind heute realisierbar. Schon jetzt erleben wir einen starken Anstieg der Forschung im Bereich der systematischen Anlagen, was nur die Spitze des Eisbergs ist. Systematische Strategien werden von institutionellen Anlegern zunehmend für Tail-Hedging und defensive Overlay-Programme sowie für Asset-Allocation-Lösungen eingesetzt, um einen Teil der Aktien- und Rentenportfolios zu ersetzen. Im letzten Jahr hat sich eine neue Klasse vielversprechender KI-Tools herausgebildet. Wie ich bereits erwähnt habe, gibt es Risiken, die gemildert werden müssen. Neue systematische Strategien versprechen eine bessere Portfolioauswahl und eine Verringerung der Risiken. Es ist eine aufregende Zeit für das Vermögensverwaltungsgeschäft.

Danksagung

Ich bedanke mich für die Kommentare von Rob Arnott, James Barber, Otto Van Hemert und Feifei Li zu früheren Versionen dieses Beitrages sowie für die redaktionelle Unterstützung durch Kay Jaitly.

Referenzen

Arnott, Rob, Campbell R. Harvey, and Harry Markowitz. 2019. “A Backtesting Protocol in the Era of Machine Learning.” Journal of Financial Data Science, vol. 1, no. 1:64–74.

Harvey, Campbell R., Sandy Rattray, Andrew Sinclair, and Otto Van Hemert. 2017. “Man vs. Machine: Comparing Discretionary and Systematic Hedge Fund Performance.” Journal of Portfolio Management, vol. 43, no. 4 (Summer):55–69.

Harvey, Campbell R., 2021. “Why Systematic Investing is Important”, Journal of Systematic Investing, 2021, 1:1, i-iv.

Fußnoten

[1] Siehe Harvey et al. (2018).

[2] Siehe Arnott, Harvey, and Markowitz (2019).

Quellen

Sie möchten diesen Beitrag – komplett oder in Auszügen – für Ihre Zwecke verwenden? Dann berücksichtigen Sie bitte die folgende Creative Commons-Lizenz.