Teilen Sie diesen Artikel & Unterstützen Sie unsere Mission Alpha for Impact
23
08
2021

"Echte" künstliche Intelligenz.

Post by 
Wenn Machine Learning der „neueste Schrei“ im quantitativen Asset Management ist, dann ist kausale künstliche Intelligenz sicherlich der „allerneueste Schrei“. Tatsächlich versprechen Entwicklungen aus diesem Bereich in Zukunft das meiste Potenzial.

Machine Learning

Klassisches Machine Learning funktioniert in bestimmten Bereichen hervorragend. Die bekanntesten Erfolgsstorys sind etwa Spracherkennung, strategische Spiele und Robotik. Ermöglicht wurde dies vor allem durch den starken Anstieg der verfügbaren Daten sowie von Rechenkapazitäten.

Doch was den erfolgreichen Einsatz solcher Modelle an den Finanzmärkten angeht, tut man sich deutlich schwerer. Hier müssen sich Anwender mit Problemen wie dem nicht-stationärem Umfeld, einem begrenztem Datenumfang und dem schlechten Signal-to-Noise Ratio herumschlagen. Hinzu kommt, dass die besten Modelle komplizierte Black Boxes sind, die ein Mensch weder verstehen noch erklären kann.

Trade-Off bei klassischem Machine Learning
Abbildung 1) Trade-Off bei klassischem Machine Learning
Quelle: causaLens (2020), Truly Explainable AI: Putting the “Cause” in “Because”, S. 2

Inzwischen hat sich die strukturelle Modellierung als vielversprechender Ansatz etabliert. Dabei wird Machine Learning innerhalb eines übergeordneten, theoretisch fundierten und von menschlichen Experten akzeptierten (ökonomischen) Modells implementiert, was sich aktuell als State-of-the-Art-Lösung bezeichnen lässt.

Curve Fitting statt Intelligenz

Professor Judea Pearl ist ein Experte, dem das für die Zukunft nicht ausreicht. In einem Artikel schreibt er, dass Deep Learning letztlich Curve Fitting ist, bei dem der Anwender aber nicht erfährt, warum es funktioniert (oder warum nicht) und was verändert werden sollte. Der Fehler könnte also im Programm oder in der Methodik liegen, aber auch die Rahmenbedingungen könnten sich verändert haben. Man weiß es einfach nicht.

Nun könnte man einwenden, dass eine solche Transparenz überhaupt nicht erforderlich ist. Schließlich wissen wir auch bei unserem Gehirn nicht genau, warum es funktioniert. Doch Pearl widerspricht diesem Vergleich: Das Gehirn funktioniert bei verschiedenen Menschen gleich. Das ermöglicht es, in einer gemeinsamen Sprache zu kommunizieren, voneinander zu lernen und uns zu motivieren. Davon ist künstliche Intelligenz noch weit entfernt. Denn bisher haben Algorithmen nur die erste von drei Stufen erreicht, die „sehende“ statistische Ebene. Diese fragt sinngemäß: „Welche Krankheit wird am besten durch die beobachteten Symptome erklärt?“

„I view machine learning as a tool to get us from data to probabilities. But then we still have to make two extra steps to go from probabilities into real understanding – two big steps.“ (Judea Pearl) [1]

Zwei große Schritte

Für die beiden höheren Stufen auf dem Weg zur echten künstlichen Intelligenz sind laut Pearl folgende Aspekte zu berücksichtigen: [1]

Auswirkungen von Interventionen („Werden die Symptome verschwinden, wenn ich dieses Medikament nehme?“): Diese Informationen können in visuelle Modelle kodiert werden, die beschreiben, welche Variable auf eine andere reagiert.
Imaginäre Überlegungen („Würden meine Symptome verschwinden, wenn ich das Medikament nicht genommen hätte?“): Das ist die Sprache, die Wissenschaftler verwenden, aber sie ist noch schwieriger. Hier braucht es Gleichungen, die uns sagen, wie Variablen auf Änderungen in anderen Variablen reagieren.

Der entscheidende Punkt dieser beiden Stufen ist, dass sie kausale Modelle verlangen. Die Grundlage hierfür stellt das Bayes'sche Netz dar, das Pearl schon im Jahr 1985 vorstellte. [2] Es handelt sich dabei um ein probabilistisches, grafisches Modell, das eine Menge von Variablen und ihre bedingten Abhängigkeiten zeigt. Damit kann für ein bestimmtes Ereignis ermittelt werden, mit welcher Wahrscheinlichkeit einzelne Faktoren zu dessen Auftreten beitrugen.

Beispiel für ein Bayes'sches Netz

Zwei Ereignisse können dazu führen, dass Gras nass ist: Regen oder eine aktive Sprinkleranlage.
Regen wirkt sich direkt auf den Sprinkler aus, der dann in der Regel nicht aktiv ist.
In einem Bayes'schen Netz lässt sich das wie nachfolgend gezeigt modellieren, wenn jede Variable zwei mögliche Werte annehmen kann (T = wahr, F = falsch). [3]
Bayes'sches Netz
Abbildung 2) Bayes'sches Netz
Quelle: Wikipedia, Bayesian Network, https://en.wikipedia.org/wiki/Bayesian_network, Zugriff am 27.01.2021

Der Knackpunkt: Kausalitäten erkennen

Nun hat sich allerdings herausgestellt, dass es ein schwieriges Unterfangen ist, kausale Zusammenhänge in den Zeitreihen von komplexen, dynamischen Systemen statistisch zuverlässig zu erkennen. Schon rein intuitiv muss das auch so sein – sonst wäre das Ganze wohl schon längst zum Standard worden.

Konkret liegen die Herausforderungen in starken gegenseitigen Abhängigkeiten und Zeitverzögerungen sowie einer hohen Dimensionalität der vielen verschiedenen Variablen. Entsprechend treten in den Zeitreihen Autokorrelationen auf, oder verschiedene einzelne, für sich genommen wenig aussagekräftige Variablen erzielen kollektiv plötzlich einen deutlichen Effekt. Das erschwert nicht nur die Suche nach den wahren Kausalitäten, sondern auch das Erkennen falsch-positiver Zusammenhänge.

Beispiel

Die folgende Grafik zeigt schematisch ein komplexes System (A), für das die zugrunde liegenden kausalen Abhängigkeiten (B) zu schätzen sind. Dabei werden sowohl lineare als auch nichtlineare Zusammenhänge und deren Zeitverzögerungen berücksichtigt. Dabei können paarweise Korrelationen zu Fehlern führen (graue Pfeile). Zum einen aufgrund gemeinsamer Treiber: So wirkt sich X2 sowohl auf X1 als auch auf X3 aus, sodass auch eine Korrelation zwischen X1 und X3 entsteht, die aber nicht ursächlich und potenziell irreführend ist. Und zum anderen aufgrund indirekter Pfade: X2 wirkt sich auf X3 aus und X3 auf X4, aber die Korrelation zwischen X2 und X4 ist nicht ursächlich.
Aufdecken kausaler Zusammenhänge
Abbildung 3) Aufdecken kausaler Zusammenhänge
Quelle: Runge, J. / Nowack, P. / Kretschmer, M. / Flaxman, S. / Sejdinovic, D. (2019), Detecting and Quantifying Causal Associations in Large Nonlinear Time Series Datasets, Science Advances, Vol. 5, Nr. 11, S. 2

Kausale Modelle

Solche irreführenden Korrelationen sind das Hauptproblem von klassischem Machine Learning. Diese gilt es, mit geeigneten Methoden zu erkennen und auszusortieren. Auf diese Weise können zunehmend nur die wenigen, aber dafür mit hoher Wahrscheinlichkeit kausalen Beziehungen im Modell beibehalten werden. Die entscheidende Frage ist dabei nur: Wie geht das?

Spezialisierte Unternehmen wie causaLens entwickeln mit hochqualifizierten Teams komplexe mathematische Modelle, um festzustellen, mit welcher Wahrscheinlichkeit die Zusammenhänge in den Daten kausal und wie stark sie einzuschätzen sind. Dazu werden beispielsweise alternative Szenarien durchgespielt, um Ketten von Ursache und Wirkung zu ermitteln – ganz nach menschlichem Vorbild im Sinne eines „Machine Scientists“. Allerdings steht das Ganze noch am Anfang, wie der Gründer des Unternehmens, Darko Matovski, bei der Jahrestagung Portfoliomanagement im Dezember 2020 sagte. Die genauen Details des Prozesses sind sehr kompliziert und stellen die „Secret Sauce“ von causaLens dar, das seinen Kunden entsprechend kalibrierte Prognosemodelle anbietet. Erstellt werden diese wie klassisches Machine Learning in der Programmiersprache Python.

Ein interessanter Aspekt ist dabei die Funktion, kausale Zusammenhänge zu visualisieren und so den „Denkprozess“ der Algorithmen verständlich zu machen. Das wiederum ermöglicht es Nutzern, mit den Modellen zu interagieren. Die kausalen Beziehungen stellen demnach die gemeinsame Sprache dar, in der Menschen und Algorithmen miteinander kommunizieren. [4]

Und der Spieß lässt sich auch umdrehen: Nicht nur können die Algorithmen kausale Zusammenhänge aus den Daten lernen, die dann von Experten evaluiert werden. Die vermuteten Zusammenhänge bzw. der Kontext lassen sich auch durch die Experten vorgeben und dann durch Machine Learning evaluieren, was analog zur klassischen strukturellen Modellierung ist.

Kooperation von Mensch und Maschine

Kausale Modelle können auch spezifisches Expertenwissen integrieren, wenn gesicherte Zusammenhänge bestehen, die eine höhere Aussagekraft ermöglichen. Der Vorteil ist dabei, dass dieses Wissen nicht in digitaler Form vorliegen muss und auch unstrukturiert sein kann. Zudem können Experten die „kausale Karte“ entsprechend ergänzen, wenn in einem Bereich keine ausreichenden Daten vorliegen.

Auch ist der Input nicht auf einen Zeitpunkt beschränkt und kann kontinuierlich erfolgen. Bei veränderten Rahmenbedingungen sind deshalb schnelle, fundierte Anpassungen im Zeitablauf möglich. Das bedeutet zwar, dass die Modelle nicht mehr autark funktionieren. Aber es ermöglicht Algorithmen gleichzeitig, beständig und kontextbezogen Rückschlüsse auf Ursache und Wirkung in den Daten zu ziehen. Dank des externen Inputs können die Modelle mitunter sogar schneller auf unerwartete Veränderungen reagieren, als in den Daten überhaupt erkennbar ist. Das zeigt, wie Mensch und Maschine sich im Idealfall gegenseitig ergänzen. [4] Allerdings kann dadurch auch das Fehlerpotenzial steigen.

„We need to blend computer-based forecasting and subjective judgment in the future“.
Philip Tetlock in seinem Buch „Superforecasting“

Echte künstliche Intelligenz

Ein zusätzlicher Erfolgsfaktor ist das wiederholte Durchführen virtueller Experimente. Diese können auch in der Realität nie aufgetretene Ereignisse simulieren (Artificial Imagination). Unter Beobachtung der Ergebnisse kann sich daraus ein Lerneffekt einstellen. Dieser wäre ganz ähnlich dazu, wie ein Mensch lernt, dessen komplexes Netzwerk von Neuronen im Gehirn auch mit einem Computer simuliert werden könnte. Zwar würde das nicht genauso ablaufen wie in unserem Kopf. Aber laut Matovski kann es trotzdem funktionieren, auch wenn eine gewisse Abstraktion erfolgt – ähnlich wie ein Flugzeug eine Abstraktion eines Vogels als Vorbild aus der Natur darstellt.

Nimmt man den genannten Input von Experten hinzu, wird das Durchspielen alternativer Szenarien möglich. Über das Interface der visualisierten Darstellung können die kausalen Beziehungen manuell angepasst werden, um zu sehen, wie sich das wahrscheinlich auf die Ergebnisse auswirkt. Das entspricht der dritten Stufe der künstlichen Intelligenz nach Pearl: „Was wäre gewesen, wenn?“.

Fazit

Machine Learning allein hat nichts mit echter künstlicher Intelligenz zu tun. Entscheidend dafür ist die Entwicklung kausaler Modelle. Anders als im klassischen Machine Learning für Bilderkennung oder Strategiespiele ist hier aber kein schlagartiger, großer Durchbruch zu erwarten. Das Ganze ist eher ein langer Prozess mit vielen kleinen Fortschritten, die sich im Lauf der Zeit kumulieren.

Wichtig ist dabei, zu erkennen, dass Perfektionismus der falsche Ansatz ist. Und überhaupt müssen die Erwartungen nicht zu hoch gesteckt werden. Denn an den Märkten reichen schon kleine, aber beständige Vorteile aus, um im Zeitablauf erhebliche Überrenditen zu erzielen. Wenn kausale Modelle also nur ein bisschen besser performen als klassische Ansätze der Konkurrenz, ist das bereits Gold wert.

Auf der Meta-Ebene gibt es noch eine weitere, interessante Schlussfolgerung: Letztlich macht kausale künstliche Intelligenz nichts anderes, als im Zeitablauf die entscheidenden Treiber in den Daten zu identifizieren und diese anhand verifizierter Modelle zu bewerten. Das ist ganz ähnlich dazu, wie die besten Investoren auf Basis umfassender Analysen und mit Erfahrungen das Marktregime bestimmen und dann dafür passende Handelsstrategien umsetzen. Beides könnte am Ende zum gleichen Ergebnis führen: Einem positiven Alpha.

Quellen

[1] Pearl, J., The Limitations of Opaque Learning Machines, in: Brockman, J. (2019), Possible Minds – 25 Ways of Looking at AI, Penguin Press
[2] Pearl, J. (1985), Bayesian Networks: A Model of Self-Activated Memory for Evidential Reasoning, University of California
[3] Wikipedia, Bayesian Network, https://en.wikipedia.org/wiki/Bayesian_network, Zugriff am 27.01.2021
[4] causaLens (2020), Empower Experts with Causal AI

Sie möchten diesen Beitrag – komplett oder in Auszügen – für Ihre Zwecke verwenden? Dann berücksichtigen Sie bitte die folgende Creative Commons-Lizenz.