procontra: Die Bundesanstalt für Finanzdienstleistungsaufsicht BaFin hat das Papier: „Big Data und künstliche Intelligenz: Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen“ veröffentlicht. Die Prinzipien sollen zu einem „verantwortungsvollen Einsatz von Big Data und künstlicher Intelligenz führen“ und die „Kontrolle des damit einhergehenden Risikos ermöglichen“. Sie selbst bieten Investmentfonds an, bei denen künstliche Intelligenz zum Einsatz kommt. Geht das Papier aus Ihrer Sicht in die richtige Richtung?
Hendrik Leber: Mir ist der Zweck des Papers leider nicht ganz klar geworden. Wenn es allein hieße: „Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen von Finanzdienstleistungsunternehmen“ wäre es ein guter Titel. Denn es geht nahezu ausschließlich um Algorithmen. Mit Big Data und künstlicher Intelligenz hat die Veröffentlichung jedoch nichts zu tun. Auch die Anwendungsgebiete werden leider nicht ganz klar.
procontra: Unter Algorithmen versteht die BaFin „Handlungsvorschriften, die in der Regel in ein Computerprogramm integriert sind und ein (Optimierungs-)Problem oder eine Klasse von Problemen lösen“. Trifft diese Definition?
Leber: Ich vermute, die meisten wissen nicht genau, was ein Algorithmus ist. Wenn ich sage: „Frauen bekommen einen anderen Tarif bei der Kraftfahrzeugversicherung als Männer“, dann ist das ein Algorithmus. Denn damit bin ich bereits in der Diskriminierung, also in der Unterscheidung – und zwar absichtlich. Der Zweck von Entscheidungsfindung ist, zu diskriminieren. Und ein Algorithmus soll diskriminieren, das ist seine Aufgabe. Jeder Fondsmanager, der sagt: „Ich kaufe nur Aktien mit einem Kurs-Gewinn-Verhältnis von unter zehn“ hat einen Algorithmus im Einsatz. Das ist eine Entscheidungsregel, die er aufgesetzt hat. Diese Algorithmen werden von dem Paper aber leider nicht abgedeckt. Solche Algorithmen werden von der BaFin bislang ebensowenig hinterfragt und überprüft wie die komplexeren Algorithmen.
procontra: Was könnte die BaFin also tun aus Ihrer Sicht?
Leber: Es wäre notwendig, die Definition für Algorithmus erst einmal sehr breit zu fassen. Man würde außerdem fordern, dass die Prozesse auf Basis von Algorithmen dokumentiert und gespeichert werden sollen und dass das Modell, das tatsächlich eingesetzt wird, an einer Stelle hinterlegt sein soll. Zudem müsste das Modell nach bestimmten Standardkriterien getestet, verifiziert und regelmäßig überprüft werden und dem Revisor offenstehen. Es gibt Fondsanbieter mit den ausgefeiltesten Portfoliosystemen, bei denen die Manager an zig Algorithmen tüfteln. Die Modelle enthalten, stark vereinfacht ausgedrückt, Punkte wie: Dividendenrendite gestiegen, Volatilität gefallen, Marktkapitalisierung gestiegen und so weiter. Das ist keine künstliche Intelligenz, aber ohne gründliches Testen genauso gefährlich. Mit den eben beschriebenen Prüfstufen würde man aufsichtstechnisch aber bereits eine Menge erreichen.
Seite 1: Algorithmen in Finanzunternehmen: Wie bewerten Sie die Aufsichtsprinzipien der Bafin?Seite 2: Wie seiht es im Bereich künstliche Intelligenz aus?Seite 3: Welche zusätzlichen Aufsichtsmaßnahmen sind künftig zu erwarten?
procontra: Was sind die wesentlichen Merkmale künstlicher Intelligenz?
Leber: Der Hauptunterschied von künstlicher Intelligenz oder AI zu klassischen Algorithmen ist zum einen, dass die Ergebnisse nicht hundertprozentig reproduzierbar sind. Man arbeitet zum Beispiel mit einer sogenannten Seed, mit Zufallsstartpunkten, und arbeitet sich von dort vorwärts. Daher wird man, wenn man das Modell einige Male durchlaufen lässt, nie exakt das gleiche Ergebnis bekommen. Zum zweiten sind in komplexen AI-Modellen die Ergebnisse für den Menschen nicht mehr nachvollziehbar. Die Modelle sind aber testbar. Testen ist generell einer der wichtigsten Punkte im Modelleinsatz, egal für welches Modell.
procontra: Wie sehen Tests bei AI-Modellen aus?
Leber: Der Klassiker ist: Ich habe eine Trainingsmenge, mit der ich das Modell trainiere und eine Testmenge oder Validierungsmenge, mit der ich das Modells verifiziere. Der wirkliche Test fängt aber dann an, wenn ich in das Unbekannte hinausgehe und dort im Echtbetrieb sehe, ob das Modell funktioniert – wenn ich das Modell also in der Realität anwende. Diese drei Gruppen: trainieren, testen und durch Anwendung in der Realität über einen gewissen Zeitraum prüfen, ob das Modell auch wirklich läuft, sind aber nicht nur für AI-Modelle wesentlich, sondern für alle Algorithmen. Backtests oder Rückrechnungen zum Beispiel passen immer. Da wird optimiert und optimiert, bis es passt. Dummerweise ist es aber häufig so, dass es im Echtbetrieb nicht mehr so gut passt. Das ist ein klassisches Beispiel dafür, dass Modelle eine Zeitlang auch in der Realität getestet werden sollten. Das ist dann echtes Verifizieren! Eine solche strenge Systematik sollten eigentlich alle einhalten, aber die wenigsten tun das.
procontra: Was könnte die BaFin also unternehmen?
Leber: Wenn ich die BaFin wäre, würde ich zur gesamten Investmentbranche sagen: „Zeigt mir eure Modelle, auf denen eure Portfolios aufgebaut sind. Zeigt mir, wie Ihr getestet habt, wieviele Modelle Ihr verworfen habt, wie die Ausreißer waren und ähnliche Punkte mehr. Wenn dies standhält, dürft Ihr das Modell einsetzen.“ Denn es ist ein Risiko für einen Anleger, wenn er von einem Anbieter eine verlockende Geschichte hört, warum sein Modell wunderbare Ergebnisse bringt, es in der Realität aber nicht funktioniert. Das meine ich mit „gefährlich“. Es sollte für alle diese Modelle Dokumentations- und Testpflichten geben, auch für Tests im Realbetrieb.
procontra: Bezüglich verwendeter Algorithmen bei „Big Data und künstlicher Intelligenz“ stellt das Prinzipienpapier zahlreiche Anforderungen, zum Beispiel: „Bei der Verwendung algorithmisch erzeugter Ergebnisse in Entscheidungsprozessen sollten risikoorientiert vorab die Situationen klar definiert sein, die einen intensiveren Freigabeprozess nach sich ziehen“. Wie bewerten Sie diese?
Leber: Ein Portfolio hat immer ein Risiko, egal ob ein Fondsmanager mit AI arbeitet oder mit einem einfachen Multi-Faktor-Ansatz, den das Papier als Anwendungsbeispiel von Algorithmen bei der Verwaltung von Fonds nennt. Klassischerweise werden bei diesem Ansatz vereinfacht gesagt Regeln festgelegt wie: Die Dividendenrendite der vergangenen drei Jahre ist über drei Prozent und das Kurs-Buchwert-Verhältnis ist unter zwei bei Portfoliokandidaten. Ich wüsste aber nicht, warum Anforderungen an Algorithmen bei AI andere sein sollten als bei konventionellen Modellen! Einige Punkte der BaFin sind allerdings sehr valide, zum Beispiel, dass eine gute Datenqualität vorliegen muss. Das Aufräumen der Daten im Vorfeld ist eine elementare Aufgabe – Datenanbieter leben damit seit jeher. Generell gibt es sehr berechtigte Anforderungen bei der Entwicklung von Modellen, die man einhalten sollte.
procontra: Welche zum Beispiel?
Leber: Bei einem großen Projekt eines Beratungsunternehmens habe ich einmal erlebt, dass eine Variable in der Profitabilitätsbetrachtung vergessen wurde, die 90 Prozent des Wertes ausmachte. Es gab einen etwa drei Meter hohen Papierstapel an produziertem und ausgewertetem Material – und dann stellte sich heraus, dass alles falsch war. Es ist also auch aus Sicht der Aufsicht notwendig, die Inputfaktoren und den Ablauf eines Prozesses zu überwachen und eine Qualitätssicherung zu betreiben. Das möchte ich aber bei allen Investmentfonds sehen, die Algorithmen anwenden und nicht nur bei AI-basierten Fonds! Unser Anliegen ist, vor allem beim Thema Algorithmus alle Leute einzubeziehen – auch diejenigen, die glauben, frei davon zu sein.
Seite 1: Algorithmen in Finanzunternehmen: Wie bewerten Sie die Aufsichtsprinzipien der Bafin?Seite 2: Wie seiht es im Bereich künstliche Intelligenz aus?Seite 3: Welche zusätzlichen Aufsichtsmaßnahmen sind zu erwarten?
procontra: Welche weiteren Aufsichtsmaßnahmen der BaFin sind aus Ihrer Sicht in diesem Bereich zu erwarten?
Leber: Im Hochfrequenzbereich gibt es einige Problematiken, die die BaFin womöglich noch adressieren wird. Der Hochfrequenzhandel ist algorithmisch, hat aber mit AI nichts zu tun. 2010 gab es zum Beispiel an der New Yorker Börse einen „Flashcrash“, ein Verrücktspielen von Kursen. 2012 ging in einer ähnlichen Situation die Firma Knight Capital Bankrott. Eines von mehreren Modellen der Firma war für einige Zeit Amok gelaufen, weil der Freigabeprozess des Modells nicht sauber organisiert war. So hatte die Firma praktisch systematisch – und sehr erfolgreich – gegen sich selbst spekuliert. Innerhalb von zwei Stunden war sie zerstört. Das zeigt, dass klassische Anforderungen an jegliche EDV-Prozesse, wie etwa das Testen, vorgegeben sein müssen, bevor eine endgültige Freigabe erfolgt. Das alles sind klassische IT-Prozesse.
procontra: Was würden Sie zum Bereich künstliche Intelligenz in der Verwaltung von Investmentfonds noch ergänzen?
Leber: Zum einen: Die Bäume wachsen nicht in den Himmel. Wir freuen uns, wenn wir 5 Prozent Outperformance haben. Es sind aber eben 5 Prozent und nicht 99. Man kann also nur relativ kleine Vorteile erreichen. Die AI wird außerdem viele Menschen ersetzen, weil sie wesentlich effizienter arbeitet. Ein Fondsanbieter könnte zum Beispiel sein AI-Modell an zehn Personen lizensieren und braucht zudem keine Fondsmanager mehr. Auch da wird noch viel passieren. Generell werden neue Datenkonzepte recht schnell ausgebeutet werden. Angenommen, ich würde aus einem Satellitenbild etwas Bestimmtes auswerten – in zwei Jahren wäre der Effekt vorbei, weil alle es machen. Das „Ratrace“, der Wettlauf um einen Vorteil, wird daher weitergehen.
procontra: Wie weit könnte das „Ratrace“ gehen?
Leber: In dem Teil der Finanzbranche, in dem ich aktiv bin, kommen Sie schnell an Grenzen, weil Sie nicht genügend Datenmaterial haben. Ich habe für Microsoft eben nur einen Aktienkurs – und ich habe keine zehn Microsofts, die ich miteinander vergleichen kann. Sie stoßen daher immer wieder auf dieselben sechs-, acht- oder zehntausend Firmen auf der Welt, die miteinander vergleichbar sind. Zudem bringen die Unternehmen keine Überraschungen mehr. Hätte ich die hundertfache Menge an Daten, würde ich gern den großen Hobel ansetzen und ein komplexes AI-Modell anwenden. Aber mit den bestehenden Einheiten sind die Modellkomplexitäten am Ende überschaubar.
Wenn Ihnen dieser Artikel gefällt, abonnieren Sie unseren täglichen kostenlosen Newsletter für weitere relevante Meldungen aus der Versicherungs- und Finanzbranche!
Seite 1: Algorithmen in Finanzunternehmen: Wie bewerten Sie die Aufsichtsprinzipien der Bafin?Seite 2: Wie seiht es im Bereich künstliche Intelligenz aus?Seite 3: Welche zusätzlichen Aufsichtsmaßnahmen sind zu erwarten?

