Finanzmarktaufsicht Innovation braucht Kontrolle

Finanzmarktaufsicht: KI und Big Data brauchen Kontrolle Quelle: imago images

Künstliche Intelligenz und Big Data verändern die Finanzmärkte. Technologien können uns klüger machen – oder in die nächste Finanzkrise stürzen. Die Finanzmarktaufsicht darf diesen tiefgreifenden Umbrüchen nicht hinterher hinken.

  • Teilen per:
  • Teilen per:

Die Finanzmarktaufsicht ist eine wichtige Institution unserer sozialen Marktwirtschaft und damit auch unserer Demokratie. Wir sollten sie gerade jetzt in besonderem Maße stärken. Wenn die Aufsicht nicht genügend Ressourcen und Kompetenzen hat, um ihrer wichtigen Aufgabe nachzugehen, dann drohen sowohl Verwerfungen auf den Finanzmärkten als auch ein beschleunigter Vertrauensverlust der Bürgerinnen und Bürger in Staat und Politik. Das gilt es unter allen Umständen zu verhindern. Gerade auf dem Finanzmarkt sind Innovation und Aufsicht zwei Seiten derselben Medaille.

Wohin menschliche Fehler auf den Finanzmärkten führen können, haben wir vor zehn Jahren erfahren. Die Finanzkrise, die mit dem Untergang der Investmentbank Lehman Brothers die Welt erschütterte, hatte ihre Ursache in Fehleinschätzungen von Banken und Ratingagenturen, von Politikern und Journalisten, von Volkswirten und Zentralbankern. Es war menschliche Ignoranz gepaart mit blindem Vertrauen in Risikomodelle, die nicht ansatzweise dem Treiben auf den Märkten gerecht wurden.

Heute hingegen verlässt man sich auf den Finanzmärkten immer weniger auf die Entscheidungen von Menschen – und bereitwillig auf künstliche Intelligenz, Big Data und Algorithmen. Die damit verbundenen automatisierten Prozesse übertreffen das dem Menschen Mögliche an Quantität, Geschwindigkeit und Komplexität bei weitem. Für Aufsicht und Kontrolle – und damit auch für die Finanzmarktstabilität – stellen sie allerdings eine immense Herausforderung dar. 

Diese Innovationen bieten neue Möglichkeiten für Kundinnen und Kunden, Unternehmen, Banken und Startups aus dem Bereich der Finanztechnologie (FinTechs). Dazu passt, dass das Unternehmen Wirecard, ein Anbieter digitaler Zahlungsverfahren, die Commerzbank gerade aus dem Dax verdrängt hat. Sie verändern aber auch die Parameter, die über die nächste Finanzkrise entscheiden können. Wenn der Mensch Technologien vertraut, die Entscheidungen potenzieren, aber deren  Folgen und Wechselwirkungen nicht im Griff hat, kann das zu Verwerfungen auf den Finanzmärkten führen. Technologien, die helfen, dass wir klüger entscheiden – die aber auch unsere Dummheit verstärken können.

Algorithmen sind schneller und effektiver. Sie machen das System aber auch fragiler

Ein erheblicher Teil des Handels von Wertpapieren erfolgt automatisiert und in rasanter Geschwindigkeit. Es war einmal, dass Händler an der Börse über Handzeichen oder Zuruf Wertpapiere gekauft oder verkauft haben. Heute geschieht das zunehmend über Algorithmen, die angesichts einer Fülle an Daten, Nachrichten, Kursinformationen besser als der Mensch Muster und Trends erkennen können und in Millisekunden entscheiden. Der Mensch schaltet den Kopf aus und lässt die Maschine machen – das ist heute schon Realität und keine Zukunftsmusik. Doch ohne angemessene Aufsicht und Kontrolle drohen erhebliche systemische Risiken. Darauf verweist eine aktuelle Studie des World Economic Forum zur Transformation der Finanzmärkte durch künstliche Intelligenz.

So kann sich der Effekt einer algorithmischen Fehlentscheidung potenzieren und eine Krise sich ausbreiten, wenn mehrere Robo-Trader oder Institutionen die gleichen Algorithmen oder Daten verwenden. Ein digital-getriebener Herdentrieb kann dazu führen, dass Entscheidungen von Algorithmen sich gegenseitig verstärken – quasi künstliche Dummheit. In einer Lehman-ähnlichen Situation kann das brandgefährlich werden.

So funktioniert Künstliche Intelligenz

Falschmeldungen, auf die Algorithmen in Bruchteilen einer Sekunde reagieren, können reichen, um massive Verkäufe und Preisstürze in Gang zu setzen. Solche Flashcrashs beim automatisierten Hochfrequenzhandel konnten wir bereits vereinzelt beobachten. Hinzu kommt, dass durch die steigende Vernetzung die Risiken durch Hackerangriffe steigen. Auch eine bewusste Manipulation von Algorithmen – ob mit der Absicht, Gewinne zu erzielen oder die Märkte einbrechen zu lassen – ist nicht ausgeschlossen. Algorithmen beschleunigen den Handel, sie tragen dazu bei, effektive Entscheidungen zu treffen. Sie machen das gesamte System jedoch auch fragiler.

Geschäftsmodelle, die auf künstliche Intelligenz und Big Data beruhen, rufen externe Akteure auf den Plan, die diese Dienstleistungen anbieten. Wenn beispielsweise Banken mit einem Unternehmen wie Facebook zusammenarbeiten, das über einen immensen Datenschatz verfügt, der bei der Risikobewertung beispielsweise von Krediten relevant sein kann: Fällt Facebook damit unter die Finanzmarktaufsicht? Kann Facebook gar systemrelevant werden?

Ein intelligenter Finanzmarkt braucht eine intelligente Aufsicht

Felix Hufeld, der aktuelle Chef der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin), hielte es für falsch „aus Angst vor den Risiken einer Technologie deren Chancen wegzuregulieren“. Innovationen bräuchten gerade am Anfang Raum, um sich entwickeln zu können. Wenn „Gefährdungslagen für die Finanzstabilität oder den Schutz der Verbraucher“ vorlägen, würde die BaFin „nachkalibrieren“. Hufeld bezieht das auf Blockchain und Kryptowährungen, es gilt aber genauso auch für künstliche Intelligenz, Big Data und Algorithmen. Ich teile im Prinzip seine Haltung. Aber wann ist der Zeitpunkt erreicht, ab dem stärker reguliert werden muss? Wissen wir, wann es noch nicht zu spät ist?

Der frühere BaFin-Chef Jochen Sanio erklärte die Überraschung angesichts der 2008 einsetzenden Finanzkrise auch mit einem „Wissensproblem“. Seiner Behörde mangelte es offenbar an Kenntnissen über die Untiefen des globalen Finanzmarkts. Haben wir heute auch ein Wissensproblem? Allerdings.

Wir wissen heute zwar, wie es zur Finanzkrise vor zehn Jahren kommen konnte und welche Fehler begangen wurden. Eine Lektion aus der Lehman-Insolvenz und Finanzkrise war: Regulatorische Institutionen hielten nicht Schritt mit den Entwicklungen am Markt. Es wurde vorher zu viel dereguliert. An Finanzplätzen wurde die Aufsicht zurückgefahren. Es mangelte an Transparenz und die Produkte wurden inhaltlich nicht mehr verstanden.

Das kann uns jedoch wieder passieren. Denn heute wissen wir zu wenig darüber, wie künstliche Intelligenz, Algorithmen und Big Data sowohl die Stabilität als auch Krisenanfälligkeit des Finanzmarkts beeinflussen können. Diese Wissenslücke ist für die Aufsicht und Kontrolle des Finanzmarkts ein großes, ein gefährliches Problem.

Der Finanzprofessor Andreas Hackethal findet es zurecht erstaunlich, wenn seine Master-Studenten „wenig Ahnung haben von Fintechs, Robo-Advisern und Smart-Phone-Banken wie N26.“ Da stellt sich für mich die Frage: Wenn schon zukünftige Banker wenig von dieser Materie verstehen, wie steht es da erst um unsere Aufsicht?  Dort befassen sich vor allem Juristen und Wirtschaftswissenschaftler – und nicht etwa Informatiker und andere IT-Experten –  mit algorithmischem oder hochfrequentem Handel, wie die Bundesregierung kürzlich in der Antwort auf eine Anfrage der Grünen Bundestagsfraktion zum Hochfrequenzhandel in Deutschland erklärte.

Künstliche Intelligenz, Big Data und Algorithmen – allesamt hochkomplexe Verfahren und Zusammenhänge im Finanzmarkt – sollten von einer Aufsicht kontrolliert und überwacht werden, die über die entsprechende technischen und intellektuellen Fähigkeiten verfügt. Durch einen klugen Einsatz neuer Technologien wäre es Aufsichtsbehörden möglich, sehr viel schneller Gefahren zu erkennen. Künstliche Intelligenz und Big Data sollten im Sinne so genannter RegTech (eine Wortschöpfung aus Regulierung und Technologie) stärker in den Alltag staatlicher (Aufsichts-)Institutionen einbezogen werden. Risiken einzelner Institute könnten anhand von Echtzeit-Daten erkannt werden. Dazu braucht es Schnittstellen zwischen privaten Instituten wie etwa Banken, Börsen, Fonds und Versicherungen zu staatlichen Stellen, die beaufsichtigen und kontrollieren.

In diesen Bereichen kommt KI schon zum Einsatz
Zalando setzt Künstliche Intelligenz beim Erkennen von Kleidungsstücken auf hochgeladenen Fotos ein. Quelle: dpa
Facebook setzt vielerorts auf Künstliche Intelligenz. Quelle: dpa
Amazon greift unter anderem auf KI zurück, wenn es um Vorhersagen geht. Quelle: dpa
Sprachassistenten arbeiten häufig mit KI Quelle: dpa
Vielerorts kommt KI bereits bei Fintechs zum Einsatz. Quelle: dpa
KI ist Teil der Digitalisierungsbemühungen in der Landwirtschaft. Quelle: dpa
Künstliche Intelligenz wird beim autonomen Fahren eine zentrale Rolle spielen und das Gehirn des Autos sein. Quelle: dpa

Neben Risikoveränderungen können so auch illegale Geschäfte wie Insiderhandel oder Geldwäsche unter Zuhilfenahme künstlicher Intelligenz effektiver erkannt und Maßnahmen eingeleitet werden. Im Idealfall könnte so ein Betrugsfall wie bei P&R, der viele Kleinanleger hart getroffen hat, frühzeitig erkannt und idealerweise verhindert werden. Tausende Anleger haben dort Schiffscontainer gekauft, die zugleich vermietet werden sollten – aber gar nicht existierten. Die BaFin schritt nicht ein.

Auch auf der Makroebene kann künstliche Intelligenz helfen, frühzeitig Muster und Risiken zu erkennen, etwa Finanzblasen an bestimmten Märkten, Instabilitäten und damit Vorläufer von Währungskrisen. Unsere Aufsicht sollte auch in der Lage sein, Algorithmen zu verstehen und einem Stresstest zu unterziehen. Dafür braucht es neben der technischen Ausstattung allem voran auch das entsprechende Personal. Unsere Aufsichtsbehörden benötigen Fachleute, die neue Technologien tiefgehend begreifen, um sie dann als Instrument der Aufsicht anwenden zu können. Alle betroffenen Institutionen – ob Finanzministerium, Bundesbank, BaFin oder internationalen Behörden wie EBA, EZB oder die BIZ – sind gefordert, Weiterbildungsprogramme zu schmieden und kompetentes Personal wie IT-Experten, Informatiker und Programmierer zu akquirieren. Koste es, was es wolle.

Wir brauchen nationale, europäische und supranationale Finanzaufsichtsbehörden, die mit den Akteuren am Finanzmarkt auf Augenhöhe agieren. Gerade mit dem Brexit steigt die Bedeutung des Finanzplatzes Deutschland – und damit auch die Verantwortung der hiesigen Aufsicht. Es kann auch hilfreich sein, wenn die Aufsichtsbehörden sich direkt mit Fintechs austauschen, um deren digitale Geschäftsmodelle zu verstehen und angesichts der rasanten Entwicklung auch Schritt halten zu können. Kulturunterschiede sollten jedenfalls kein Hindernis sein, um sich gemeinsam an einen Tisch zu setzen. Aus „too big to fail“ darf nicht „too digital to fail“ werden. Am Ende gilt beim Finanzmarkt wie auch bei der Aufsicht: Künstliche Intelligenz braucht nicht weniger, sondern mehr menschliche Intelligenz.

Danyal Bayaz ist Mitglied des Bundestags für die Grünen und war Unternehmensberater

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%