WiWo App Jetzt gratis testen
Anzeigen

Finanzmarktaufsicht Innovation braucht Kontrolle

Finanzmarktaufsicht: KI und Big Data brauchen Kontrolle Quelle: imago

Künstliche Intelligenz und Big Data verändern die Finanzmärkte. Technologien können uns klüger machen – oder in die nächste Finanzkrise stürzen. Die Finanzmarktaufsicht darf diesen tiefgreifenden Umbrüchen nicht hinterher hinken.

Die Finanzmarktaufsicht ist eine wichtige Institution unserer sozialen Marktwirtschaft und damit auch unserer Demokratie. Wir sollten sie gerade jetzt in besonderem Maße stärken. Wenn die Aufsicht nicht genügend Ressourcen und Kompetenzen hat, um ihrer wichtigen Aufgabe nachzugehen, dann drohen sowohl Verwerfungen auf den Finanzmärkten als auch ein beschleunigter Vertrauensverlust der Bürgerinnen und Bürger in Staat und Politik. Das gilt es unter allen Umständen zu verhindern. Gerade auf dem Finanzmarkt sind Innovation und Aufsicht zwei Seiten derselben Medaille.

Wohin menschliche Fehler auf den Finanzmärkten führen können, haben wir vor zehn Jahren erfahren. Die Finanzkrise, die mit dem Untergang der Investmentbank Lehman Brothers die Welt erschütterte, hatte ihre Ursache in Fehleinschätzungen von Banken und Ratingagenturen, von Politikern und Journalisten, von Volkswirten und Zentralbankern. Es war menschliche Ignoranz gepaart mit blindem Vertrauen in Risikomodelle, die nicht ansatzweise dem Treiben auf den Märkten gerecht wurden.

Heute hingegen verlässt man sich auf den Finanzmärkten immer weniger auf die Entscheidungen von Menschen – und bereitwillig auf künstliche Intelligenz, Big Data und Algorithmen. Die damit verbundenen automatisierten Prozesse übertreffen das dem Menschen Mögliche an Quantität, Geschwindigkeit und Komplexität bei weitem. Für Aufsicht und Kontrolle – und damit auch für die Finanzmarktstabilität – stellen sie allerdings eine immense Herausforderung dar. 

Diese Innovationen bieten neue Möglichkeiten für Kundinnen und Kunden, Unternehmen, Banken und Startups aus dem Bereich der Finanztechnologie (FinTechs). Dazu passt, dass das Unternehmen Wirecard, ein Anbieter digitaler Zahlungsverfahren, die Commerzbank gerade aus dem Dax verdrängt hat. Sie verändern aber auch die Parameter, die über die nächste Finanzkrise entscheiden können. Wenn der Mensch Technologien vertraut, die Entscheidungen potenzieren, aber deren  Folgen und Wechselwirkungen nicht im Griff hat, kann das zu Verwerfungen auf den Finanzmärkten führen. Technologien, die helfen, dass wir klüger entscheiden – die aber auch unsere Dummheit verstärken können.

Algorithmen sind schneller und effektiver. Sie machen das System aber auch fragiler

Ein erheblicher Teil des Handels von Wertpapieren erfolgt automatisiert und in rasanter Geschwindigkeit. Es war einmal, dass Händler an der Börse über Handzeichen oder Zuruf Wertpapiere gekauft oder verkauft haben. Heute geschieht das zunehmend über Algorithmen, die angesichts einer Fülle an Daten, Nachrichten, Kursinformationen besser als der Mensch Muster und Trends erkennen können und in Millisekunden entscheiden. Der Mensch schaltet den Kopf aus und lässt die Maschine machen – das ist heute schon Realität und keine Zukunftsmusik. Doch ohne angemessene Aufsicht und Kontrolle drohen erhebliche systemische Risiken. Darauf verweist eine aktuelle Studie des World Economic Forum zur Transformation der Finanzmärkte durch künstliche Intelligenz.

So kann sich der Effekt einer algorithmischen Fehlentscheidung potenzieren und eine Krise sich ausbreiten, wenn mehrere Robo-Trader oder Institutionen die gleichen Algorithmen oder Daten verwenden. Ein digital-getriebener Herdentrieb kann dazu führen, dass Entscheidungen von Algorithmen sich gegenseitig verstärken – quasi künstliche Dummheit. In einer Lehman-ähnlichen Situation kann das brandgefährlich werden.

So funktioniert Künstliche Intelligenz

Falschmeldungen, auf die Algorithmen in Bruchteilen einer Sekunde reagieren, können reichen, um massive Verkäufe und Preisstürze in Gang zu setzen. Solche Flashcrashs beim automatisierten Hochfrequenzhandel konnten wir bereits vereinzelt beobachten. Hinzu kommt, dass durch die steigende Vernetzung die Risiken durch Hackerangriffe steigen. Auch eine bewusste Manipulation von Algorithmen – ob mit der Absicht, Gewinne zu erzielen oder die Märkte einbrechen zu lassen – ist nicht ausgeschlossen. Algorithmen beschleunigen den Handel, sie tragen dazu bei, effektive Entscheidungen zu treffen. Sie machen das gesamte System jedoch auch fragiler.

Geschäftsmodelle, die auf künstliche Intelligenz und Big Data beruhen, rufen externe Akteure auf den Plan, die diese Dienstleistungen anbieten. Wenn beispielsweise Banken mit einem Unternehmen wie Facebook zusammenarbeiten, das über einen immensen Datenschatz verfügt, der bei der Risikobewertung beispielsweise von Krediten relevant sein kann: Fällt Facebook damit unter die Finanzmarktaufsicht? Kann Facebook gar systemrelevant werden?

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%