WiWo App 1 Monat für nur 0,99 €
Anzeigen
Führungswechsel
Quelle: imago images

„Oh Gott, die Roboter kommen!?“

Künstliche Intelligenz im Aufsichtsrat: AI und AR dürfen nicht länger in getrennten Welten leben. Sonst gilt irgendwann die aufsichtsrechtliche Albtraum-Formel: AI denkt, AI lenkt – aber der AR haftet.

  • Artikel teilen per:
  • Artikel teilen per:

Über das Verhältnis von Artificial Intelligence (AI) und Aufsichtsräten (AR) wird gern spekuliert. Medien-Furore machte im Mai 2017 das Investmentunternehmen Deep Knowledge Ventures in Hongkong: Hier bekam ein Algorithmus einen Platz im Direktorium. Der Aufschrei „Oh Gott, die Roboter kommen!“ blieb aus. Denn in Deutschland ist derlei undenkbar. Das Aktiengesetz gebietet, dass im Vorstand oder Aufsichtsrecht nur natürliche Personen zugelassen sind.

Ist damit das Thema AI und AR vom Tisch? Keineswegs! Denn das Thema Roboter im Aufsichtsrat ist keine Einbahnstraße. Anders gesagt: Es geht nicht darum, ob KI wie ein Aufsichtsrat denken kann, sondern ob Aufsichtsräte KI denken können.

Auf der globalen Fortune-10-Liste der wertvollsten Unternehmen stehen bereits heute acht Unternehmen, die ich „Full-Stack-AI-Unternehmen“ nenne: Alphabet, Apple, Microsoft, Facebook und Amazon sowie Alibaba, Baidu und Tencent kontrollieren den gesamten Technologie-Stack – von Halbleitern bis hin zu Geräten – über ihre eigenen Plattformen und stellen sicher, dass in jedem Unternehmensbereich permanent neue AI-gestützte Verbraucher- und Geschäftsanwendungen entwickelt werden.

Auf der anderen Seite entstehen immer mehr Start-ups mit fundierter AI-Fachkenntnis. Sie haben konkrete Vorschläge, wie sie die Probleme ihrer Kunden in einer bestehenden IT-Umgebung lösen können – und das oftmals besser als bereits etablierte IT-Unternehmen, die erst noch beweisen müssen, dass sie nicht nur mal eben auf den AI-Zug aufspringen, sondern ihn auch steuern können.

Leider sind die traditionellen Unternehmen und ihre Aufsichtsgremien oft nicht ausreichend vorbereitet, um die Möglichkeiten der Künstlichen Intelligenz überhaupt zu verstehen, geschweige denn voll zu nutzen. Solche Technologie-Ignoranz in den Boards ist doppelt gefährlich: Es fehlt bei der – von oberster Ebene – unkontrollierten AI-Nutzung meist jedes operatives Risikomanagement, und es fehlt auch ein Bewusstsein für die Haftungsrisiken der Strategieaufsicht.

Dabei sind Eile und Ehrgeiz dringend geboten. Schon innerhalb der nächsten zehn Jahre könnte künstliche Intelligenz als eigenständiges Thema verschwunden sein, aber nicht weil sie irrelevant wäre, sondern weil sie vollkommen selbstverständlich in jedes Produkt, jede Dienstleistung und jeden Prozess eingebettet ist. Anders gesagt: In etwa zehn Jahren ist der digitale Rubikon überschritten. Dann gibt es kein Zurück mehr.

Bis dahin gilt es für die heute verantwortlichen Board-Member, zu beurteilen, ob ein Unternehmen AI-Komponenten in die eigenen Produkte oder Dienstleistungen aufnehmen sollte. Dazu muss man Antworten auf diese Fragen finden:

  • Wieviel kostet nicht nur die Anschaffung der neuen Technologie, sondern auch deren tatsächliche Implementierung? Wie lange ist die akzeptable Amortisationszeit?

  • Welchen Wert hat die AI-basierte Software über die Arbeitsersetzung hinaus – etwa für Qualität, Kundenzufriedenheit, Fehlervermeidung, Leistung oder Durchlaufzeit?

  • Wie hoch wird der potenzielle Widerstand der – von AI-bedingtem  Arbeitsplatzabbau betroffenen – Teams sein und welche Auswirkungen wird das haben?

  • Welche Regulierungs- und Konformitätsfragen könnten durch die Anwendung von maschinellem Lernen auftauchen? Und wie hoch (oder niedrig) ist die Akzeptanz von AI-Fehlern im Vergleich zu menschen-gemachten Fehlern? Wie bedeutet das für die Haftungspflichten von Personen, die automatisierte Systeme betreuen?

  • Welche Cybersicherheitsprobleme kann AI lösen? Welche können durch AI entstehen?

Vor allem die letzte Frage wird gern unterschätzt. Das Vertrauen in Technik-Sicherheit ist oft überraschend groß. Dabei warnen US-Geheimdienstkreise, wie leicht KI von Cyberkriminellen genutzt werden kann: Entsprechend trainierte neuronale Netzwerke können zu Agenten für Phishing-Angriffe werden. Gefälschte Audio- und Videodateien imitieren täuschend echt individuelles Sprechen. Vormals unknackbare Passwörter sind angesichts der Brutalität der lernenden Maschinen ein offenes Tor.

Andererseits ist gerade den Bedenkenträgern und AI-Skeptikern besonders gründlich die Frage entgegenzuhalten: Ist Sicherheit das Problem an KI oder die eigene Unbeweglichkeit? Manche Branchen beharren nämlich schlicht auf alten Geschäftsmodellen und verzichten – geradezu ökonomisch fahrlässig – auf Effizienzsteigerung durch neue Technologien. Sie lehnen KI fälschlicherweise als allzu riskante „Black Box“-Lösung ab. Welch vertane Chance!

In jedem Fall dürfen sich Aufsichtsräte den Realitäten nicht länger verschließen. Bestimmte geschäftskritische Geschäfts- und Compliance-Probleme sind ohne KI nicht mehr zu lösen. AR und AI dürfen deswegen nicht länger in getrennten Welten leben. Sonst gilt irgendwann die aufsichtsrechtliche Albtraum-Formel: AI denkt, AI lenkt – aber der AR haftet.

Zum Weiterlesen: Anastassia Lauterbach: „Artificial Intelligence and the Work of Visionary Boards“ in dem jüngst erschienen Sammelband „Law of Artificial Intelligence and Smart Machines“.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%