Anzeige: Sämtliche Inhalte dieser Seite sind ein Angebot von Capgemini. Für den Inhalt ist Capgemini verantwortlich.

Yvonne Hofstetter über Künstliche Intelligenz „Wir haben eine neue Form des Kapitalismus“

Yvonne Hofstetter ist Geschäftsführerin von Teramark Technologies, einem Unternehmen für maschinelle Lernverfahren. Quelle: Heimo Aga

Die Digitalisierung hat gravierende Folgen für Wirtschaft und Gesellschaft. Im Interview spricht Unternehmerin Yvonne Hofstetter über die Macht der Künstlichen Intelligenz und die Ohnmacht der Politik, sie zu regulieren.

  • Teilen per:
  • Teilen per:

Frau Hofstetter, ist Künstliche Intelligenz heute schon Mainstream?
Sie wird zum Mainstream seit etwa drei Jahren. Google hat damals begonnen, sehr viele KI-Unternehmen aufzukaufen. Dahinter steckt die Absicht, Künstliche Intelligenz ganz tief in die DNS unseres Lebens einzubetten. Seitdem hat das Thema extrem an Fahrt aufgenommen. Jede Industrie sieht sich vor die Herausforderung gestellt, KI-Systeme einzusetzen. Noch ist aber völlig unklar, wie die entsprechenden Geschäftsmodelle aussehen werden. Im Reden ist es Mainstream, in der Umsetzung sind wir aber maximal in der Pilotphase.

Die Künstliche Intelligenz wird von der Mathematik regiert. Gilt das auch für uns?
Mathematik hat schon immer unser Leben bestimmt. Im Altertum gehörten diejenigen zu einer exklusiven Kaste, die das Sternenbild interpretieren oder bis Eintausend zählen konnten. Im 21. Jahrhundert sind wir in einer Zeit angelangt, wo wir versuchen alles zu vermessen, allem einen Wert zuzuweisen. Die Modelle der Mathematik versuchen das Leben abzubilden, damit wir es verstehen, messen und analysieren können. Das greift aber zu kurz, weil nur das, was beobachtbar ist, dort abgebildet werden kann. Ein mathematisches Modell ist niemals eine 1:1-Abbildung des Lebens.

Über Yvonne Hofstetter


Muss es das denn sein?
Es ist schlichtweg gefährlich, weil wir diese mathematischen Modelle auch auf die Bewertung von Menschen anwenden, aber sie niemals in der vollen Gänze erfassen. Beispielsweise bei People Analytics – also wenn wir mit KI herausfinden wollen, ob ein Mensch etwa gut in ein bestehendes Team im Unternehmen passt. Der Mensch und sein Leben werden auf das Quantifizierbare reduziert, das wird ihm nicht gerecht.

Wie sieht denn die Zukunft der Künstlichen Intelligenz aus?
Klassische Aufgaben der KI sind Kategorisierung und Optimierung etwa in Anwendungen wie Bilderkennung, Spracherkennung und Übersetzung. Jetzt geht es einen Schritt weiter. Blicken Sie beispielsweise an die Börse oder in die Vermögensverwaltung: Es werden Entscheidungen automatisiert, von denen wir bisher behauptet haben, sie könnten nur von Menschen getroffen werden. Etwa die Frage, wie ein Portfolio optimal zusammengesetzt wird. Wir müssen davon ausgehen, dass wir unser Leben auf dem Globus in Zukunft mit immer intelligenter werdenden Maschinen teilen, die auch solche Aufgaben übernehmen, die kognitive Eigenschaften voraussetzen. So liegt in der Zukunft von Mensch und Maschine gleichzeitig Konflikt und Herausforderung.

Von wem wird der Mensch denn mit Hilfe von Daten am stärksten gesteuert?
Im Moment sind das wegen ihres technischen Vorsprungs noch private Unternehmen, die uns durch Werbung manipulieren. Aber auch der Staat will Daten erheben, um auf den Menschen einzuwirken. Zum Beispiel bei Predictive Policing, vorausschauender Polizeiarbeit, die in den USA und in Großbritannien schon eingesetzt wird. Hier haben die Polizeibehörden Datenbanken, auf denen Informationen liegen – etwa über Vorstrafen oder Delikte, die jemand begangen hat. Diese Informationen werden mit Daten und Bewegungsprofilen aus Foursquare und anderen sozialen Netzwerken fusioniert und in einer Lage-Analyse ausgewertet. Heraus kommt ein Score. Der gibt an, wie hoch die Wahrscheinlichkeit einer Straftat in den nächsten drei Monaten ist. Anschließend schreibt die Polizei den Betroffenen an und ermahnt ihn, rechtschaffen zu bleiben. Wer so einen Brief bekommt, überlegt sich zweimal, mit wem er in Zukunft abhängt oder in welchen Stadtteil er geht.

Kann der Mensch in der digitalisierten Welt der Künstlichen Intelligenz überhaupt noch entkommen?
Das wird schwierig. Wir müssten viel sparsamer mit unseren Lebensdaten umgehen, uns mehr in die Askese begeben. Aber wir werden durch die Art und Weise, wie uns die Digitalisierung schmackhaft gemacht wird, zu Hedonisten erzogen. Plötzlich haben wir Zugang zu einem riesigen Markt. Wir können alles zu jeder Zeit kaufen, haben immer Zugang zu Informationen. Wir sind bequem geworden. Wenn wir das einmal eingeübt haben, können und wollen wir dann wirklich diese Bequemlichkeit wieder aufgeben? Askese tut immer weh.

Der Aufbau einer Digitalkultur in Unternehmen und der damit verbundene Wandel benötigt Geduld, Beharrlichkeit und kontinuierliche Wachsamkeit. Lesen Sie mehr dazu in der vollständigen Studie.


Ist denn das Sammeln und intelligente Nutzen von Daten grundsätzlich schlecht?
Keinesfalls. Für nicht vertretbar halte ich Anwendungsbereiche, die mit Humandaten zu tun haben. Etwa im Internet der Dinge (IoT): Alltagsgegenstände, die bisher still gewesen sind, erhalten eine IP-Adresse, werden miteinander vernetzt und sammeln Daten aus unserem Leben. Und diese Erhebung passiert nicht immer freiwillig und bewusst. Vertretbar wiederum sind alle Bereiche der Datenfusion, wo es um den klassischen Einsatz von Digitalisierung geht, etwa das Industrial IoT oder Predictive Maintenance. Ich selbst arbeite gerade an einem Digitalisierungsprojekt der DB Netz AG für den Schienenverkehr. Dabei sollen Weichen überwacht werden, um dann einen Eindruck zu bekommen, in welchem Gesundheitszustand sie sich befinden. Das ist eine sinnvolle Anwendung.

Aber nicht sinnvoll für den Menschen?
Wenn ich dasselbe mit Menschen mache, fängt das Problem schon bei der Überwachung an. Sie macht den Menschen transparent und verhindert, dass er einen Raum hat, der nur ihm gehört. Da geht es noch nicht mal um die Fusion der Daten.

Die ist noch kritischer?
Richtig, weil sie immer dazu führt, dass der Mensch auf irgendeine Art und Weise klassifiziert wird. Das Bundesverfassungsgericht hat schon Ende der 1950er Jahre klar gesagt, dass jegliche Form der Kategorisierung, und sei es auch nur eine statistische Erfassung, eine Verletzung der Menschenwürde ist, also eine Verletzung seiner Souveränität und seiner Freiheit. Dem stimme ich komplett zu.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?