Anzeige: Sämtliche Inhalte dieser Seite sind ein Angebot von Capgemini. Für den Inhalt ist Capgemini verantwortlich.

Yvonne Hofstetter über Künstliche Intelligenz „Wir haben eine neue Form des Kapitalismus“

Yvonne Hofstetter ist Geschäftsführerin von Teramark Technologies, einem Unternehmen für maschinelle Lernverfahren. Quelle: Heimo Aga

Die Digitalisierung hat gravierende Folgen für Wirtschaft und Gesellschaft. Im Interview spricht Unternehmerin Yvonne Hofstetter über die Macht der Künstlichen Intelligenz und die Ohnmacht der Politik, sie zu regulieren.

  • Teilen per:
  • Teilen per:

Frau Hofstetter, ist Künstliche Intelligenz heute schon Mainstream?
Sie wird zum Mainstream seit etwa drei Jahren. Google hat damals begonnen, sehr viele KI-Unternehmen aufzukaufen. Dahinter steckt die Absicht, Künstliche Intelligenz ganz tief in die DNS unseres Lebens einzubetten. Seitdem hat das Thema extrem an Fahrt aufgenommen. Jede Industrie sieht sich vor die Herausforderung gestellt, KI-Systeme einzusetzen. Noch ist aber völlig unklar, wie die entsprechenden Geschäftsmodelle aussehen werden. Im Reden ist es Mainstream, in der Umsetzung sind wir aber maximal in der Pilotphase.

Die Künstliche Intelligenz wird von der Mathematik regiert. Gilt das auch für uns?
Mathematik hat schon immer unser Leben bestimmt. Im Altertum gehörten diejenigen zu einer exklusiven Kaste, die das Sternenbild interpretieren oder bis Eintausend zählen konnten. Im 21. Jahrhundert sind wir in einer Zeit angelangt, wo wir versuchen alles zu vermessen, allem einen Wert zuzuweisen. Die Modelle der Mathematik versuchen das Leben abzubilden, damit wir es verstehen, messen und analysieren können. Das greift aber zu kurz, weil nur das, was beobachtbar ist, dort abgebildet werden kann. Ein mathematisches Modell ist niemals eine 1:1-Abbildung des Lebens.

Über Yvonne Hofstetter


Muss es das denn sein?
Es ist schlichtweg gefährlich, weil wir diese mathematischen Modelle auch auf die Bewertung von Menschen anwenden, aber sie niemals in der vollen Gänze erfassen. Beispielsweise bei People Analytics – also wenn wir mit KI herausfinden wollen, ob ein Mensch etwa gut in ein bestehendes Team im Unternehmen passt. Der Mensch und sein Leben werden auf das Quantifizierbare reduziert, das wird ihm nicht gerecht.

Wie sieht denn die Zukunft der Künstlichen Intelligenz aus?
Klassische Aufgaben der KI sind Kategorisierung und Optimierung etwa in Anwendungen wie Bilderkennung, Spracherkennung und Übersetzung. Jetzt geht es einen Schritt weiter. Blicken Sie beispielsweise an die Börse oder in die Vermögensverwaltung: Es werden Entscheidungen automatisiert, von denen wir bisher behauptet haben, sie könnten nur von Menschen getroffen werden. Etwa die Frage, wie ein Portfolio optimal zusammengesetzt wird. Wir müssen davon ausgehen, dass wir unser Leben auf dem Globus in Zukunft mit immer intelligenter werdenden Maschinen teilen, die auch solche Aufgaben übernehmen, die kognitive Eigenschaften voraussetzen. So liegt in der Zukunft von Mensch und Maschine gleichzeitig Konflikt und Herausforderung.

Von wem wird der Mensch denn mit Hilfe von Daten am stärksten gesteuert?
Im Moment sind das wegen ihres technischen Vorsprungs noch private Unternehmen, die uns durch Werbung manipulieren. Aber auch der Staat will Daten erheben, um auf den Menschen einzuwirken. Zum Beispiel bei Predictive Policing, vorausschauender Polizeiarbeit, die in den USA und in Großbritannien schon eingesetzt wird. Hier haben die Polizeibehörden Datenbanken, auf denen Informationen liegen – etwa über Vorstrafen oder Delikte, die jemand begangen hat. Diese Informationen werden mit Daten und Bewegungsprofilen aus Foursquare und anderen sozialen Netzwerken fusioniert und in einer Lage-Analyse ausgewertet. Heraus kommt ein Score. Der gibt an, wie hoch die Wahrscheinlichkeit einer Straftat in den nächsten drei Monaten ist. Anschließend schreibt die Polizei den Betroffenen an und ermahnt ihn, rechtschaffen zu bleiben. Wer so einen Brief bekommt, überlegt sich zweimal, mit wem er in Zukunft abhängt oder in welchen Stadtteil er geht.

Kann der Mensch in der digitalisierten Welt der Künstlichen Intelligenz überhaupt noch entkommen?
Das wird schwierig. Wir müssten viel sparsamer mit unseren Lebensdaten umgehen, uns mehr in die Askese begeben. Aber wir werden durch die Art und Weise, wie uns die Digitalisierung schmackhaft gemacht wird, zu Hedonisten erzogen. Plötzlich haben wir Zugang zu einem riesigen Markt. Wir können alles zu jeder Zeit kaufen, haben immer Zugang zu Informationen. Wir sind bequem geworden. Wenn wir das einmal eingeübt haben, können und wollen wir dann wirklich diese Bequemlichkeit wieder aufgeben? Askese tut immer weh.

Der Aufbau einer Digitalkultur in Unternehmen und der damit verbundene Wandel benötigt Geduld, Beharrlichkeit und kontinuierliche Wachsamkeit. Lesen Sie mehr dazu in der vollständigen Studie.


Ist denn das Sammeln und intelligente Nutzen von Daten grundsätzlich schlecht?
Keinesfalls. Für nicht vertretbar halte ich Anwendungsbereiche, die mit Humandaten zu tun haben. Etwa im Internet der Dinge (IoT): Alltagsgegenstände, die bisher still gewesen sind, erhalten eine IP-Adresse, werden miteinander vernetzt und sammeln Daten aus unserem Leben. Und diese Erhebung passiert nicht immer freiwillig und bewusst. Vertretbar wiederum sind alle Bereiche der Datenfusion, wo es um den klassischen Einsatz von Digitalisierung geht, etwa das Industrial IoT oder Predictive Maintenance. Ich selbst arbeite gerade an einem Digitalisierungsprojekt der DB Netz AG für den Schienenverkehr. Dabei sollen Weichen überwacht werden, um dann einen Eindruck zu bekommen, in welchem Gesundheitszustand sie sich befinden. Das ist eine sinnvolle Anwendung.

Aber nicht sinnvoll für den Menschen?
Wenn ich dasselbe mit Menschen mache, fängt das Problem schon bei der Überwachung an. Sie macht den Menschen transparent und verhindert, dass er einen Raum hat, der nur ihm gehört. Da geht es noch nicht mal um die Fusion der Daten.

Die ist noch kritischer?
Richtig, weil sie immer dazu führt, dass der Mensch auf irgendeine Art und Weise klassifiziert wird. Das Bundesverfassungsgericht hat schon Ende der 1950er Jahre klar gesagt, dass jegliche Form der Kategorisierung, und sei es auch nur eine statistische Erfassung, eine Verletzung der Menschenwürde ist, also eine Verletzung seiner Souveränität und seiner Freiheit. Dem stimme ich komplett zu.

Was passiert eigentlich in der KI-Forschung?


Muss die Politik eingreifen und Regeln festlegen, was Künstlicher Intelligenz erlaubt sein darf und was nicht?
Sie sollte sich definitiv langsam mal darüber Gedanken machen. Selbst Elon Musk ist für eine Regulierung solcher Technologien und argumentiert für proaktives statt reaktives Handeln. Nur ist das schwierig, weil man gar nicht weiß, was in der KI-Forschung noch passiert. Das liegt daran, dass wir das System, in dem wir leben, sehr komplex machen. Dennoch haben wir aktuell schon Herausforderungen, die zu meistern sind.


Zum Beispiel?
Das Profiling von Menschen: Das ist nicht verboten, führt aber teilweise zu technologischem Rassismus, zu Diskriminierung. Die Politik sollte den Schutz des Menschen in den virtuellen Bereich ausdehnen, so wie sich der Mensch selbst mit Smartphones und Chips unter der Haut selbst ausdehnt. Wir brauchen Grundrechte für die digitale Ära.

Warum tut sich denn der Staat so schwer damit, seine Bürger zu schützen?
Nun ja, man könnte sagen, parlamentarische Demokratie agiert einfach schwerfällig. Das mag einerseits stimmen, andererseits ist die Digitalisierung aber auch Hoffnungsträger für das Wirtschaftswachstum. Die Politik fragt sich also, wie viel einerseits reguliert werden kann, und wie viel sie andererseits überhaupt regulieren möchte. Von Unternehmensseite wiederum wird sehr stark Lobbyarbeit betrieben.


Welche Forderungen richten Sie an die Gesellschaft und an die Unternehmen?
Die Gesellschaft muss besser wahrnehmen, was hier passiert. Dazu braucht es eine breite Debatte darüber, was Digitalisierung und KI für uns bedeutet. Ich finde es schon schizophren: Gegen TTIP haben die Menschen sich gewehrt, haben gegen aufgeweichte Umweltstandards und Ernährungsregeln protestiert und dagegen, dass die Konzerne das Sagen haben. In der digitalisierten Gesellschaft ist das durch die Technologiekonzerne längst passiert. Damit haben wir aber überhaupt kein Problem, weil uns das als bequem verkauft wird. Das Wissen um die Digitalisierung ist jetzt gerade in Deutschland nach wie vor sehr oberflächlich.

Was steckt dahinter?
Die Unternehmen wollen Profite machen. Das ist ihr Sinn und Zweck und auch nicht verwerflich. Aber die Digitalisierung, so wie sie gerade abläuft, fällt nicht vom Himmel, sondern ist von ebendiesen Unternehmen gemacht. Und zwar von den fünf wertvollsten der Welt, unseren digitalen Lieblingsmarken. Dort geht man den einfachsten und profitabelsten Weg. Aber den Wert schaffen wir mit unseren Rechten. Freiwillig werden die Unternehmen diese Profitabilität nicht einschränken. Ich meine, man kann aber auch digitalisieren, ohne dass man die Rechte des Menschen so stark verletzt, wie es jetzt gerade der Fall ist.

Letztlich geht es aber um Kapitalismus?
Ja, wir haben eine neue Form des Kapitalismus. Ich nenne ihn Informations-Kapitalismus. Es wird Geld verdient mit den Freiheitsrechten des Menschen, damit, dass in seine Souveränität eingegriffen wird, dass er zu einem bestimmten Verhalten veranlasst wird.

Diese Ausgabe des Digital Transformation Reviews beschäftigt sich mit den Auswirkungen der Digital Transformation auf die Unternehmensstrategie – mit Gastbeiträgen von VISA, General Electric und Telstra.


Sie selbst leiten ein Unternehmen, das mit Hilfe Künstlicher Intelligenz Profit macht. Sind sie trotzdem oder gerade deswegen so kritisch?
Ich arbeite jetzt schon seit fast 20 Jahren im Bereich der Künstlichen Intelligenz. Damals gab es sie schon im Bereich des Militärs. Daher stammt auch mein Team. Wenn dort neue Technologien in die Welt gesetzt werden, dann gehört dazu auch unweigerlich eine Risiko- und Gefährdungsanalyse. Heute macht das kaum noch jemand. Produkte müssen schließlich schnell auf den Markt gebracht werden. Deswegen kann ich aber nicht raus aus meiner Haut. Ich überlege mir sehr genau, in welchen Projekten ich mich engagiere. Wenn das moralisch für mich nicht vertretbar ist, lasse ich es – selbst wenn ich mir das immer wieder vorhalten lassen muss. Denn mein Kühlschrank ist voll genug und goldene Schnitzel kann man nicht essen.

Frau Hofstetter, vielen Dank für das Gespräch.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?