Anzeige: Sämtliche Inhalte dieser Seite sind ein Angebot von Capgemini. Für den Inhalt ist Capgemini verantwortlich.
Yvonne Hofstetter über Künstliche Intelligenz „Wir haben eine neue Form des Kapitalismus“
Die Digitalisierung hat gravierende Folgen für Wirtschaft und Gesellschaft. Im Interview spricht Unternehmerin Yvonne Hofstetter über die Macht der Künstlichen Intelligenz und die Ohnmacht der Politik, sie zu regulieren.
Frau Hofstetter, ist Künstliche Intelligenz heute schon Mainstream?
Sie wird zum Mainstream seit etwa drei Jahren. Google hat damals begonnen, sehr viele KI-Unternehmen aufzukaufen. Dahinter steckt die Absicht, Künstliche Intelligenz ganz tief in die DNS unseres Lebens einzubetten. Seitdem hat das Thema extrem an Fahrt aufgenommen. Jede Industrie sieht sich vor die Herausforderung gestellt, KI-Systeme einzusetzen. Noch ist aber völlig unklar, wie die entsprechenden Geschäftsmodelle aussehen werden. Im Reden ist es Mainstream, in der Umsetzung sind wir aber maximal in der Pilotphase.
Die Künstliche Intelligenz wird von der Mathematik regiert. Gilt das auch für uns?
Mathematik hat schon immer unser Leben bestimmt. Im Altertum gehörten diejenigen zu einer exklusiven Kaste, die das Sternenbild interpretieren oder bis Eintausend zählen konnten. Im 21. Jahrhundert sind wir in einer Zeit angelangt, wo wir versuchen alles zu vermessen, allem einen Wert zuzuweisen. Die Modelle der Mathematik versuchen das Leben abzubilden, damit wir es verstehen, messen und analysieren können. Das greift aber zu kurz, weil nur das, was beobachtbar ist, dort abgebildet werden kann. Ein mathematisches Modell ist niemals eine 1:1-Abbildung des Lebens.
Über Yvonne Hofstetter
Yvonne Hofstetter ist Juristin und Essayistin. Ihre Karriere der Informationstechnologie begann im Jahr 1999. Zehn Jahre später übernahm Hofstetter die Geschäftsführung der Teramark Technologies GmbH im Münchener Norden, einem führenden Unternehmen für maschinelle Lernverfahren. Das Unternehmen entwickelt Künstliche Intelligenz für unterschiedliche industrielle Einsatzzwecke.
Yvonne Hofstetter beschäftigt sich mit Fragen zu Nutzen und Risiken der Digitalisierung für die Gesellschaft, mit Technikfolgen und Gefährdungsanalysen, mit politischen Herausforderungen und gesellschaftlichen Gestaltungsoptionen für die digitale Ära.
Neben vielen Gast- und Fachbeiträgen sowie Interviews hat Yvonne Hofstetter zwei eigene Werke veröffentlicht. Im August 2016 erschien „Sie wissen alles“, im darauffolgenden September das Buch „Das Ende der Demokratie“, in dem sie anhand hochbrisanter Szenarien untersucht, wie eine humane digitale Zukunft aussehen kann.
Muss es das denn sein?
Es ist schlichtweg gefährlich, weil wir diese mathematischen Modelle auch auf die Bewertung von Menschen anwenden, aber sie niemals in der vollen Gänze erfassen. Beispielsweise bei People Analytics – also wenn wir mit KI herausfinden wollen, ob ein Mensch etwa gut in ein bestehendes Team im Unternehmen passt. Der Mensch und sein Leben werden auf das Quantifizierbare reduziert, das wird ihm nicht gerecht.
Wie sieht denn die Zukunft der Künstlichen Intelligenz aus?
Klassische Aufgaben der KI sind Kategorisierung und Optimierung etwa in Anwendungen wie Bilderkennung, Spracherkennung und Übersetzung. Jetzt geht es einen Schritt weiter. Blicken Sie beispielsweise an die Börse oder in die Vermögensverwaltung: Es werden Entscheidungen automatisiert, von denen wir bisher behauptet haben, sie könnten nur von Menschen getroffen werden. Etwa die Frage, wie ein Portfolio optimal zusammengesetzt wird. Wir müssen davon ausgehen, dass wir unser Leben auf dem Globus in Zukunft mit immer intelligenter werdenden Maschinen teilen, die auch solche Aufgaben übernehmen, die kognitive Eigenschaften voraussetzen. So liegt in der Zukunft von Mensch und Maschine gleichzeitig Konflikt und Herausforderung.
Von wem wird der Mensch denn mit Hilfe von Daten am stärksten gesteuert?
Im Moment sind das wegen ihres technischen Vorsprungs noch private Unternehmen, die uns durch Werbung manipulieren. Aber auch der Staat will Daten erheben, um auf den Menschen einzuwirken. Zum Beispiel bei Predictive Policing, vorausschauender Polizeiarbeit, die in den USA und in Großbritannien schon eingesetzt wird. Hier haben die Polizeibehörden Datenbanken, auf denen Informationen liegen – etwa über Vorstrafen oder Delikte, die jemand begangen hat. Diese Informationen werden mit Daten und Bewegungsprofilen aus Foursquare und anderen sozialen Netzwerken fusioniert und in einer Lage-Analyse ausgewertet. Heraus kommt ein Score. Der gibt an, wie hoch die Wahrscheinlichkeit einer Straftat in den nächsten drei Monaten ist. Anschließend schreibt die Polizei den Betroffenen an und ermahnt ihn, rechtschaffen zu bleiben. Wer so einen Brief bekommt, überlegt sich zweimal, mit wem er in Zukunft abhängt oder in welchen Stadtteil er geht.
Kann der Mensch in der digitalisierten Welt der Künstlichen Intelligenz überhaupt noch entkommen?
Das wird schwierig. Wir müssten viel sparsamer mit unseren Lebensdaten umgehen, uns mehr in die Askese begeben. Aber wir werden durch die Art und Weise, wie uns die Digitalisierung schmackhaft gemacht wird, zu Hedonisten erzogen. Plötzlich haben wir Zugang zu einem riesigen Markt. Wir können alles zu jeder Zeit kaufen, haben immer Zugang zu Informationen. Wir sind bequem geworden. Wenn wir das einmal eingeübt haben, können und wollen wir dann wirklich diese Bequemlichkeit wieder aufgeben? Askese tut immer weh.
Ist denn das Sammeln und intelligente Nutzen von Daten grundsätzlich schlecht?
Keinesfalls. Für nicht vertretbar halte ich Anwendungsbereiche, die mit Humandaten zu tun haben. Etwa im Internet der Dinge (IoT): Alltagsgegenstände, die bisher still gewesen sind, erhalten eine IP-Adresse, werden miteinander vernetzt und sammeln Daten aus unserem Leben. Und diese Erhebung passiert nicht immer freiwillig und bewusst. Vertretbar wiederum sind alle Bereiche der Datenfusion, wo es um den klassischen Einsatz von Digitalisierung geht, etwa das Industrial IoT oder Predictive Maintenance. Ich selbst arbeite gerade an einem Digitalisierungsprojekt der DB Netz AG für den Schienenverkehr. Dabei sollen Weichen überwacht werden, um dann einen Eindruck zu bekommen, in welchem Gesundheitszustand sie sich befinden. Das ist eine sinnvolle Anwendung.
Aber nicht sinnvoll für den Menschen?
Wenn ich dasselbe mit Menschen mache, fängt das Problem schon bei der Überwachung an. Sie macht den Menschen transparent und verhindert, dass er einen Raum hat, der nur ihm gehört. Da geht es noch nicht mal um die Fusion der Daten.
Die ist noch kritischer?
Richtig, weil sie immer dazu führt, dass der Mensch auf irgendeine Art und Weise klassifiziert wird. Das Bundesverfassungsgericht hat schon Ende der 1950er Jahre klar gesagt, dass jegliche Form der Kategorisierung, und sei es auch nur eine statistische Erfassung, eine Verletzung der Menschenwürde ist, also eine Verletzung seiner Souveränität und seiner Freiheit. Dem stimme ich komplett zu.
- „Wir haben eine neue Form des Kapitalismus“
- Was passiert eigentlich in der KI-Forschung?