WiWo App Jetzt gratis testen
Anzeigen

Anzeige: Sämtliche Inhalte dieser Seite sind ein Angebot von Capgemini. Für den Inhalt ist Capgemini verantwortlich.

Künstliche Intelligenz & Datensouveränität Digitale Verantwortung braucht keine neuen Regularien

Digitalisierung: Künstliche Intelligenz und Datensouveränität Quelle: Adobe Stock

Daten sind wertvoll für die Entwicklung Künstlicher Intelligenz. Doch noch fehlt es an Impulsen, wie den Menschen mehr Souveränität bei der Verwendung ihrer Daten durch andere gegeben werden kann. Technische Lösungen für mehr Fairness zu schaffen, kann ein Standortvorteil sein und die Gesellschaft voranbringen. Wirtschaftshandeln auf Augenhöhe muss der Staat garantieren.

  • Artikel teilen per:
  • Artikel teilen per:

Nutzer sollen sich selbstbestimmt in der digitalen Welt bewegen können. Wir wollen wissen, wer unsere Daten wie nutzt, wir wollen die Möglichkeit haben, Nein zu sagen. Ohne Daten kommen wir bei der Künstlichen Intelligenz und weiteren Technologien nicht voran. Doch wie sie gesammelt und wofür sie genutzt werden, ist nicht immer transparent genug. Noch geben Bürger Daten im Dienst der Praktikabilität gern her: Nutzer klicken Datenschutz-Hinweise weg, um schneller auf eine Webseite zu gelangen. In diesem Moment sind personenbezogene Daten freigegeben; was mit ihnen passiert ist kaum zu überblicken und schwer zu kontrollieren. 

Die Gesellschaft braucht neue Ideen und Leitplanken, mit denen Bürger differenzierter ihre Daten verfügbar machen können – anstatt nur zustimmen oder ablehnen zu können. Dafür braucht es auch mehr Transparenz. Ist diese geschaffen, erwachsen daraus neue Möglichkeiten, mit denen Bürger an der Wertschöpfung beteiligt werden können  

Lena-Sophie Müller, Geschäftsführerin der Initiative D21 und Nikolai Horn, Projektmanager bei Capgemini und promovierter Philosoph erläutern, was die aktuelle Debatte prägt und geben Denkanstöße für ein System, das Menschen differenzierte Freiheitsrechte in Bezug auf ihre Daten bietet.

Es ist schwierig, die Verwendung der personenbezogenen Daten im Netz zu überblicken. Auch Künstliche Intelligenz nutzt unsere Angaben, ohne dass wir immer genau wissen wofür. Wäre es nicht die einfachste Lösung, wenn wir uns alle eine einzige Identität fürs Netz besorgen, vielleicht bei einem der großen Konzerne?

Lena-Sophie Müller: Eine einzige Identität würde zwar Effektivitätsgewinne bringen und Prozesse erleichtern. Das würde aber auch zu Abhängigkeit führen. Und es würde die Freiheit und Unabhängigkeit der Nutzenden einschränken und in Frage stellen. Wir haben uns in Deutschland nicht ohne Grund entschieden, keine einzelne Identifikationsnummer für eine Person zu haben. Denken Sie an das Social-Credit-System in China: Dort gibt es keine Möglichkeit, aus dem Scoring-System auszubrechen.

Lena Sophie Müller ist Geschäftsführerin der Initiative D21. Quelle: Initiative D21

Durch algorithmische KI-Systeme ist es in der Vergangenheit immer wieder zu Diskriminierung gekommen.

Müller: Weder in der analogen Welt noch in der digitalen gibt es hundertprozentige Objektivität – jeder von uns hat Vorurteile und Vorlieben. Und manchmal sind wir uns diesen nicht wirklich bewusst aber sie wirken sich auf unsere Entscheidungen aus. Mit Künstlicher Intelligenz hält eine soziale Technologie in unsere Arbeits- und Alltagsabläufe Einzug – denken Sie zum Beispiel an das automatisch vorsortierte E-Mail-Postfach nach Relevanz oder auch die vorgeschlagenen Titel in Ihrer Playlist. KI erfordert durch ihre soziale Einbettung in unser Leben einen genaueren Blick auf Diversität und gegebenenfalls auch ungerechte Behandlung. Wenn wir in Zukunft bestimmte Entscheidungen automatisiert durch selbstlernende Systeme treffen lassen, stellt sich die Frage, welche Parameter dafür herangezogen werden und welche Daten genutzt wurden, um das System zu trainieren. Entscheidet das Programm wirklich anhand dessen, was wir als entscheidungsrelevant erachten? Waren die Daten so divers gewählt, dass eine getroffene Entscheidung auch fair ist? Es bedarf also einer Wachsamkeit für derartige Fragestellungen und auch eines kritischen Hinterfragens, um nicht unbewusst einer Ungleichbehandlung aufzusitzen, die - gegebenenfalls wie im analogen – diskriminierend ist.

Nikolai Horn: Es geht hierbei um die Selbstbestimmung. Wenn wir in Schubladen gesteckt werden, dann hat dies Konsequenzen und behindert gegebenenfalls unsere Selbst-Entfaltung. Nehmen wir die Kriminalitätseinschätzungen, also die Berechnung, mit welcher Wahrscheinlichkeit eine Person rückfällig wird. Das wird bewertet durch statistische Mittelwerte, nicht durch Eigenschaften des Individuums. Die Grundannahme unserer freiheitlichen Verfassung ist aber, dass Menschen sich jederzeit „neu-entwerfen“ können. Den Mensch als Person zeichnet gerade seine Fähigkeit aus, nicht ausschließlich durch seine Vergangenheit „vorbestimmt“ zu sein, sondern aufgrund einer vernunftgeleiteten Einsicht, sich jederzeit ändern zu können. Das ist die Freiheit, die nicht statistisch oder algorithmisch abbildbar ist.

Quelle: Capgemini

Die Experten von D21 und Capgemini geben Handlungsempfehlungen und beschäftigen sich mit den Auswirkungen politischer Entscheidungen. Was brauchen Bürger, um sich im Zeitalter der Daten wieder selbst entscheiden zu können?

Müller: Menschen sollten die Hoheit über ihre Daten haben. Dazu gehört, zu verstehen, was mit ihren Daten passiert. Datenkompetenz können Nutzer aber nur entwickeln, wenn die Hersteller der Anwendungen transparent machen, wer auf die Daten zugreift und wie diese verwendet werden. Im zweiten Schritt brauchen sie die Möglichkeit, Kontrolle auszuüben. Das ist bislang schwierig und wenig transparent. Anwendungen, die mit den Daten der Menschen arbeiten, müssen in Zukunft viel nutzerfreundlicher gestaltet werden.

Horn: Die Hoheit über die eigenen personenbezogenen Daten ist ein Persönlichkeitsrecht, also ein Grundrecht. Für ein Unternehmen sind Daten wichtig, da viele Leistungen auf ihnen beruhen. Wenn jemand Facebook seine Daten zur Verfügung stellt, ist er in diesem Moment Teil des Wertschöpfungsprozesses. Eine Beteiligung daran ist technisch möglich – und im Sinne eines „Digital-Fair-Trades“ vielleicht sogar geboten. Den Prozess der Datennutzung transparenter zu machen, würde beim Nutzer den Anreiz erhöhen, Daten verfügbar zu machen, um an der Wertschöpfung zu partizipieren. Damit würde es auf der Unternehmensseite relevanter, den Nutzer davon zu überzeugen, einer bestimmten Verwendung zuzustimmen.


Sie sprechen Grundrechte an. Warum sind diese für den Fortschritt bei der Künstlichen Intelligenz relevant?

Horn: Wir gehen von einem Menschenbild aus, das den Menschen als freies Individuum ansieht. Diese Freiheit gilt auch in Bezug auf ihre Abbildung anhand von Daten. Der Mensch sollte daher selbst bestimmen können, wo er mit seinen Daten wirtschaftlich partizipieren möchte oder, im Gegensatz, den Wert der personenbezogenen Daten höher gewichtet.

Müller: Unsere Gesellschaft basiert auf bestimmten Werten. Teilweise sind das feste, kodifizierte Werte, unser Rechtsstaat, Grundrechte oder auch alle Gesetze. An anderen Stellen sind es weiche Werte des Zusammenlebens – zum Beispiel die Fairness. Diese Werte müssen in die digitale Welt übertragen werden. Wenn wir mit technologischen Entwicklungen den Menschen in den Mittelpunkt rücken, ist das Ziel, geteilte Werte unseres Zusammenlebens zu bewahren. Die Selbstbestimmtheit gehört dazu.

Und das kann in der digitalen Welt funktionieren?

Horn: Wir haben in Europa eine solide gesetzliche Grundlage, einen Konsens, das sehen wir zum Beispiel an den Informations- und Interventionsrechten für Bürger. Praktisch ist die Souveränität bei den Menschen jedoch noch nicht vollends angekommen. Sie klicken nach wie vor alle Einwilligungen zur Datenfreigabe an und lesen sie nicht. Auch ihre Widerspruchs- oder Auskunftsrechte nehmen nur Wenige in Anspruch. Statt zusätzlicher Regularien sind daher technische Lösungsansätze gefragt, die dem Bürger die nötigen Informationen und Handlungsmöglichkeiten an die Hand geben und somit individuelle Handlungsräume bieten.

Müller: Auch Schulbildung ist wichtig, denn Kompetenzen sind ein Hebel. Treten wir dann in den Berufsalltag ein, unterliegt es heute noch dem Zufall, ob die Menschen sich noch weiterbilden. Der Umgang mit Daten wird im Bereich Aus- und Weiterbildung zu wenig adressiert. Für die Praxis besteht dann die Aufgabe, bessere, transparentere Lösungen zu schaffen. Die Entwicklungen rund um Künstliche Intelligenz sind für die Gesellschaft eine neue Herausforderung und an vielen Stellen fehlt es noch an Vertrauen.

Können Sie aufzeigen, wie wir das Vertrauen zurückerlangen?

Horn: Wir können die „Datensouveränität“ als etwas verstehen, das über den Datenschutz hinausgeht und einen Rahmen schafft, der dem Individuum ein neues gleichberechtigtes Verhältnis zwischen Bürgern, Staat und Unternehmen ermöglicht. Der Staat kann den Umgang selbst vorleben, da auch er Daten der Bürger für behördliche Dienstleistungen einsetzt. Der Staat fungiert so als Vertrauensanker, indem er einen Umgang mit Daten im Sinne des Bürgers vorlebt und die Möglichkeiten für ein solches Selbstbestimmungsniveau sicherstellt. Die Stärkung der Transparenz ermöglicht dem Bürger differenzierter über die Verwendung seiner Daten zu entscheiden, sodass er Unternehmen als Partner auf Augenhöhe begegnet. Informations- und Machtasymmetrien werden aufgebrochen.

Müller: Auch Unternehmen können durch die Ausgestaltung ihrer Kundenbeziehungen wichtige Schritte hin zu mehr Vertrauen gehen. Viele große Unternehmen stellen sich aktuell der Frage, welche digitale Verantwortung sie gegenüber der Gesellschaft im digitalen Zeitalter tragen, Stichwort Corporate Digital Responsibility. Dabei geht es dann zum Beispiel darum, offen zu kommunizieren, welche Werte oder Leitlinien sie ihrem unternehmerischen Handeln zugrunde legen und wie nachvollziehbar sie ihre Dienste für die Nutzerinnen und Nutzer gestalten und ob beispielsweise alles technisch machbare auch getan wird.

Droht dann nicht ein Konflikt zwischen Regulierung und Wettbewerbsfähigkeit?

Müller: Regulierung ist nicht immer gleichbedeutend mit Verboten. In Deutschland benötigen wir Daten, um Künstliche Intelligenz zu entwickeln. Fragen müssen wir uns, wie wir den Zugang fair gestalten. Dabei geht es übrigens nicht immer um die persönlichen Daten. Es geht um Daten allgemein. Ein positives Beispiel ist die „Free Flow of non-personal data“-Regelung. Sie regelt, dass es in der EU einen unbeschränkten Datenverkehr über nationale Grenzen und die Grenzen von IT-Systemen hinweg geben muss, um für Akteure der Wirtschaft gleiche Rahmenbedingungen zu schaffen.

Horn: Kluge Regulierung schafft Sicherheit und Nachhaltigkeit für alle Beteiligten. Bürger brauchen Transparenz und Kontrolle über ihre Daten. Wir brauchen keine neuen Regularien, die sind schon da. Wir müssen uns jetzt überlegen, wie wir die bestehenden Rechte mit Leben füllen, zum Beispiel durch technische Lösungsansätze und verbesserte Zugänge zu Technologien, etwa mittels Cockpits für individuelle Einstellungen der Privatsphäre sowie Identitäts- und Rechtemanagementsysteme.

Diesen Artikel teilen:
  • Artikel teilen per:
  • Artikel teilen per:
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Benachrichtigung aktivieren
Dürfen wir Sie in Ihrem Browser über die wichtigsten Themen der WirtschaftsWoche informieren? Sie erhalten 1 bis 3 Meldungen pro Tag.
Fast geschafft
Erlauben Sie www.wiwo.de, Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert
Wir halten Sie ab sofort über die wichtigsten Themen der WirtschaftsWoche auf dem Laufenden. Sie erhalten 1 bis 3 Meldungen pro Tag.