Anzeige: Für sämtliche Inhalte dieser Seite ist die Telekom Deutschland GmbH verantwortlich.
Ethik-Debatte Was darf Künstliche Intelligenz?
Je mehr Anwendungsbereiche Künstliche Intelligenz (KI) erobert, desto lauter werden die Rufe nach ethischen Grundsätzen. Wie weit sie reichen sollen, darüber sind sich Experten auf der DIGITAL X 2019 bereits einig.
„Jede Technik birgt Risiken, wir müssen uns immer langsam herantasten“, sagt Prof. Dr. Armin Grunwald. Der Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) geht es ruhig an. Keine unnötige Emotionalisierung und vor allem keine vorschnellen Schlüsse. Das Ethikdilemma um KI, etwa wen ein autonom fahrendes Auto bei einem Ausweichmanöver eher überfahren dürfe – einen älteren Menschen oder eine Gruppe jüngerer –, hält der Professor für Technikphilosophie für „konstruiert“.
Die größten Cyber-Ängste der Deutschen
Gefragt nach den größten Cyber-Risiken für die Menschen in Deutschland, nennen 51 Prozent der für den Cyber Security Report befragten politischen und wirtschaftlichen Entscheider den Missbrauch von persönlichen Daten durch Unternehmen.
Ganz ähnlich wird auch die Gefährdung der Privatsphäre durch vernetzte Haustechnik angegeben. 52 Prozent der Befragten nennen sie als Cyber-Risiko.
Die Lahmlegung wichtiger Infrastruktureinrichtungen zählen 62 Prozent der wirtschaftlichen und politischen Entscheider zu den größten Risiken für die Menschen in Deutschland.
Nur knapp darüber im Ranking steht mit 63 Prozent der Nennungen der Datenmissbrauch in sozialen Medien.
65 Prozent geben an, das Computerviren und andere Schadsoftware zu den größten Cyber-Risiken für die Menschen in Deutschland zählen. Im Jahr 2017 rangierte diese Bedrohung noch auf Platz 1, zusammen mit der Lahmlegung von wichtigen Infrastruktureinrichtungen durch Cyber-Angriffe (in 2019 auf Platz 6).
Gut zwei Drittel der Befragten (67 Prozent) zählen zu den größten Cyber-Risiken allgemein den Diebstahl von privaten Daten. In 2017 stand diese Bedrohung noch auf Platz 5.
Der Datenbetrug im Internet steht aus Sicht von wirtschaftlichen und politischen Entscheidern auf Platz 2 der größten Cyber-Risiken für die Menschen in Deutschland. 70 Prozent nennen diese Bedrohung. Vor zwei Jahren belegte diese Bedrohung ebenfalls den zweiten Platz, damals noch mit 68 Prozent der Nennungen.
Die größte Cyber-Bedrohung für die Menschen in Deutschland sehen wirtschaftliche und politische Entscheider in Fake News (74 Prozent). Noch vor zwei Jahren stand die Angst vor manipulierten Nachrichten und Co. auf Platz 3 nach der Lahmlegung von Infrastruktur durch Cyber-Angriffe und Schäden durch Computerviren allgemein (beide Platz 1) und Datenbetrug im Netz (Platz 2).
Die Daten stammen aus dem Deloitte Cyber Security Report 2019. Sie spiegeln die Einschätzung von Unternehmensführern und politischen Entscheidern zu den größten Cyber-Risiken für die Menschen in Deutschland wider.
Die Ursache für das „Scheinproblem“ liegt seiner Auffassung nach darin, dass Roboter und KI in Science-Fiction-Filmen wie Star Wars mit dem humanoiden C3PO vermenschlicht würden, was sich in Äußerungen wie „der Roboter handelt“ oder „die KI denkt“ ganz deutlich zeige. „Bei der Übertragung aus der Science-Fiction Welt in die reale Welt werden Probleme erzeugt, die es noch gar nicht gibt, und das wird auch noch lange so bleiben“, sagt Grunwald. Dennoch: „Wir lernen mit der Zeit, die jeweilige Technik zu adaptieren und gute Lösungen zu entwickeln.“ So wird das autonom fahrende Auto in Zukunft bestenfalls niemanden überfahren.
„KI ist ein Problemlöser, aber kein Selbstdenker“
Die perfekte Reaktion ist ein Attribut, das wir Menschen Maschinen gerne zuschreiben, schließlich zeigen sie beispielsweise in Produktionsstraßen der Industrie, wie makellos und immer gleich sie eine Handlung ausführen können. KI-Experte Chris Boos, der als Gründer des KI-Unternehmens arago bereits seit mehr als 20 Jahren zu künstlich intelligenten Systemen und deren Anwendungsmöglichkeiten forscht, eröffnet auf der DIGITAL X 2019 eine weitere Betrachtungsweise: „Ein KI-System muss nicht perfekt reagieren können, immer und überall. Es reicht vielleicht schon, wenn die KI besser reagiert als ein Mensch“.
KI denkt nicht, sie folgt ihrer Programmierung
Eine KI sei nicht in der Lage, Entscheidungen zu treffen, sind sich Boos und Grunwald einig. „Als säkulare Gesellschaft entscheiden wir selbst, was wir dürfen und was nicht“, sagt Grunwald. Das bedeute auch, dass wir Entscheidungen delegieren dürfen – etwa an Roboter, wie dies im Industrie 4.0-Umfed bereits geschieht, oder in Zukunft an autonom fahrende Autos. Hier dürfe man jedoch die „Entscheidung“ der Algorithmen als Ergebnis einer Rechenaufgabe, aus der Auswertung von über Sensoren gesammeltem Daten, nicht mit der freien Entscheidungsfindung eines Menschen aus einer Reihe von Optionen verwechseln. „Ein Algorithmus kommt nicht ins Grübeln, sondern folgt immer einem vorgegebenen Programm“, erklärt Grunwald.
So sieht es auch Manuela Mackert, Chief Compliance Officer (CCO) und Leiterin des Group Compliance Managements der Telekom Deutschland. „Verantwortungsvolle KI fängt schon beim Programmieren an“, betont sie in ihrem Vortrag „Digitale Ethik: Wettbewerbsvorteil durch wertebasierte KI“. In ihrer Funktion widmet sie sich verstärkt der Förderung der Digital-Ethik. Das hat einen guten Grund: Mackert zitiert eine aktuelle Capgemini-Studie, in der eine große Mehrheit der Verbraucher (62 Prozent) angibt, dass sie Unternehmen mehr vertrauen, wenn sie ethische KI einsetzten, die transparent, fair und klar nachvollziehbar ist.
Die größten Digitalisierungshemmnisse in Deutschland
Digital, aber (zu) teuer? Nicht jedes Unternehmen kann seine Digitalisierungsprojekte so umsetzen wie gewünscht. Mangelnde geeignete Finanzierungsmöglichkeiten bremsen bei 7 von 100 Unternehmern die Digitalisierung. Im Jahr 2017 lag die Quote bei 5,4 Prozent.
Welche Technologie lohnt sich, welche ist eher ein Luxus? Die Unsicherheit über zukünftige Technologien und deren Standards bremst 26,8 der Befragten in ihrer Digitalisierung.
Exakt 30 von 100 Firmen sehen für sich ein Digitalisierungshemmnis in der mangelnden Qualität ihrer Internetverbindung. Im Befragungsjahr 2017 lag diese Quote noch bei 27,6 Prozent.
Digitalisierung bedeutet in der Regel auch, vorhandene Datenbestände und neue Datenquellen miteinander zu verbinden. Nur so werden Synergien deutlich. Mit 35,2 Prozent der Nennungen landen die Schwierigkeiten bei der Umstellung bestehender IT-Systeme knapp auf Platz 4 der Faktoren, die die digitale Transformation von Unternehmen bremsen.
Nicht allein die Technik bereitet gelegentlich Sorgen: Die Anpassung der Unternehmens- und Arbeitsorganisation, sprich die Unternehmenskultur, hin zu neuen Möglichkeiten beschreiben mehr als ein Drittel der Befragten (35,5 Prozent) als Digitalisierungshemmnis.
Der Fachkräftemangel ist ein großes Thema unter den Unternehmen, die ihren digitalen Wandel aktiv gestalten. Fehlende IT-Kompetenzen oder Bewerber für ausgeschriebene Stellen in der IT bereiten 38,3 Prozent der Firmen Probleme.
45,7 Prozent der befragten Unternehmen sehen in den Anforderungen an die Datensicherheit bzw. an den Datenschutz die größte Bremse für die eigene Digitalisierung. Zwei Jahre zuvor sahen das nicht einmal drei von zehn Unternehmen (28,3 Prozent) so.
Digitalisierung einfach machen? Die Zahl der Unternehmen, die keine Einschränkungen bei ihren Digitalisierungsprojekten feststellen, schrumpft: Sah im Jahr 2017 noch fast jedes fünfte Unternehmen (21 Prozent) keine Hindernisse, digitalisieren sich 2019 nur noch 12,6 Prozent der befragten Firmen ganz ohne Hemmnisse.
Die Ergebnisse der Übersicht basieren auf einer Unternehmensbefragung der KfW-Bankengruppe. Die Befragung wurde zum 18. Mal unter Unternehmen aller Größenklassen, Wirtschaftszweige, Rechtsformen und Regionen durchgeführt. An der Erhebung nahmen knapp 1.300 Unternehmen aus 17 Spitzen-, Fach- und Regionalverbänden der Wirtschaft teil. Sie erfolgte im Zeitraum zwischen Mitte Dezember 2018 und Mitte März 2019.
Wie lange geht die Weiterentwicklung von KI-Systemen aber noch Hand in Hand mit bestehenden Wertevorstellungen? Kommt der Punkt, an dem das moralisch Vertretbare hinter dem technisch Möglichen zurücktritt oder gar zurücktreten muss, weil Moralvorstellungen auf der Welt eben unterschiedlich sein können? Ulla Coester, Mit-Gründerin des Ethik-Netzwerks Xethix und seit 2018 Partnerin des Netzwerks Wegesrand, macht unverblümt deutlich, dass KI für gute wie schlechte Zwecke eingesetzt werden kann. So erleichtern beispielsweise biometrische Verfahren die Authentifizierung beim Entsperren von Smartphones und sichern Bezahlvorgänge. Andererseits kann die maschinelle Gesichtserkennung auch die Privatsphäre von Menschen beeinträchtigen, etwa wenn diese damit lückenlos überwacht werden. Sie wirbt für möglichst klare Grenzen, heute sowie in Zukunft: „Wir sollten genau überlegen, wo wir KI einsetzen und den Grundsatz beachten, dass der Mensch als Entscheider immer das letzte Wort hat.“ Folgt daraus schlimmstenfalls ein Technikverzicht? Coester sagt ja, „schließlich soll die Technik dem Menschen helfen und nicht umgekehrt.“
Sie sieht Unternehmen in der Verantwortung, durch Selbstverpflichtungsinitiativen zu gewährleisten, dass beim Thema KI ethische Normen und Standards gewährleistet werden. Die Ergebnisse von rund 1.600 von Capgemini befragten Unternehmensentscheidern in zehn Ländern – darunter Deutschland, Frankreich, Großbritannien, China, Indien und die USA – zeigen: Neun von zehn Managern haben bereits Erfahrungen gemacht, bei denen der Einsatz von KI zu ethischen Problemen führte, die sie lösen mussten.