1. Startseite
  2. Technologie
  3. Digitale Welt
  4. AI-Act der EU: „Verantwortungsvolle KI braucht eine globale Grundlage“

Europas KI-Gesetz„Nur KI kann vor KI schützen“

Nokia-Europachef Rolf Werner fordert einen raschen und möglichst globalen Rechtsrahmen für den Einsatz von KI. Europas geplanter AI-Act könnte dabei zur Blaupause werden. Ein Gastbeitrag.Rolf Werner 06.12.2023 - 17:26 Uhr

Nokia-Europachef Rolf Werner.

Foto: PR

Die Büchse der Pandora ist offen. Künstliche Intelligenz (KI) lässt sich nicht mehr „abschaffen“. Steigern hingegen sehr wohl: Laut aktueller Erhebung des Statistischen Bundesamtes nutzt etwa jedes achte Unternehmen (12 Prozent) in Deutschland KI – große Firmen häufiger als kleine und mittlere. 

Das entspricht nicht dem Potenzial von KI. Deshalb muss das Thema aus der dunklen Mythenecke heraus und der Umgang damit – gerade auch in der öffentlichen Diskussion – sachlich und differenziert stattfinden. Zudem benötigen wir eine international anerkannte und gelebte Grundlage für die Regulierung von KI, damit Unternehmen vertrauensvoll in die Technik investieren können.

Mehr Nutzen, höheres Risiko

Während ein Großteil der Aufmerksamkeit auf der generativen KI und der Fähigkeit von ChatGPT liegt, den menschlichen Sprachgebrauch zu imitieren, hat der Teilbereich des maschinellen Lernens bereits im Stillen Branchen wie Landwirtschaft, Energie, Logistik und Fertigung verändert. Diese „industrielle KI“ hilft Landwirten, ihre Pflanzen zum optimalen Zeitpunkt zu bewässern und dabei weniger Abfall zu produzieren, sie hilft Wartungsarbeitern, Offshore-Windturbinen sicher zu reparieren, und unterstützt Fabrikarbeiter bei der Arbeit mit autonomen Maschinen.

Schneller schlau: So lernen Maschinen das Denken
Mit Kameras, Mikrofonen und Sensoren erkunden die Maschinen ihre Umwelt. Sie speichern Bilder, Töne, Sprache, Lichtverhältnisse, Wetterbedingungen, erkennen Menschen und hören Anweisungen. Alles Voraussetzungen, um etwa ein Auto autonom zu steuern.
Neuronale Netze, eine Art Nachbau des menschlichen Gehirns, analysieren und bewerten die Informationen. Sie greifen dabei auf einen internen Wissensspeicher zurück, der Milliarden Daten enthält, etwa über Personen, Orte, Produkte, und der immer weiter aufgefüllt wird. Die Software ist darauf trainiert, selbstständig Muster und Zusammenhänge bis hin zu subtilsten Merkmalen zu erkennen und so der Welt um sie herum einen Sinn zuzuordnen. Der Autopilot eines selbstfahrenden Autos würde aus dem Auftauchen lauter gelber Streifen und orangefarbener Hütchen zum Beispiel schließen, dass der Wagen sich einer Baustelle nähert.
Ist das System zu einer abschließenden Bewertung gekommen, leitet es daraus Handlungen, Entscheidungen und Empfehlungen ab – es bremst etwa das Auto ab. Beim sogenannten Deep Learning, der fortschrittlichsten Anwendung künstlicher Intelligenz, fließen die Erfahrungen aus den eigenen Reaktionen zurück ins System. Es lernt zum Beispiel, dass es zu abrupt gebremst hat und wird dies beim nächsten Mal anpassen.

Wir müssen uns allerdings auch des folgenden Dilemmas bewusst sein: Je leistungsfähiger KI wird, desto mehr kann sie uns nutzen – desto größer wird aber auch das Potenzial, ernsthaften Schaden anzurichten.

Kriminelle setzen bereits heute KI ein, um Cyberangriffe auf kritische Infrastrukturen – von Telekommunikations- bis hin zu Stromnetzen – zu verüben. Jeden Tag finden zehntausende Cyberangriffe statt. Sie sind so umfangreich und raffiniert, dass der Mensch allein nicht schnell genug reagieren kann.

Die derzeit besten Schutzmaßnahmen für Kommunikationsnetze sind Softwarelösungen, die KI enthalten. Nur KI kann vor KI schützen. 

Wir setzen uns deshalb für eine verantwortungsvolle KI-Entwicklung ein und sind keineswegs gegen ihre Regulierung – allerdings muss diese mit Bedacht geschehen, um Innovationen nicht zu ersticken. Deshalb gilt es, die Regularien für KI so zu gestalten, dass das Wertschöpfungs- und Fortschrittspotenzial der Technologie genutzt werden kann, während gleichzeitig die Möglichkeiten, Schaden anzurichten, begrenzt werden. Ein risikobasierter Ansatz, der auf der Grundlage der jeweiligen Risiken von unterschiedlichen KI-Technologien greift.

Regulierung langsamer als technische Entwicklung

Hinzu kommt: Unterschiedliche regulatorische Herangehensweisen führen zu Verzerrungen im globalen Wettbewerb. Deshalb ist es wichtig, dass die Prinzipien einer Regulierung soweit möglich global angeglichen werden. Das gilt zunächst für die zugrunde liegenden Definitionen, dann für eine gemeinsame Sichtweise auf die von KI ausgehenden Risiken, die durch öffentliche Intervention (Risikobewertung) angegangen werden, bis hin zu gemeinsamen Grundsätzen, wie damit umzugehen ist. Europa könnte hier Pionierarbeit leisten.

Doch die Einführung neuer Rechtsvorschriften auf europäischer Ebene erfordert Zeit – die KI-Entwicklung steht währenddessen nicht still. Deshalb droht die Gesetzgebung vom technischen Fortschritt überholt zu werden.  Und so ist es von vorrangiger Bedeutung, zeitnah die erwähnte gemeinsame Basis zu finden – zunächst innerhalb Europas. Auch und gerade, weil die Welt auf Europa blickt und die Chance besteht, dass ein europäischer AI-Act global als Blaupause dient. 

Lesen Sie auchwelche bürokratischen Belastungen durch den AI Act der EU drohen

Mehr zum Thema
Unsere Partner
Anzeige
Stellenmarkt
Die besten Jobs auf Handelsblatt.com
Anzeige
Homeday
Homeday ermittelt Ihren Immobilienwert
Anzeige
IT BOLTWISE
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Remind.me
Jedes Jahr mehrere hundert Euro Stromkosten sparen – so geht’s
Anzeige
Presseportal
Lesen Sie die News führender Unternehmen!
Anzeige
Bellevue Ferienhaus
Exklusive Urlaubsdomizile zu Top-Preisen
Anzeige
Übersicht
Ratgeber, Rechner, Empfehlungen, Angebotsvergleiche
Anzeige
Finanzvergleich
Die besten Produkte im Überblick
Anzeige
Gutscheine
Mit unseren Gutscheincodes bares Geld sparen
Anzeige
Weiterbildung
Jetzt informieren! Alles rund um das Thema Bildung auf einen Blick