WiWo App 1 Monat für nur 0,99 €
Anzeigen
Cyber Boss
Gesichtserkennung via KI Quelle: dpa

Was Gesichter verraten

Künstliche Intelligenz erleichtert unser Leben, sie liefert aber auch verheerend falsche Prognosen. Ihr Einsatz muss daher reguliert werden. Doch wie verhindern wir, dass dabei neue Datenmonopole entstehen?

  • Artikel teilen per:
  • Artikel teilen per:

Künstliche Intelligenz scheint allmächtig zu sein. Sie findet heraus, ob einer Person in zehn Jahren ein Herzinfarkt droht. Sie kann anhand eines Fotos bestimmen, ob ein Mann schwul oder heterosexuell ist. Und sie hat sogar gelernt, wie man Kriminelle anhand ihrer Gesichter ausfindig macht. Da könnte selbst Gott neidisch werden!

Muss er zum Glück nicht. Auch wenn die „Daily Mail“ oder „Newsweek“ behaupten, dass KI aus Gesichtern von der Sexualität bis zur kriminellen Neigung praktisch alles herauslesen kann, ist die Realität deutlich komplexer.

Maschinelles Lernen kann vieles. Es verbessert alle Arten von Geschäftsprozessen. Es verändert Industrien und entlastet Menschen. Frühe Tumordiagnosen oder die Identifikation von Anomalien in Finanzportfolios sind kaum denkbar ohne die Existenz von KI. In vielen Fällen jedoch wecken die Forscher selbst zu hohe Erwartungen.

In der berüchtigten „Gaydar“-Studie der Universität Stanford zum Beispiel behaupten sie, dass ihr Vorhersagemodell mit einer Genauigkeit von 91 Prozent schwule von heterosexuellen Männern anhand von Gesichtsbildern unterscheiden kann. Wichtig ist dabei aber: Das Modell kann keine genauen Aussagen über ein einziges Foto liefern. Das gelingt nur in einer Testumgebung, wenn vorab bereits festgestellt wurde, dass von zwei Männern einer schwul ist.

Der Einsatz des Modells in der realen Welt würde daher einen rigorosen Kompromiss erfordern. Die Forscher könnten das Modell optimieren, um beispielsweise zwei Drittel aller schwulen Personen korrekt identifizieren zu können. Das hätte aber seinen Preis: Bei einer Prognose wäre mehr als die Hälfte der Fälle falsch. Eine sehr hohe Fehlerrate! Sie folgt einer fatalen Korrelation: Je stärker die Anzahl der korrekten Identifizierungen optimiert wird, desto höher die sogenannte Falsch-Positiv-Rate.

Statistik-Experten könnten nun ein Leistungsmaß für den Umfang der Abweichungen ausrechnen. Damit wären wir im Bilde über die Genauigkeit unserer Maschinen und könnten sie bei den Ergebnissen berücksichtigen. Damit sind aber andere, wesentlichere Fragen nicht gelöst: In welchen Lebensbereichen wollen wir mit KI arbeiten? Wie bewerten wir die Ergebnisse von Prognosemodellen, die auf künstlicher Intelligenz basieren? Was folgt aus ihrem Einsatz für bestimmte Gesellschaftsgruppen und Individuen?

Bei der Gesichtserkennung hat eine Debatte über diese Fragen begonnen. Die „New York Times“ hatte jüngst über eine US-Firma namens Clearview AI berichtet, die eine Datenbank aus rund drei Milliarden frei im Internet zugänglichen Bildern zusammengestellt hat. Basis dieses Materials bietet sie unter anderem Behörden einen Service zur Gesichtserkennung an. Noch halten sich die potenziellen Nutzer zurück. Auf In Deutschland will Bundesinnenminister Horst Seehofer der Bundespolizei vorerst nicht erlauben, an sicherheitsrelevanten Orten Software zur Gesichtserkennung einzusetzen. Es gebe noch juristische Fragen sowie Fragen der gesellschaftlichen Akzeptanz, so der Minister. Auch die großen Tech-Konzerne selbst rufen nach Regulierung. Satya Nadella, CEO von Microsoft, und Sundar Pichai, CEO von Alphabet, haben jüngst ein Moratorium auf Gesichtsentwicklungstechnologie gefordert. Es mag die wenigsten verwundern, dass sie das nicht selbstlos tun. Wer eine Regulierung ins Spiel bringt, kann die Diskussion steuern. Das scheinen Google und Microsoft gut verstanden zu haben.

Das eigentliche Problem sprechen sie nämlich lieber nicht an: Daten füttern KI-Modelle. Diese erzeugen damit bessere Produkte, die dann noch mehr Daten erzeugen, die wiederum bessere KI mit sich bringen, die wiederum erneut bessere Produkte erzeugt. Das Ergebnis: Es entstehen Datenmonopole, die niemand gutheißen kann.

Gesichtserkennung ist ein emotionales Thema. Es mag wichtig sein, sich regulatorisch darauf zu stürzen. Aber im Kern geht es um die Frage, was uns als Menschen mit und ohne Technologie auszeichnet. Das müssen wir schützen – in erster Linie vor allmächtigen Monopolisten.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%