Facebook Maschinenintelligenz gegen den Terror

Mark Zuckerberg will mithilfe von Algorithmen zur Bild- und Texterkennung Propaganda von Terroristen bei Facebook schneller finden. Die Initiative soll Anti-Facebook-Gesetze verhindern.

  • Teilen per:
  • Teilen per:
Menschliches Auge versus Künstliche Intelligenz - was ist effektiver im Kampf gegen Terror und Propaganda? Quelle: Reuters

Markenverantwortliche reagieren empfindlich, wenn ihre Anzeigen in einem Umfeld auftauchen, in dem wenig Kauflaune aufkommt. Das verdeutlichte zuletzt das Beispiel Youtube. Über 250 Unternehmen zogen im März Werbebudgets im großen Stil ab, nachdem ihre Spots vor rassistischen, antisemitischen Videos und Terror-Spots gezeigt worden waren. Der Schaden für Konzernmutter Alphabet könnte sich bis Jahresende auf Umsatzausfälle in Höhe von bis zu 750 Millionen Dollar belaufen, schätzen die Analysten von Nomura Instinet.

Facebook-Chef Mark Zuckerberg will verhindern, dass seiner Firma ein ähnliches Szenario droht. Auch das blaue Imperium gerät immer wieder mit Mord-Videos und Propaganda-Inhalten in die Schlagzeilen. Von politischer Seite wächst der Druck. Justizminister Heiko Maas (SPD) will den Konzern per Gesetz zwingen, hetzerische Beiträge schneller zu entfernen.

Auch die britische Premierministerin Theresa May und Emmanuel Macron, Frankreichs Regierungschef, sehen nach der Serie von Anschlägen Handlungsbedarf. Das Duo stellte diese Woche eine Anti-Terror-Strategie vor, die auch auf einen laschen Umgang mit radikalen Inhalten im Netz abzielt.

Zuckerberg muss zeigen, dass seine Plattform mehr gegen Terror unternimmt. Er wolle im Kampf gegen Propaganda künftig stärker auf Künstliche Intelligenz setzen, teilte der Gründer per Facebook-Post mit. Intelligente Software könne “potentielle terroristische Inhalte und Profile schneller finden, als es Menschen möglich ist”, so Zuckerberg. Algorithmen zur Text- und Sprachanalyse sollen etwa automatisch erkennen, wenn ein Nutzer versucht, bereits geblockte Inhalte erneut hochzuladen. Bild- und Video-Erkennungssoftware gleicht Aufnahmen mit in Datenbanken hinterlegten Fotos oder Videos bekannter Terroristen ab. Das kann verhindern, dass sich ein bereits von der Plattform verbannter Radikaler erneut anmeldet.

“Künstliche Intelligenz kann uns helfen, unsere Gemeinschaft zu schützen und wir haben eine große Verantwortung, das zu tun”, schrieb Zuckerberg. Angesichts der puren Masse der Daten von zwei Milliarden Facebook-Nutzern weltweit, bleibt dem Netzwerk allerdings kaum eine andere Wahl, als nach einer automatisierten Lösung zu suchen. Facebook zufolge gehen bereits Millionen Meldungen zu problematischen Inhalten Woche für Woche bei der Firma ein.

Bei Humor und Ironie wird es schwierig

Bislang verlässt sich Zuckerberg bei Hass- und Propagandainhalten vor allem auf Hinweise von Nutzern. Facebook-Mitarbeiter begutachten und löschen gemeldete Beiträge dann gegebenenfalls. Ihre Zahl stockte das Netzwerk Anfang Mai auf. 3 000 weitere Mitarbeiter sollen künftig die bislang 4500 Angestellten unterstützen, die von Nutzern gemeldete Beiträge oder Filme überwachen.

Doch nach Ansicht von Facebook wird dies kaum reichen. "Egal, wie viele Mitarbeiter wir für den Job engagieren, wir werden nie dazu in der Lage sein, alles zu sehen, was im Netzwerk vorgeht", erklärte Zuckerberg. Künstliche Intelligenz werde im Laufe der Zeit besser darin werden, “Inhalte zu markieren, die wir uns genauer ansehen müssen", sagte der Facebook-Chef.

Doch es werde "einige Jahre" dauern, bis die Ergebnisse zufriedenstellend seien. Wie viele Beiträge aktuell von Maschinen und wie viele von Menschen gelöscht werden, dazu machte das Netzwerk keine Angaben.

Das Unternehmen Facebook in Zahlen

Experten schätzen, dass künstliche Intelligenz bisher nur eine erste grobe Auswahl diskussionswürdiger Beiträge bewerkstelligen könne. Heutige Maschinen können etwa erkennen, was Menschen in einem Video sagen oder welche Gegenstände zu sehen sind, sagt Peter Eckersley von der Electronic Frontier Foundation (EFF), einer US-Nichtregierungsorganisation, die sich für die Einhaltung von Grundrechten im Informationszeitalter einsetzt. Ein harmloses Videospiel mit Kampfszenen von einem Spot der Terrororganisation Islamischer Staat zu unterscheiden, sei durchaus möglich, so der Experte.

Sehr viel schwieriger läge der Fall hingegen bei jeder Art von Humor, Ironie oder Kunst. Auch gelte es, Zensur zu vermeiden. "Wenn Inhalte doppeldeutig sind, versteht eine Maschine das nicht, das fällt ja bereits Menschen schwer", warnt Eckersley. "Um zu entscheiden, ob die Videos von der Plattform verschwinden müssen, braucht es Menschen. Algorithmen sind dafür noch nicht gut genug."

Das sind die jüngsten Milliardäre der Welt
Friederike-Braun-Lüdicke Quelle: DPA
Ryan-Graves Quelle: AP
Tatiana-Casiraghi Quelle: DPA/Picture-Alliance
Caroline-Hagen-Kjos Quelle: Screenshot
Nathan-Blecharczyk Quelle: AP
Tom-Persson Quelle: REUTERS
Dustin-Moskovitz Quelle: dapd
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%