Hass- und Gewalt-Postings: Facebooks geheime Lösch-Regeln enthüllt

Hass- und Gewalt-Postings: Facebooks geheime Lösch-Regeln enthüllt

, aktualisiert 22. Mai 2017, 14:18 Uhr
Bild vergrößern

Facebook hat ein internes Regelwerk, nach dem Mitarbeiter Inhalte löschen.

von Nora SonnabendQuelle:Handelsblatt Online

Wie entscheidet Facebook, welche Inhalte der rund zwei Milliarden Nutzer gelöscht werden? Interne Dokumente zeigen nun, wie das soziale Netzwerk mit Gewalt, Sex und Hass umgeht. Die Regeln bleiben aber widersprüchlich.

DüsseldorfFacebook verlässt sich auf Tausende Moderatoren, die die Inhalte der rund zwei Milliarden Nutzer auf anstößige Inhalte kontrollieren sollen. Dem britischen „Guardian“ liegen nun Kopien von Tausenden Folien sowie Bildern vor, die Facebook den Moderatoren im vergangenen Jahr als Leitlinien zur Verfügung gestellt hat. Viele Moderatoren fühlten sich demnach überfordert von der Menge an Posts, die sie kontrollieren müssen.

Wie der „Guardian“ berichtet, müssen Moderatoren innerhalb von zehn Sekunden entscheiden, ob Posts aus dem sozialen Netzwerk entfernt werden sollten oder nicht. Die Leitlinien, die ihnen dabei helfen sollen, sind allerdings relativ vage gehalten: So dürfen demnach Videos, in denen es um einen gewaltsamen Tod, zum Beispiel einen Suizid, geht, auf Facebook bleiben, falls sie für eine psychische Krankheit sensibilisieren.

Anzeige

Bilder von Kindesmissbrauch werden entfernt, wenn sie „Sadismus und Glorifizierung“ zeigen – wenn nicht, können sie auf der Seite bleiben und werden lediglich als „verstörend“ gekennzeichnet. Auch Videos vom Missbrauch von Tieren sind erlaubt, aber können als „verstörend“ gekennzeichnet werden.

Bei Aufrufen zur Gewalt gegen Menschen differenziert Facebook zwischen allgemeinen und spezifischen Beleidigungen: Ruft jemand etwa zur Gewalt gegen US-Präsident Donald Trump auf, so wird dieser Text entfernt. Fordert jemand dazu auf, Menschen mit roten Haaren zu treten, wird dieser Inhalt nicht als bedenklich eingestuft und muss nicht gelöscht werden.

Facebook sagte dem „Guardian“, es sei sehr schwierig, bei fast zwei Milliarden Nutzern einen Konsens zu erreichen. Menschen bewerteten unterschiedlich, was angemessen sei und was nicht.

Anfang des Monats hatte Facebook angekündigt, 3000 zusätzliche Mitarbeiter einzustellen, um Bilder im Netzwerk zu überprüfen. Anlass war große Kritik, nachdem ein Mord in einem Vide live auf Facebook zu sehen war.

Quelle:  Handelsblatt Online
Anzeige
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%