Wer mit der Löschung seiner Beiträge nach Facebooks internen Benimmregeln nicht einverstanden war, hatte bisher einen schweren Stand. Jetzt kann man die Entscheidungen zumindest einmal direkt beim Online-Netzwerk anfechten.
Facebook wird Nutzern erstmals die Möglichkeit geben, der Löschung ihrer Beiträge durch das Online-Netzwerk zu widersprechen. Die Funktion soll bis Jahresende weltweit für Löschgründe wie Nacktheit, Hassbotschaften und Gewaltdarstellung eingeführt werden. Weitere Kategorien sollen folgen. Die Beschwerden würden dabei typischerweise binnen 24 Stunden geprüft, erklärte Facebook am Dienstag. Das Online-Netzwerk veröffentlichte auch eine ausführliche Version seiner sogenannten Gemeinschaftsstandards mit mehr Details dazu, welche Inhalte nicht erlaubt sind.
Die Formulierungen folgten dabei eng den internen Richtlinien, nach denen die Prüfer beim Löschen gemeldeter Beiträge vorgehen, betonte Facebook-Managerin Siobhan Cummiskey. „Wir haben einige Details zurückgehalten, weil wir nicht wollen, dass Leute das System austricksen können“, schränkte sie zugleich ein. Diese ausführliche öffentliche Version der Benimmregeln solle stets zusammen mit den internen Richtlinien aktualisiert werden.
In der Vergangenheit hatte es immer wieder Kontroversen um von Facebook entfernte Beiträge gegeben, zum Beispiel als es um Nacktheit in Kunstwerken ging oder die berühmte Fotografie aus dem Vietnam-Krieg, in der ein unbekleidetes Mädchen bei einem amerikanischen Napalm-Angriff zu sehen ist. Die Löschentscheidungen wurden in diesen Fällen oft erst nach öffentlicher Kritik rückgängig gemacht. „Wir hoffen, dass wir durch die Widerspruch-Funktion unsere Fehler korrigieren können“, sagte Cummiskey. Es sei wichtig, dass Nutzer Facebook darauf hinweisen könnten.
Die ausführlichen Gemeinschaftsstandards enthalten auch Facebooks Definition terroristischer Organisationen: „Eine nichtstaatliche Organisation, die vorsätzliche Gewalttaten gegen Personen oder Eigentum durchführt, um Zivilisten, Regierungen oder internationale Organisationen einzuschüchtern und so politische, religiöse oder ideologische Ziele zu erreichen.“
Zusätzlich teilte das Online-Netzwerk mit, dass im vergangenen Quartal 1,9 Millionen Beiträge mit Bezug zu den Terrororganisationen Islamischer Staat (IS) und Al-Kaida entfernt oder mit Warnhinweisen versehen wurden. Davon seien 99 Prozent nicht von Nutzern, sondern von Facebooks Software oder Mitarbeitern entdeckt worden.
Auch bei YouTube spielt Software inzwischen die Hauptrolle beim entfernen von Videos. Von den 8,3 Millionen Clips, die im Schlussquartal 2017 gelöscht wurden, entdeckten Maschinen gut 80 Prozent. Rund drei Viertel dieser 6,7 Millionen Videos seien entfernt worden, bevor sie auch nur einmal von Menschen angesehen wurden, betonte die Google-Videoplattform in einem Blogeintrag.
Den Fortschritt dabei illustrierte YouTube mit Videos mit extremistischen Inhalten, die weniger als zehn Mal angesehen wurden, bevor es gelang, sie zu löschen: Anfang 2017 lag der Anteil bei acht Prozent, nun ist es mehr als die Hälfte.
Die YouTube-Software greift dabei zum einen auf eine Datenbank mit bereits bekannten Videos zurück, die bei Versuchen, sie erneut hochzuladen, gestoppt werden. Zugleich analysiert sie auch zunehmend selbst Videoinhalte, um problematische Clips ausfindig zu machen und zur Prüfung zu markieren. Die endgültige Entscheidung wird dabei größtenteils von den Google-Mitarbeitern getroffen.
Facebooks Gemeinschaftsstandards enthalten unterdessen auch weitere Definitionen, die für das Verständnis von Löschentscheidungen wichtig sein können. „Ein Mord ist für uns ein Massenmord, wenn dabei vier oder mehr Personen sterben“, heißt es da unter anderem. „Eine Person, die zwei oder mehr Morde zu verschiedenen Zeitpunkten oder an verschiedenen Orten begangen hat, ist für uns ein Serienmörder.“
Aus den Gemeinschaftsstandards geht auch hervor, dass Facebook Livestreams, in denen Menschen sich Schaden zufügen wollten, auf Anraten von Experten online nicht unterbricht, solange ihnen noch geholfen werden kann. „Wir können unter Umständen auch lokale Polizeibehörden informieren, damit sie eingreifen können“, sagte Cummiskey. In einigen Fällen hätten Familienmitglieder dadurch noch rechtzeitig Schlimmeres verhindern können. „Wir finden diese Situationen sehr tragisch – und wir wollen das Richtige tun.“
[dpa]
Bildquelle:
- Technik_Web_Artikelbild: © Victoria - Fotolia.com