Geheimdokument beweist: So löscht Facebook Posts
Bisher war unklar, wie der Internet-Gigant mit missliebigen Posts umgeht. Nun wurden Zeitungen ein Dossier zugespielt, das Aufklärung bringt.
Seit Jahren steht Facebook in der Kritik, weil nicht klar ist, wie das Unternehmen mit Hass-Botschaften und ambivalenten Posts umgeht. Mit einem Anti-Hatespeech-Gesetz will Justizminister Heiko Maas (SPD) der mächtigen Plattform nun Einhalt gebieten. Doch auch der Gesetzesentwurf fußt lediglich auf selbst gewonnen Einsichten, wie Facebook möglicherweise Nachrichten entfernt. Gewissheit könnte nun ein Geheimpapier bringen, das einem Recherchenetzwerk des britischen „Guardian“ und der „Süddeutschen Zeitung“ vorliegt. Es liefert bisher unbekannte Einsichten in die Löschpraktiken des Konzerns.
In den mehr als 100 Schulungsunterlagen und Präsentationen, die anscheinend als Handlungsanweisung für Facebook-Mitarbeiter ausgegeben werden, geht es um den Umgang mit brisanten Themen wie Kindesmissbrauch, Suizid, Mobbing und Tierquälerei. In den Dokumenten wird nach Angaben von „Spiegel Online“ auch über moralische Grauzonen gesprochen. Vor allem Selbsttötungshandlungen, die auf Facebook angekündigt werden, sollen nicht gelöscht werden, weil so mögliche Reaktionen unterbunden werden könnten. Oftmals sind angekündigte Suizide versteckte Hilferufe.Facebook: Emotion vs. Handlung
Nicht anders sieht es mit Essstörungen oder Selbstverletzungen aus. Hier verstößt ein Post nur dann gegen die Richtlinien des sozialen Netzwerks, wenn es einer Aufforderung für andere User gleichkomme, sich ebenfalls so zu verhalten. Insgesamt gilt vor allem für Szenen oder Botschaften der Gewalt oder des Todes, dass sie nur dann gelöscht werden sollen, wenn sie sadistisch oder verherrlichend seien. Videos über Tode könnten demnach trotz der Proteste einiger User im Netz bleiben, weil sie nach Philosophie des Konzerns das Bewusstsein für mentale Leiden schaffen könnten, so der „Guardian“.
Facebook deutet in den Dokumenten an, dass „Menschen gewalttätige Sprache nutzen, um im Netz ihren Frust auszudrücken.“ Entscheidend bei der Bewertung der Hassinhalte sei nicht die Botschaft selbst, sondern die Frage, ob es eine über die reine Emotion hinausreichende Handlungsweise sei. Die fehlende Sicht auf den Gegenüber verleite zu sprachlichen Reaktionen, die möglicherweise nicht glaubwürdig seien. „Aus dieser Perspektive sind Ausdrücke wie ‚Ich werde dich töten‘ nicht zu glauben und eher ein heftiger Ausdruck von Abneigung und Frustration.“
Mitarbeiter stehen unter Hochdruck
Aus solchen Beschreibungen wird laut dem „Guardian“ ersichtlich, dass Facebook sich der Komplexität der nicht eindeutig zu interpretierenden Botschaften in dem sozialen Netzwerk bewusst ist. Wie es scheint, sind die Mitarbeiter des Konzerns oftmals selbst unsicher, wie sie reagieren sollen. In dem Papier, das den Zeitungen vorliegt, gibt es auch häufig gestellte Fragen der Arbeitnehmer. Eine davon lautet sinngemäß:„ Ich bin mir nicht sicher, ob die Person wirklich unsere Hilfe braucht, was soll ich tun?“Als Antwort hält Facebook vielsagend bereit: „Wenn es nicht offensichtlich ist, dass Hilfe benötigt wird, ignoriere den Inhalt einfach.“ Der „Guardian“ berichtet, dass den Mitarbeitern in den meisten Fällen „nur zehn Sekunden“ bleiben, um eine Entscheidung zu treffen.