Internetrecht

Facebook-Leak – „The Guardian“ veröffentlicht interne Löschkriterien

Interne Dokumente enthüllen erstmals die komplexen Kriterien, nach denen Facebook-Moderatoren Inhalte löschen sollen. Erlaubt sind gemalte Nackte, nicht aber fotografierte – es sei denn, es handelt sich um Kriegsfotos. Live-Streams von Suizidversuchen können erlaubt sein, ebenso Bilder von Gewalt an Kindern. Und oft bleiben den Mitarbeitern nur zehn Sekunden, um über einen solchen Inhalt zu entscheiden.

Ein unbekannter Facebook-Insider hat der britischen Zeitung „Guardian“ Dokumente zugespielt, aus denen hervorgeht, nach welchen Kriterien Facebook Inhalte löscht. Aller Wahrscheinlichkeit nach sind die Dokumente echt.

Die geleakten Dokumente umfassen über 100 interne Schulungshandbücher, Tabellen und Flussdiagramme. Sie sind komplex und beinhalten auf tausenden Seiten detaillierte Regeln, wie Facebook-Moderatoren bei Nutzer-Meldungen von Inhalten vorgehen müssen. Die Mitarbeiter sollen lernen, wann sie Inhalte schlicht ignorieren dürfen, sperren müssen oder sogar verpflichtet sind, die Strafverfolgungsbehörden einzuschalten.

Ein Versagen droht jedoch aus rein praktischer Sicht. Facebook-Moderatoren müssen oft innerhalb von weniger als zehn Sekunden über so sensible Themen wie Gewaltdarstellung, Hasskommentare, Mobbing, Terrorismus, Pornografie, Rassismus, Selbstverletzung, Kindesmissbrauch oder Tierquälerei Entscheidungen treffen, ohne juristisches Fachwissen zu besitzen.

Wie wägt nun das größte soziale Netzwerk der Welt diese sensiblen Themen mit der Meinungsfreiheit ab – zumindest in der Theorie? Die Unterlagen sagen: Im Zweifel überwiegt die Meinungsfreiheit. Doch es gibt explizite Ausnahmen und schwer durchschaubare Grauzonen.

Nacktheit und Sex

Facebook hat offensichtlich seine Regeln bezüglich Nacktfotos geändert, nachdem es letztes Jahr zu massiver Kritik wegen der Löschung des Fotos einer nackten Vietnamesin im Kontext des Vietnamkrieges gab. Nun sind für Bilder, die einen hohen informatorischen Wert haben, Krieg oder den Holocaust thematisieren, erlaubt. Man wolle, dass Menschen globale Situationen diskutieren und in diesem Kontext auch entsprechende Bilder nutzen können.

Facebook ist ansonsten weiterhin besonders streng in Bezug auf Nacktbilder und Sexfotos: Fotos von sexueller Aktivität sind verboten – auch, wenn es sich um künstlerische Fotografien handelt.

Ein gemaltes Bild und jede „handgemachte“ Kunst, die Nacktheit oder sexuelle Aktivität zeigt, ist hingegen erlaubt.

Sogar Abtreibungsvideos sind in Ordnung – solange sie keine Nacktheit beinhalten.

Laut Aussage der Mitarbeiter seien die Regeln betreffend sexuelle Inhalte und Nacktheit insgesamt aber so komplex, dass Mitarbeiter teils verwirrt wären und nicht wüssten, wie die Regeln anzuwenden sind.

Drohungen und Gewaltdarstellungen

Geheimer Facebook-Informant © Sergey Nivens - Fotolia.com

Geheimer Facebook-Informant © Sergey Nivens – Fotolia.com

Gewaltdrohungen sind nur zu löschen, wenn sie tatsächlich „glaubwürdig“ seien – denn Menschen würden gewaltvolle Sprache auch nutzen, um ihre Frustration auszudrücken und würden sich auf der Seite sicher fühlen. “Someone shoot Trump” sollte daher zwar gelöscht werden, weil der Präsident besonders geschützt werden müsse. Andererseits war es erlaubt, “Anleitungen” zum Erwürgen einer Frau zu publizieren – weil diese Todesdrohung nicht glaubwürdig sei.

 

Videos gewaltsamer Tode sollen nur vor Minderjährigen versteckt werden, aber nicht automatisch gelöscht werden. Die Videos könnten helfen, ein Bewusstsein etwa für Kriegsverbrechen oder für psychische Krankheiten zu schaffen.

Nicht sexuelle Fotos von Kindesmissbrauch oder Kindesmisshandlung sind hingegen meist stehenzulassen – außer, das Video enthalte sadistische oder gewaltverherrlichende Elemente.

Gewalt an Tieren darf ebenfalls geteilt werden – allerdings sollten extrem aufwühlende Inhalte als “disturbing” markiert werden. Auch hier die Grenze bei sadistischen oder gewaltverherrlichenden Elementen.

Selbstverletzendes Verhalten

Live Suizid-Versuche sieht Facebook primär als Hilfeschrei. Das Netzwerk möchte daher seinen Nutzern auch in Zukunft erlauben, solche Inhalte live zu streamen. Nur dann, wenn Betroffene sich ausdrücken können, kann ihnen geholfen werden. Entsprechendes Material soll nur dann entfernt werden, sofern es keinerlei Möglichkeiten mehr gibt, den Personen zu helfen.

Selbstverletzende Verhaltensweisen und Themen wie Magersucht sind nur dann zu löschen, wenn sie andere Facebook-Nutzer zur Nachahmung animieren könnten. Bilder von magersüchtigen Teenagern sollen danach gelöscht werden, wenn das Bild mit einem Beitrag zur Aufforderung, Anleitung oder Hilfestellung zu selbstschädigen Verhalten versehen ist und andere Nutzer animiert, Gleiches zu tun.

Facebook betont, dass die Vorgaben in Zusammenarbeit mit Experten entwickelt worden seien, die ausdrücklich zu einem derartigen Vorgehen für die Sicherheit der Betroffenen raten würden.

Facebook will mehr Kontrolleure anstellen

Dieses komplexe Regelwerk halten Facebook-Mitarbeiter offensichtlich für verwirrend. Darüber hinaus ist es in der Praxis offensichtlich schwer anzuwenden, da die Mitarbeiter lediglich zehn Sekunden Zeit hätten, um über die Löschung von Inhalten zu entscheiden. Richter brauchen für entsprechende Fälle Monate – und sie sind ausgebildete Juristen.

Die Quelle der Leaks sieht auch, dass Facebook offensichtlich überfordert ist. Das Netzwerk könnte den Inhalt nicht mehr kontrollieren – es sei zu schnell zu groß geworden.

Facebook selbst kündigte zumindest Anfang Mai an, mehr Facebook-Kontrolleure anzustellen und damit die Anzahl von 4500 auf 7500 Kontrolleure zu erhöhen. Das Mordvideo auf Facebook, das viel zu lange im Netz zu sehen war, und die Zunahme der Hasskommentare haben sicherlich zu dieser Entscheidung beigetragen.

Wer diese Mitarbeiter sind, wurde nicht klar. Allerdings ist davon auszugehen, dass es sich um externe Hilfskräfte bei dem externen Dienstleister „Arvato“. Dessen Angestellte prüfen im Auftrag von Facebook Inhalte und löschen sie gegebenenfalls. Mitarbeiter klagen über schlechte Arbeitsbedingungen, zu schlechten Lohn und zu wenig psychologische Betreuung. Die neu veröffentlichen Dokumente zeigen, dass externe Dienstleister die Posts nur bis zu einer gewissen „Eskalationsstufe“ bearbeiten und dann Facebook die weitere Arbeit übernimmt.

Fazit

Die Dokumente legen offen, dass Facebook sich durchaus bemüht, die verschiedenen Interessen in Ausgleich zu bringen, jedoch häufig in der Praxis scheitert. Zumindest mehr Transparenz ist durch die Veröffentlichung der Löschkriterien geschaffen.

Die Enthüllungsdokumente erscheinen kurz nachdem Bundesjustiziminister Heiko Maas und auch andere Politiker mit dem Entwurf des NetzDG angekündigt haben, sozialen Netzwerken hohe Geldbußen aufzuerlegen, sofern rechtwidrige Inhalte nicht gelöscht werden. Maas hält die derzeitige Löschpraxis von Facebook jedenfalls für unzureichend.

ahe/nsa


In diesem Zusammenhang ist sicherlich auch folgendes Video für Sie interessant.

Weitere aktuelle und spannende Videos rund ums Recht finden Sie auf unserem YouTube-Channel unter: https://www.youtube.com/user/KanzleiWBS

Werden Sie Abonnent unseres YouTube-Kanals. So bleiben Sie immer auf dem neuesten Stand zu wichtigen und aktuellen Rechtsthemen.

Christian Solmecke ist Partner der Kanzlei WILDE BEUGER SOLMECKE und inbesondere in den Bereichen des IT-, des Medien- und des Internetrechts tätig. Darüber hinaus ist er Autor zahlreicher juristischer Fachveröffentlichungen in diesen Bereichen.

Gefällt Ihnen der Artikel? Bewerten Sie ihn jetzt:

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (1 Bewertungen, Durchschnitt: 5,00 von 5)

RSSKommentare (0)

Kommentar schreiben

Kommentar schreiben

Mit dem Absenden des Kommentars erklären Sie sich mit den Datenschutzbestimmungen einverstanden.