Navigation öffnen
Startseite » News » Internetrecht » Gesetz gegen Hass und Hetze in Social Media: Neues zum NetzDG
Gesetz gegen Hass und Hetze in Social Media :

Neues zum NetzDG

Hasskommentare und Hetze überfluten seit Langem insbesondere soziale Medien. Doch die Netzwerke haben bis 2017 noch unzureichend gelöscht. Um Facebook & Co. zu einer zügigeren und umfassenderen Bearbeitung von Beschwerden über Hasskriminalität anzuhalten, gilt in Deutschland seit dem 1.1.2018 das Netzwerkdurchsetzungsgesetz (NetzDG). Was steht in dem Gesetz? Wie kann man Beiträge melden? Und was gibt es für neue Entwicklungen?

Facebook App © 2nix – Fotolia.com
Facebook App © 2nix – Fotolia.com

Sei dem 1. Januar ist es in Kraft: Das umstrittene Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, auch Netzwerkdurchsetzungsgesetz (NetzDG) genannt.

[Update 31.10.2019]:

Bundesregierung beschließt Maßnahmenpaket gegen Rechtsextremismus und Hasskriminalität

Hass, Rechtsextremismus, Antisemitismus und andere Formen gruppenbezogener Menschenfeindlichkeit haben keinen Platz in Deutschland, schreibt die Bundesregierung in einer aktuellen Meldung. Es ist eine Reaktion auf den antisemitischen, rassistischen Anschlag in Halle. Sie sei daher fest entschlossen, unsere freiheitliche Demokratie dagegen zu verteidigen. Dazu habe das Bundeskabinett ein umfassendes Maßnahmenpaket beschlossen, das auf einem gemeinsamen Entwurf von Bundesinnenministerium und Bundesjustizministerium basiert.

Ein Teil davon ist eine geplante Meldepflicht bei Hasskriminalität im Netz, die im Netzwerkdurchsetzungsgesetz festgeschrieben werden soll. Betreiber von Online-Plattformen sollen strafrechtlich relevante Beiträge wie Morddrohungen oder volksverhetzende Inhalte künftig zentral melden müssen. Dazu soll eine spezielle Zentralstelle im Bundeskriminalamt eingerichtet werden, damit diese Meldungen auch verfolgt werden können. Dabei sollen die Provider dazu verpflichtet werden, auch die IP-Adressen der Absender solcher Postings zu übermitteln. Zudem soll eine Auskunftsbefugnis gegenüber den Anbietern geschaffen werden, damit die dort noch vorhandenen Daten zu strafrechtlich relevanter Hasskriminalität herausverlangt werden können.

Bislang verpflichtete das NetzDG die Anbieter lediglich dazu, die möglicherweisen strafbaren Postings selbst zu kontrollieren. Eine Weitergabe an die Strafverfolgungsbehörden war bislang nicht vorgesehen.

[Update Ende]:

Bereits vor der Verabschiedung des Gesetzes am 30. Juni 2017 hatte es viel Hin und Her gegeben. Trotz einiger Entschärfungen bestehen Kritiker weiterhin auf ihren Bedenken, das Netzwerk werde zukünftig voreilig löschen und die Meinungsfreiheit werde beschnitten.

Ob diese Kritik berechtigt ist, erforschen wir in diesem Artikel.

Medienrechtsanwalt Christian Solmecke zu dem Gesetz:

„In der Sache ist das Gesetz sinnvoll. Denn Facebook und Co. haben sich selbst mit dem Löschen von klar illegalen Inhalten zuvor schwer getan. Darüber hinaus fehlte es zuvor oft schon an einem inländischen Ansprechpartner, so dass Prozesse gegen die Sozialen Netze mühsam und teuer waren. Das hat sich mit dem neuen Gesetz geändert. Die Gefahr einer Zensur oder des so genannten Overblockings sehe ich im Übrigen nicht. Die Vergangenheit hat gezeigt, dass die großen Internetkonzerne nur sehr zurückhaltend löschen. Auch nach dem EuGH-Urteil gegen Google, mit dem ein „Recht auf Vergessenwerden“ geschaffen worden ist, haben viele eine vorbeugende Zensur durch den Internetriesen befürchtet. Es kam jedoch anders. Google löscht nach unseren Beobachtungen nicht einmal jede zweite Meldung und lässt sich oft lieber auf teure Prozesse ein, als im Einzelfall nachzugeben. Ein solches Gesetz war dennoch längst überfällig und absolut notwendig, um die mangelnde Rechtsdurchsetzung gegenüber ausländischen Plattformen zu verbessern. Jedoch hat es der Gesetzgeber an einigen Stellen trotz bereits erfolgter Nachbesserungen versäumt, wichtige Punkte klarer zu formulieren:

  • Das größte Manko: Das Gesetz enthält keine neuen Möglichkeiten für die Nutzer sozialer Netze, bei Straftaten oder anderen rechtswidrigen Inhalten von den Plattformen selbst Löschung zu verlangen. 
  • Immerhin gibt das Gesetz nun betroffenen Bürgern in Ausnahmefällen aber eigene Auskunftsansprüche gegenüber den Plattformen über Hetzer. Diese können dann in Anspruch genommen werden. Diese Änderung des § 14 Abs. 3 Telemediengesetz wurde erst später eingefügt und in der finalen Version noch einmal eingeschränkt. Wenn Persönlichkeitsrechte auf der Plattform schwerwiegend verletzt werden, können Betroffene die Anbieter zwingen, ihnen die Nutzerdaten der Person herauszugeben, die ihn etwa beleidigt hat. Inzwischen steht dieses Auskunftsersuchen allerdings unter einem Richtervorbehalt. Und dieser muss sich auch mit dem Kontext der Äußerung und eventuellen Rechtfertigungsgründen auseinandersetzen. Schließlich bleiben Zweifel, ob die Auskunft dem Betroffenen viel nützt: Denn Facebook muss nur etwa das Pseudonym herausgeben – nicht aber die IP-Adresse, um den Internetanschluss desjenigen identifizieren zu können.
  • Insgesamt soll mit dem Gesetz erreicht werden, dass bereits jetzt bestehendes Recht besser umgesetzt werden kann. Hält sich also beispielsweise Facebook nicht an die neuen Regelungen, kann nicht etwa der Nutzer klagen. Vielmehr müsste der Nutzer das nicht erfolgte Handeln an die zuständige Aufsichtsbehörde (Bundesamt für Justiz) melden, die sich dann selbst überlegen kann, ob sie tätig wird oder nicht. Das Bundesamt für Justiz hat rund 40 neue Stellen eingeplant, die die Beschwerden über untätige soziale Netze abarbeiten sollen. Ein hoffnungsloses Unterfangen, welches angesichts von 500.000 an Facebook gemeldeten (und oft eben nicht gelöschten) Hasspostings, in Chaos und Untätigkeit seitens der Behörden enden wird.

Was ist überhaupt ein „soziales Netzwerk“?

Nimmt man sich die einzelnen Normen des neuen Gesetzes zur Brust, so gehen die Probleme bereits beim ersten der sechs geplanten Paragraphen los. Unklar ist schon die Definition des „sozialen Netzwerks“. Danach sind mit Gewinnerzielungsabsicht betriebene Telemediendienstanbieter erfasst, die Plattformen im Internet betreiben, die es Nutzern ermöglichen, beliebige Inhalte mit anderen Nutzern auszutauschen, zu teilen oder der Öffentlichkeit zugänglich zu machen (vgl. § 1 Abs. 1 NetzDG). Anbieter mit weniger als zwei Millionen registrierten Nutzern in Deutschland sollen ausgeschlossen sein. Die Tatsache, dass die Nutzer, die zählen, registriert sein müssen, ist nun wieder in der finalen Version vorhanden.

Nicht unter die Regelung fallen nun ausdrücklich Dienste für „Individualkommunikation“ und „spezifische“ Kommunikation. Darunter fallen etwa Messenger-Dienste wie Skype und WhatsApp. Diese Änderung war erst in der finalen Version hinzugekommen.

Unklar ist, wie die Plattformen die inländischen Nutzer ermitteln wollen. Denn die Registrierung erfolgt in der Regel anonym, ein Wohnsitz muss nicht zwingend angegeben werden. Die Gesetzesbegründung schlägt vor, den Inlandsbezug über die IP-Adresse bei der Registrierung zu ermitteln, im eigentlichen Gesetzestext findet sich dazu jedoch nichts.

Gesetz gilt nicht für alle Straftaten

Auffällig ist auch die Definition des Begriffs „rechtswidrig“ in § 1 Abs. 3 NetzDG. Denn das neue Gesetz gilt keineswegs für die Meldung von Straftaten aller Art. Vielmehr sind es nur sehr ausgewählte Straftaten wie Volksverhetzung, Beschimpfung von Religionsgemeinschaften, Beleidigungen und üble Nachrede, bei denen Facebook & Co. Bericht erstatten und unverzüglich handeln müssen. Seit einer neueren Version sind nun zusätzlich Straftaten im Zusammenhang mit kriminellen und terroristischen Vereinigungen erfasst sowie Vorbereitungen schwerer staatsgefährdender Straftaten, landesverräterischer Fälschung oder verschiedene Straftaten betreffend die Kinderpornografie und Gewaltdarstellung. In der finalen Version entfernt wurden Straftaten wie die „verfassungsfeindliche Verunglimpfung von Verfassungsorganen“. Und das Zugänglichmachen von Pornografie wird nur noch im Zusammenhang mit Kinderpornografie erfasst. Hinzugekommen ist in der finalen Version noch der § 201a StGB – die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen. Die Auswahl erscheint etwas willkürlich.

Umsetzung der Löschfrist unklar

In § 2 NetzDG wird eine Berichtspflicht etabliert, wie mit Beschwerden über rechtswidrige Inhalte umgegangen wird. In § 3 NetzDG werden dann bestimmte Pflichten im Umgang mit Beschwerden über Inhalte definiert. Vor allem müssen soziale Netzwerke ein „wirksames und transparentes Verfahren“ für den Umgang mit Beschwerden über rechtswidrige Inhalte vorhalten.

Schon jetzt ist es übrigens so, dass soziale Netzwerke sämtliche rechtsverletzende Inhalte unverzüglich nach Kenntnis löschen müssen. Ein konkreter zeitlicher Rahmen für die Löschung war rechtlich bislang nicht festgesetzt.

Nach § 3 des Gesetzentwurfs würden Anbieter wie Facebook jedoch künftig verpflichtet, offensichtlich illegale Inhalte innerhalb von 24 Stunden nach Erhalt einer Beschwerde zu löschen. Diese kurze Frist war vielfach kritisiert worden – doch bis zuletzt wurde daran festgehalten. Im Einzelnen soll aber noch konkretisiert werden, welche Straftatbestände unter diese sehr kurze Frist fallen sollen. Bislang wurde nur bekannt, dass dies z.B. für Inhalte wie klare Volksverhetzungen oder die Leugnung des Holocausts gelten soll.

Bei Inhalten, die eine intensivere Abwägung oder auch inhaltliche Aufklärung benötigen, räumt man Unternehmen grundsätzlich 7 Tage für eine Löschung ein. Gegen diese Frist war vorgebracht worden, dass es insbesondere bei Beleidigungen oder übler Nachrede schwierig ist, in dieser Zeit den kompletten Sachverhalt aufzuklären. Hier muss in der Regel immer der Verfasser eines Postings zum konkreten Kontext seiner Äußerung befragt werden. Dieser Kritik ist die Koalition nun gefolgt und hat zwei Ausnahmen in dieser Frist vorgesehen: Die erste sieht vor, dass sie überschritten werden kann, wenn die Entscheidung von zu ermittelnden Tatsachen abhängt. Die zweite Ausnahme betrifft ein völlig neu eingeführtes Verfahren: die sog. regulierte Selbstregulierung.

Regulierte Selbstregulierung – Plattformen können delegieren

Zusätzlich führt die finale Version nun auch eine „regulierte Selbstregulierung“ in das NetzDG ein. So sollen Plattformbetreiber in rechtlich schwierigen Fällen nicht immer selbst über Löschungen entscheiden müssen. Für die Entscheidung über die Delegation hat Facebook 7 Tage Zeit. Dann können Beschwerden auch an neue anerkannte, gemeinsame Einrichtungen abgeben werden. Diese unterliegen dann nicht der 7-Tage-Frist.

Es muss sich um eine Einrichtung mit anderen Plattformen handeln, die sich an Vorgaben halten und Informationen über ihre Arbeit veröffentlichen muss. Dabei orientiert man sich an dem Vorbild des Jugendmedienschutzes. Die Einrichtungen müssen hohen Anforderungen genügen: Es muss u.a. eine Verfahrensordnung und eine Beschwerdestelle existieren. Das Bundesamt für Justiz soll die Arbeit der Stellen schließlich überprüfen und Vorgaben machen sowie Sanktionen verhängen können. Externe, private Dienstleister wie die, derer sich Facebook derzeit bedient, kommen damit nicht mehr in Betracht.

Unternehmen müssen doch nicht selbst aktiv nach Kopien suchen

Eine wichtige Änderung im Vergleich zu den Vorgängerversionen findet sich in § 3 des NetzDG: So war ursprünglich vorgesehen, dass Anbieter des sozialen Netzwerks künftig verpflichtet werden sollten, sämtliche auf den Plattformen befindliche Kopien  des  illegalen Inhalts ebenfalls unverzüglich zu entfernen oder zu sperren. dieser Passus wurde in der finalen Version nun aber gestrichen.

Laut eigenen Angaben hätte sich die Situation für Facebook damit dramatisch geändert und vor technische wie personelle Herausforderungen gestellt. Auch hinsichtlich der praktischen Umsetzbarkeit gab es Zweifel: Was gilt überhaupt als „Kopie“ des Beitrags? Wie sieht es aus, wenn der rechtswidrige Beitrag in einem neuen Kontext verwendet wird? Muss man die Beitragskopien nur in einem Land oder weltweit löschen?

Nun aber bleibt es bei der jetzigen Rechtslage: Unternehmen müssen nicht selbst aktiv nach Kopien von verbreiteten rechtswidrigen Inhalten suchen. Stattdessen mussten Betroffene das selbst vornehmen und alle betreffenden Inhalte einzeln dem Unternehmen mitteilen.

Kein „Upload-Filter“

Seit einer Änderung des Entwurfs, die bis zur finalen Version beibehalten wurde, werden die sozialen Netzwerke auch nicht mehr verpflichtet, zusätzlich „wirksame Maßnahmen gegen die erneute Speicherung des rechtswidrigen Inhalts“ zu treffen. Facebook & Co. muss also keinen Vorab-Filter mehr installieren, um alle Inhalte zu finden und zu löschen, die schon einmal aus rechtlichen Gründen gelöscht wurden. Dies hätte zu technischen Schwierigkeiten geführt – außerdem hatten manche den Vorwurf einer Vorab-Zensur erhoben. Facebook muss weiterhin nur die bereits verbreiteten Kopien eines gemeldeten rechtswidrigen Eintrags löschen oder blockieren.

Hoher organisatorischer Aufwand für Bußgeld notwendig

Die neuen Pflichten werden dann in § 4 Abs. 1 NetzDG durch einen Katalog von Bußgeld-Tatbeständen ergänzt. Diese erklären aber lediglich einen Teil der Verstöße gegen die Anforderungen an das Beschwerdemanagement zu Ordnungswidrigkeiten – und dies auch noch unter Einschränkungen.

Nach § 4 Abs. 1 Nr. 2 NetzDG kann nur systemisches Versagen eines Sozialen Netzwerks verfolgt werden. Ordnungswidrig handelt danach, wer das Verfahren für den Umgang mit Beschwerden nach § 3 nicht, nicht richtig oder nicht vollständig vorhält.

Darüber hinaus sieht § 4 Abs. 5 NetzDG vor, dass die Behörden ihre Entscheidungen über einen Bußgeldbescheid nur dann auf nicht rechtzeitig entfernte oder gesperrte rechtswidrige Inhalte stützen dürfen, wenn sie vorab eine gerichtliche Entscheidung über die Rechtswidrigkeit dieser Inhalte herbeiführen. Zuvor müssen sie dem betreffenden sozialen Netzwerk Gelegenheit zur Stellungnahme geben. In der Praxis bedeutet das, dass ein Bußgeldbescheid mehrere gerichtliche Entscheidungen voraussetzt, die feststellen, dass das Unternehmen rechtswidrige Inhalte nicht gelöscht hat. Hieraus muss die Behörde begründen, dass also ein systemisches Versagen vorliegt. Erst dann kann tatsächlich ein Bußgeldbescheid ergehen.

In dem aktuellsten Entwurf, den das Kabinett beschlossen hat, wird auch noch deutlicher klargestellt, dass es nicht um die Verfolgung von Einzelfällen gehen soll, sondern darum, ob Facebook & Co. ein insgesamt funktionierendes Löschsystem aufbauen. So ist der Tatbestand für Bußgelder „in der Regel nicht bereits durch einen einmaligen Verstoß“ gegen die Löschpflicht erfüllt, heißt es in der aktuellsten Version des Textes – die Vorgängerversion hatte zumindest diese Möglichkeit noch vorgesehen. Denn aus einem einmaligen Verstoß könne man noch nicht darauf schließen, dass das gesamte System nicht funktioniert. Zum Schutz der Meinungsfreiheit sei ein behutsames Vorgehen der Bußgeldbehörde angezeigt, wenn das Soziale Netzwerk einen illegalen Inhalt als nicht rechtswidrig einschätzt. Auch soll kein Bußgeldverfahren eingeleitet werden, wenn die Plattform den Wahrheitsgehalt einer Äußerung nicht innerhalb der Frist klären konnte.

Inländischer Zustellungsbevollmächtige muss öffentlich benannt sein

Sehr begrüßenswert ist hingegen, dass nunmehr seitens Facebook & Co. in § 5 NetzDG ein inländischer Zustellungsbevollmächtigter genannt werden muss. Ursprünglich war vorgesehen, dass die Nennung dieser Person in Zivilprozessen nur erfolgen sollte, wenn das zuständige Gericht anfragt. Bereits nach dem ersten Entwurf habe ich die Ansicht vertreten, dass es besser gewesen wäre, wenn die sozialen Netzwerke den Bevollmächtigten schon auf ihrer Webseite nennen müssten. Der finale Gesetzentwurf enthält nun genau eine solche Regelung. Soziale Netzwerke müssen auf ihrer Plattform in leicht erkennbarer und unmittelbar erreichbarer Weise auf ihn aufmerksam zu machen.

Zweck dieser Regelung ist es primär, den Betroffenen leichter zu ermöglichen, direkt gegen die Urheber rechtsverletzender Aussagen vorgehen zu können. Neben zivilrechtlichen Unterlassungsklagen sollen auch Auskunftsersuchen der Strafverfolgungsbehörden leichter zustellbar sein.

Neu ist im finalen Entwurf auch eine Frist, die besagt, dass der Zustellungsbevollmächtigte binnen 48 Stunden Auskunft erteilen muss, wenn sich Behörden wegen illegaler Inhalte auf der Plattform bei ihm melden.

Betroffene müssten dank der Änderungen im letzten Entwurf nicht mehr langwierige Verfahren in Kauf nehmen, um überhaupt die Zustellung der Klage zu erreichen.

Fazit

Insgesamt lässt sich sagen, dass ein Gesetzentwurf ohne Frage überfällig war und absolut wünschenswert ist, um die mangelnde Rechtsdurchsetzung gegenüber ausländischen Plattformen zu verbessern. Jedoch hat es der Gesetzgeber an einigen Stellen versäumt, wichtige Punkte klarer zu formulieren.“

Information: Dieser Artikel wurde bereits 2017 veröffentlicht und ist seitdem mehrfach aktualisiert worden.


Anleitung zur Meldung bei Facebook und Twitter

Damit Nutzer mutmaßlich rechtswidrige Inhalte melden können, haben unter anderem Facebook und Twitter entsprechende Funktionen bereitgestellt.

Bei Facebook läuft das folgendermaßen ab:

1. Auf der Startseite klickt man in der rechten Spalte ganz unten im grauen Bereich hinter dem Link „Cookies“ auf „Mehr“

2. Es öffnet sich ein Menu – dort auf „Hilfe“ klicken

3. Oben auf der neuen Seite gibt es den Reiter „Richtlinien und Meldungen“ – dort klicken

4. Dann den Eintrag „Netzwerkdurchsetzungsgesetz „NetzDG“ auswählen

5. Auf der folgenden Seite tauchen Infos zum Thema NetzDG auf, wie etwa die Abgrenzung einer Meldung nach dem NetzDG und nach den Gemeinschaftsstandards. Da steht:

Bitte füllen Sie dieses Formular aus, um Inhalte auf Facebook zu melden, die nach Ihrer Ansicht rechtswidrig nach dem deutschen Netzwerkdurchsetzungsgesetz („NetzDG“) sind. Bitte beachten Sie, dass dieses Formular nur für Meldungen zu verwenden ist, die sich auf Verstöße gegen bestimmte im NetzDG aufgeführte Paragraphen des deutschen Strafgesetzbuches beziehen. Behauptungen einer strafrechtswidrigen Tat stellen eine ernste Angelegenheit dar. Ziehen Sie ggf. einen Rechtsanwalt hinzu. / Bitte beachten Sie, dass Inhalte, die gemäß dem deutschen Strafgesetzbuch rechtswidrig sind, möglicherweise auch gegen die Gemeinschaftsstandards von Facebook verstoßen. Um Inhalte wegen Verstoßes gegen die Gemeinschaftsstandards zu melden und nicht wegen Rechtswidrigkeit gemäß NetzDG, verwenden Sie bitte den „Melden“-Link, der in dem Dropdown-Menü neben dem jeweiligen Inhalt angezeigt wird. Weitere Informationen zu unseren Gemeinschaftsstandards finden Sie im Hilfebereich.“

6. Hat man sich hier informiert, klickt man auf „Meldung einreichen“.

7. Anschließend erreicht man das NetzDG-Meldeformular, wo man Schritt für Schritt durch die erforderlichen Angaben geführt geführt wird. U.a. muss man als Nutzer auswählen, um welchen der mehr als 20 möglichen Tatbestände es geht.

Dieser komplizierte Meldemechanismus führte vermutlich dazu, dass nur wenige Menschen diese Möglichkeit genutzt haben. Das Bundesamt für Justiz hat deswegen Mitte 2019 ein Bußgeld von 2 Mio. Euro gegen Facebook verhängt. Es geht davon aus, dass die Anzahl der Beschwerden über rechtswidrige Inhalte im veröffentlichten Bericht unvollständig sei. Facebook hat dagegen Widerspruch eingelegt.

Bei Twitter ist es viel leichter

Dort kann man bei jedem fremden Tweet rechts oben auf „Tweet melden“ klicken und anschließend den Punkt „Fällt unter das Netzwerkdurchsetzungsgesetz“ wählen.

Hier erfahren Sie, welche Möglichkeiten Ihnen noch zur Verfügung stehen, wenn Sie Beiträge aus Social Media löschen möchten.

cso/tsp/ahe