Anhörung zum NetzDG – Stellungnahme des ichbinhier e.V.

Mai 15, 2019/0/0

Öffentliche Anhörung vor dem Ausschuss  für Recht und Verbraucherschutz am 15. Mai 2019;

hier: Stellungnahme zu den Oppositionsanträgen betreffend

das NetzDG, Drucksachen 19/81, 19/204, 19/218 und 19/5950

Sehr geehrte Damen und Herren,

ich bedanke mich für die Gelegenheit, hier in der Debatte für und wider das NetzDG Stellung nehmen zu dürfen.

Der Verein ichbinhier e.V. betreibt Aufklärungs- und Bildungsarbeit zum Thema Diskussionskultur in den sozialen Medien. In diesem Zusammenhang habe ich seit etwa zweieinhalb Jahren die Kommentarspalten auf Facebook, speziell dort auf den großen Medienseiten mit mehr als 100.000 Abonnenten, praktisch täglich im Blick. Als Mitglied einer knapp 45.000 Nutzer großen Facebookgruppe, die in diesen Kommentarspalten gemeinsam Gegenrede betreibt, um zu einem respektvolleren und sachlicheren Ton in der Debatte beizutragen, bin ich, wie auch andere in meinem Umfeld, im Zweifel Adressatin von Hassrede, nicht Urheberin. Ich sehe mich hier deshalb als Vertreterin der Zivilgesellschaft, im Besonderen der Nutzer sozialer Medien, und möchte mein Augenmerk vor allem darauf richten, was aus Nutzersicht für und gegen das NetzDG spricht und wie das Gesetz sich in der Praxis auswirkt. Berufsbedingt habe ich jedoch immer auch einen juristischen Blick auf die Angelegenheit.

“Als Nutzerin sozialer Netzwerke, die vor allem die Perspektive der Betroffenen von Hassrede einnimmt, befürworte ich den Ansatz des NetzDG. Hass und Hetze greifen in den sozialen Netzwerken verstärkt um sich, wenn dort ungestört Straftaten begangen werden können und die Netzwerkbetreiber dies sehenden Auges zulassen.”Sonja Boddin

I. Ausgangslage:

Mit den sozialen Medien wurde etwas geschaffen, was es früher in dieser Form nicht gab: ein Forum, in dem jeder Mensch mit Internetzugang binnen kürzester Zeit, mühelos und mit unübersehbar großer Reichweite seine Meinung kundtun kann – und damit auch eine Plattform für alle denkbaren politischen und gesellschaftlichen Debatten, wesentlich größer, als es die Stammtische und Marktplätze dieser Welt je sein konnten. Dies birgt zunächst einmal ein großes Versprechen.

Nun sieht die Realität allerdings leider so aus, dass eine Minderheit der Nutzer sozialer Medien überaus aktiv, nicht selten unter Einsatz etlicher Accounts, dort für einen ausgesprochen rauen Ton sorgt, indem sie andere Personen oder ganze Bevölkerungsgruppen herabwürdigt und Andersdenkende verhöhnt. Die Mehrheit der Nutzer bleibt der Debatte in den sozialen Medien fern. Wo das Netz ein Ort für pluralistischen Meinungsaustausch sein könnte, tragen stattdessen organisierte Hass- und Desinformationskampagnen zu einem Klima der Feindseligkeit bei und schaffen ein hässliches Zerrbild unserer Gesellschaft. Dass aber Nutzer durch Beleidigungen und Bedrohungen aus dem Netz vertrieben werden, dass auf Facebook, Twitter oder YouTube der Holocaust geleugnet und zum Hass gegen Minderheiten aufgestachelt wird, das darf – darüber sind wir uns hoffentlich alle einig – nicht sein. „Das Netz ist kein rechtsfreier Raum.“, so heißt es immer wieder. Dieser Satz sollte nicht nur eine leere Phrase sein. Aber was bedeutet er konkret?

Erstens, dass ein Nutzer, der online rechtswidrige Inhalte verbreitet, dafür belangt werden kann, sei es im Rahmen von Strafverfolgung, sei es im Rahmen zivilrechtlicher Inanspruchnahme durch den Geschädigten. Denn was online geschieht, ist nicht weniger real als das, was offline passiert; mehr noch: Volksverhetzende Inhalte beispielsweise können im Netz wegen der größeren Reichweite auch größeren Schaden anrichten als auf der Straße.

Und zweitens, dass ein Dienstanbieter jedenfalls dann, wenn ihm solche rechtswidrigen Inhalte gemeldet wurden und er auf diese Weise von ihnen Kenntnis erlangt, eine Mitverantwortung dafür trägt, dass diese nicht noch weiteren Schaden anrichten können. So folgt es im Umkehrschluss aus § 10 Telemediengesetz (TMG), und so besagt es auch die Rechtsprechung der Obergerichte zur mittelbaren Störerhaftung. Der verantwortungsbewusste, die jeweilige nationale Rechtsordnung wahrende Umgang mit beanstandeten Inhalten sollte integraler Bestandteil des Geschäftsmodells sozialer Netzwerkbetreiber sein, das vorsieht, dass sich – auch in Deutschland – möglichst viele Nutzer möglichst lange auf ihrer Plattform aufhalten, dort Inhalte verbreiten und miteinander austauschen sollen.

Dass allerdings die Anbieter in der Vergangenheit bis Ende des Jahres 2017 – also bis zum Ende der Übergangsfrist nach § 6 Abs. 2 NetzDG – dieser Mitverantwortung gerecht geworden wären, konnten wir nicht beobachten. Auch Beiträge und Kommentare, die auf den ersten Blick Straftatbestände wie die der Beleidigung, der Volksverhetzung oder der Verwendung von Kennzeichen verfassungswidriger Organisationen erfüllten, blieben trotz Meldung stehen mit der Begründung, diese verstießen nicht gegen die Gemeinschaftsstandards. Das Vorgehen der Plattformbetreiber bei Beschwerden war nicht nachvollziehbar und für uns nicht akzeptabel.

Darum haben wir die Verabschiedung Netzwerkdurchsetzungsgesetzes (NetzDG) im September 2017 begrüßt. Respekt und Sachlichkeit lassen sich zwar nicht per Gesetz verordnen. Aber ich habe doch erwartet, dass zumindest strafrechtlich relevante Beiträge und Kommentare keine lange Lebensdauer mehr auf den Plattformen haben würden und sich dies zumindest mittelfristig günstig auf die Tonalität dort insgesamt auswirken würde.

Die erheblichen Bedenken, die gegen das NetzDG vorgebracht wurden, konnten wir nachvollziehen; geteilt haben wir sie jedoch nicht. Die Kritik beanstandet, durch das NetzDG werde die Meinungsäußerungsfreiheit beschnitten. Dabei knüpft sie wesentlich an die Gefahr des sogenannten Overblockings an, die daraus resultieren könnte, dass die – bereits zuvor existenten – Löschpflichten nunmehr bußgeldbewehrt sind. Weiter bemängeln Kritiker, dass justizielle Aufgaben auf private Unternehmen verlagert würden. Hier setzen nun auch die drei vorgelegten Gesetzentwürfe an, die eine Aufhebung des gesamten NetzDG oder jedenfalls der Vorschriften zum Beschwerdemanagement vorsehen.

Zu der Kritik ist aus unserer Sicht zunächst einmal Folgendes zu sagen:

  • Das NetzDG selbst definiert oder verschiebt die Grenzen der Meinungsfreiheit nicht, sondern soll lediglich dazu beitragen, dass diese nicht überschritten werden. Äußerungen, die zuvor von Art. 5 Abs. 1 GG geschützt waren, sind dies weiterhin. Und rechtswidrige Äußerungen mussten auch zuvor von den Plattformbetreibern gelöscht werden.
  • Mit der Bekräftigung der Pflichten zu einem effektiven Beschwerdemanagement und zum Löschen rechtswidriger Inhalte durch die Konkretisierung im NetzDG wird keine justizielle Aufgabe auf ein privates Unternehmen verlagert. Die strafrechtliche Verfolgung bleibt Sache der Ermittlungsbehörden und der Strafgerichte, wie auch die Entscheidung über zivilrechtliche Beseitigungs-, Unterlassungs- und Schadensersatzpflichten weiterhin in der Hand der Zivilgerichte liegt. Lediglich die – eilbedürftige – Abwehr von Gefahren, nämlich andauernden Straftaten, soll durch die Regelungen in §§ 3 und 4 NetzDG sichergestellt werden.
  • Diesen Löschpflichten, die, wie ausgeführt, schon vor Inkrafttreten des NetzDG bestanden, durch die Schaffung neuer Bußgeldtatbestände Nachdruck zu verleihen, ist legitim und belastet die Netzwerkbetreiber nicht über Gebühr. Wünschenswert wäre es zwar gewesen, wenn es in Bezug auf die sozialen Medien der verschärften Form der staatlichen Regulierung durch Bußgeldandrohung nicht bedurft hätte. Die Erfahrung hat jedoch nach unserer Wahrnehmung gezeigt, dass die Netzwerkbetreiber ihrer Verantwortung in der Vergangenheit aus eigenem Antrieb nicht annähernd gerecht geworden sind. Ein Unternehmen, das sein Geld damit verdient, für jedermann eine Plattform zur Verfügung zu stellen, auf der Inhalte veröffentlicht werden können, sollte auch das Personal und das Knowhow vorrätig halten, um kurzfristig prüfen zu können, ob gemeldete Inhalte rechtmäßig sind oder nicht, und jedenfalls auf diese Weise sicherzustellen, dass auf seiner Plattform keine Straftaten begangen werden.
  • Es ist auch schwerlich einzusehen, dass ein Unternehmen wie Facebook mit seinem Geschäftsmodell im Jahr über 20 Milliarden US-Dollar Gewinn erzielt, aber Kosten, die daraus resultieren, dass dabei Gefahren für die öffentliche Sicherheit und Ordnung entstehen, von der Allgemeinheit zu tragen sind. Darum ist es angemessen, wenn die Dienstanbieter die Personal- und Schulungskosten auf sich nehmen müssen, die ein gutes Beschwerdemanagement mit sich bringt.
  • Die gesetzgeberische Entscheidung für eine Bußgeldbewehrtheit der Löschpflichten ist auch deshalb ein Schritt in die richtige Richtung, weil Hass und Hetze in den sozialen Netzwerken verstärkt um sich greifen, wenn selbst offensichtlich rechtswidrige Inhalte von den eingesetzten Content Managern nicht gelöscht werden. Dass ein Netzwerkbetreiber eine Äußerung, die aus gutem Grund im StGB unter Strafe gestellt ist, sehenden Auges und für unabsehbar lange Zeit einer unüberschaubar großen Öffentlichkeit zugänglich erhält, ist nicht hinnehmbar. Jeder Nutzer, der eine solche Äußerung lesen kann, ist einer zu viel. Wir sehen durch derartige Inhalte das verträgliche Miteinander insgesamt gefährdet.
  • Als problematisch eingestuft haben allerdings auch wir die Gefahr des Missbrauchs der Regelungen des NetzDG durch Nutzer der sozialen Medien, aber auch die Gefahr ihrer Umgehung durch die Netzwerkbetreiber. So können Netzwerkbetreiber geneigt sein, im Zweifel großzügig gemeldete Inhalte zu löschen, um einem Bußgeld zu entgehen (Overblocking). Und Nutzer können durch zahlreiches Melden rechtmäßiger Inhalte nach dem NetzDG eben diese Neigung der Betreiber ausnutzen und so gezielt gegen Andersdenkende vorgehen. Diesen Risiken trägt das NetzDG in seiner bisherigen Fassung nicht ausreichend Rechnung.

Wenn das Ziel sein soll, die sozialen Medien zu einem Ort des pluralistischen, konstruktiven Meinungsaustausches zu machen, dann darf es bei dem NetzDG nicht sein Bewenden haben. Es bedarf einer Vielzahl weiterer Maßnahmen. Neben effizienter Strafverfolgung und der Erleichterung der Durchsetzung zivilrechtlicher Ansprüche sind dies unter anderem Aufklärungs- und Bildungsmaßnahmen in Sachen Medien- und Diskurskompetenz und die fortdauernde Vermittlung demokratischer Grundwerte. Die Beeinflussung der öffentlichen Meinungsbildung durch nicht authentische Mehrfachaccounts und Social Bots ist in den Blick zu nehmen.

“Dass im Netz ungehindert der Holocaust geleugnet oder zum Hass gegen Minderheiten aufgestachelt werden kann, darf nicht sein. Jeder Nutzer, der eine solche Äußerung dort lesen kann, ist einer zu viel.”Sonja Boddin

II. Bestandsaufnahme

Offensichtlich rechtswidrige Inhalte liest man in den sozialen Medien nunmehr zwar vereinzelt immer noch, aber doch seltener. Hass- und Desinformationskampagnen finden jedoch weiterhin unvermindert statt, und insgesamt hat sich der Ton in den von uns beobachteten Kommentarspalten auf Facebook nicht spürbar verbessert, sondern eher hin zu unterschwelligeren Feindseligkeitsbekundungen verlagert, die strafrechtlich nicht relevant sind. Das größere Problem sehen wir nun in dem vielfältigen Einsatz von Social Bots und sogenannter Fake Accounts, die gezielt eingesetzt werden, um vermeintliche Mehrheiten vorzutäuschen, andere Nutzer einzuschüchtern und gruppenbezogene Menschenfeindlichkeit und Desinformation zu verbreiten.

Unbefriedigend ist aus Nutzersicht die weiterhin mangelnde Transparenz der Einzelfallentscheidungen der Plattformen, sei es für den Meldenden, sei es für den Gemeldeten.

Ein Overblocking nehmen wir eher nicht wahr. Es kommt vor, dass rechtmäßige Inhalte gelöscht werden. Dies war aber auch vor Januar 2018 der Fall. Zwar gab es Anfang 2018 einige prominente Beispiele, in denen Sperrungen vorgenommen wurden, weil beispielsweise zulässige Satire als solche nicht erkannt wurde. Zudem tut Facebook sich z.B. schwer mit Zitaten, was für die mangelnde Qualifikation von Content Managern oder für den Einsatz von Algorithmen zur Erkennung von Hassrede spricht. Auch sind mir Fälle bekanntgeworden, in denen eine schärfer vorgebrachte, aber zweifellos nicht rechtswidrige Kritik gelöscht wurde und zur Sperrung des Urhebers geführt hat. Eine nennenswerte Steigerung lässt sich aus unserer Sicht jedoch nicht feststellen. Auch scheinen diese Löschungen nicht, auch nicht mittelbar, auf das NetzDG zurückzuführen zu sein. Die ganz überwiegende Anzahl der Löschungen wird weiterhin mit einem Verstoß gegen die Gemeinschaftsstandards begründet. Dies gilt auch für jene Löschungen, die auf eine Meldung nach dem NetzDG hin erfolgen.

Soweit es Facebook im Besonderen betrifft, ist nicht auszuschließen, dass das NetzDG nicht doch weitergehende Effekte erzielen könnte, würde es denn korrekt angewendet werden. Nach unserem Dafürhalten umgeht Facebook die Regelungen des NetzDG, indem es nicht wie die anderen großen Plattformen die Möglichkeit der Meldung nach dem NetzDG auf dem gleichen Wege eröffnet wie die Meldung wegen Verstoßes gegen Gemeinschaftsstandards, sondern das Meldeformular bei Facebook derart gut versteckt, dass viele Nutzer nicht einmal wissen, dass es ein gesondertes Formular für Meldungen nach dem NetzDG gibt. Das Geschehen auf den anderen großen Plattformen verfolgen wir nur am Rande. Wir wissen jedoch, dass eine Meldung nach dem NetzDG auf Twitter oder YouTube ungleich einfacher ist, wenn auch Twitter den Nutzern abverlangt, den korrekten Paragraphen des StGB auszuwählen, was juristische Laien ebenfalls überfordern könnte.

Wie der Online-Diskurs in den sozialen Medien aussähe, wären gemeldete Inhalte nicht gelöscht worden, lässt sich naturgemäß nicht sagen. Den halbjährlich vorgelegten Transparenzberichten ist dies nur bedingt abzulesen.

Den Transparenzberichten von Facebook, YouTube und Twitter ist allerdings zu entnehmen, dass auf Beschwerden nach dem NetzDG nur der geringste Anteil von Inhalten gelöscht wird, wobei alle großen Plattformbetreiber jeweils zuerst prüfen lassen, ob die gemeldeten Posts gegen ihre Gemeinschaftsstandards verstoßen. Nur wenn dies verneint wird, wird im zweiten Schritt geprüft, ob ein Verstoß gegen einen der in § 1 Abs. 3 NetzDG genannten Straftatbestände vorliegt und der Post deshalb für Deutschland zu sperren ist. Entfernt wurden bei Twitter nach dem Transparenzbericht aus Januar 2019 gerade einmal 8 Prozent der gemeldeten Inhalte (bei 256.462 Beschwerden), bei YouTube etwa ein Fünftel (bei 250.957 Beschwerden) und bei Facebook 35 Prozent (bei 500 Beschwerden zu 1.048 Inhalten).

Die Transparenzberichte sind in ihrer Gestaltung und ihrem Informationsgehalt zwar deutlich unterschiedlich und auch wegen der je nach Plattform verschiedenen Meldewege nicht vergleichbar. Die vorstehend wiedergegebenen Angaben deuten aber auf Folgendes hin:

  • Den Nutzern fällt es schwer, die Rechtmäßigkeit von Inhalten im Anwendungsbereich des NetzDG zu beurteilen. Dies ist zu unserer Überzeugung unter anderem auf die Gestaltung der Meldeformulare zurückzuführen, die auszufüllen überspitzt gesagt ein abgeschlossenes juristisches Hochschulstudium voraussetzt. Für die Nutzer aus meinem Umfeld kann ich sagen, dass diese das Meldeformular bei Facebook tatsächlich überhaupt nicht nutzen.
  • Die Netzwerkbetreiber schauen bei Meldungen nach dem NetzDG genau hin und löschen nur zurückhaltend. Dies ist auf den ersten Blick positiv zu bewerten und spricht dagegen, dass ein Overblocking stattfindet.
  • Dabei scheint den Meldeformularen eine Filterfunktion zuzukommen: Je höher die Anforderungen an das Ausfüllen – und zuvor an das Auffinden – des Meldeformulars, desto größer ist die Wahrscheinlichkeit, dass die Meldung letztlich begründet ist und sich der Plattformbetreiber tatsächlich zum Löschen entschließt. Auch dies halten wir – bei aller Kritik an der mangelnden Nutzerfreundlichkeit – grundsätzlich für sinnvoll, weil es den Missbrauch der Meldemöglichkeit zu vermeiden hilft.

Nicht bekannt ist, welcher Anteil der Löschungen letztlich nicht nach den Gemeinschaftsstandards, sondern nach dem NetzDG erfolgt ist. Nur teilweise mitgeteilt wird, wie hoch die Löschquote bei Meldungen wegen Verstoßes gegen Gemeinschaftsstandards ist. Die Unzulänglichkeiten der Berichte und ihre Unterschiede werden eine Evaluation der Wirksamkeit des NetzDG erheblich erschweren.

Gleichwohl ist bei aller Kritik positiv anzumerken, dass die Pflichten zum Beschwerdemanagement und zur regelmäßigen Vorlage von Transparenzberichten wie auch insgesamt die Diskussion um das NetzDG zu einer erkennbar gesteigerten Sensibilität der Netzwerkbetreiber für die Themen Hassrede und Desinformation geführt haben und dass die Betreiber ihrer Verantwortung heute deutlich mehr nachkommen als noch vor zwei Jahren. Auch im Übrigen ist der Impuls, der von dem NetzDG für die Debatte über die Diskussionskultur in der digitalen Öffentlichkeit ausgeht, zu begrüßen.

Es ist auch schwerlich einzusehen, dass ein Unternehmen wie Facebook mit seinem Geschäftsmodell im Jahr über 20 Milliarden US-Dollar Gewinn erzielt, aber Kosten, die daraus resultieren, dass dabei Gefahren für die öffentliche Sicherheit und Ordnung entstehen, von der Allgemeinheit zu tragen sind.Sonja Boddin

III. Empfehlungen:

Wir sprechen uns in Anbetracht der bisherigen Erfahrungen mit der Umsetzung der Regelungen des NetzDG in die Praxis dafür aus, diese beizubehalten, jedoch nachzubessern:

1. Beschwerdemanagement
a) Einheitliche, nutzerfreundliche Meldewege:

Erarbeitet werden sollten verbindliche, einheitliche Mindeststandards für das Meldeverfahren nach dem NetzDG:

  • Das betreffende Meldeformular muss für die Nutzer leicht auffindbar sein und sollte dort verlinkt sein, wo auch die weiteren Meldemöglichkeiten aufgerufen werden können.
  • Sowohl eigenständige Inhalte als auch die Kommentare dazu sollten gemeldet werden können.
  • Zur Minimierung der Missbrauchsgefahr sollte den Meldenden eine substantiierte Begründung abverlangt werden, allerdings eine solche, die auch juristischen Laien möglich ist. Vorzuziehen wäre hier eine Abfrage der für die juristische Subsumtion erforderlichen Informationen in einfacher Sprache. Dabei sollte der meldende Nutzer sich die Mühe machen müssen, den Sachverhalt in eigenen Worten darzustellen. Eine reine Multiple-Choice-Abfrage ist zwar weitaus weniger aufwändig in der Bearbeitung, jedoch missbrauchsanfälliger.

b) Anhörungspflichten als Soll-, nicht als Kannvorschrift

Bislang werden in der Praxis der großen Netzwerkbetreiber die Urheber gemeldeter Inhalte erst dann über die Meldung informiert, wenn betreffende Kommentar entfernt wurde. Nur in Ausnahmefällen sieht das NetzDG überhaupt vor, dass der Verfasser vorab gehört werden kann. Dies halten wir im Interesse einer Transparenz der einzelnen Löschentscheidung und mit Rücksicht auf die Rechte des Gemeldeten, aber auch im Interesse einer tragfähigen Entscheidungsfindung und der Akzeptanz der getroffenen Entscheidung für fragwürdig. Es kann eine befriedende Wirkung haben, wenn vom Betreiber vor der Löschung oder Sperrung mit beiden Seiten, dem Meldenden wie dem Gemeldeten, kommuniziert wird und die getroffene Entscheidung nachvollzogen werden kann. Im Idealfall könnte es zu einer Art Täter-Opfer-Ausgleich kommen, nur online. Abzuraten ist allerdings davon, automatisiert einen unmittelbaren Kontakt zwischen Meldendem und Gemeldetem herzustellen.

Uns ist bewusst, dass eine Bearbeitung der Beschwerden, die solchen Anhörungs- und Informationspflichten genügt, die Plattformbetreiber bzw. die Content Manager in einem Massenverfahren wie der Bearbeitung von Beschwerden gegen gepostete Inhalte vor große Herausforderungen stellt. Jedoch wird die Qualität des Prozesses und des Arbeitsergebnisses dadurch steigen.

Bewusst ist uns auch, dass eine Gelegenheit zur Stellungnahme binnen 24 Stunden (Fälle offensichtlich rechtswidriger Beiträge) schwerlich umzusetzen sein wird. Eine Lösung könnte darin bestehen, den fraglichen Inhalt für die Dauer der Stellungnahmefrist zu verbergen, statt ihn zu löschen („Pause statt Stopp“). Denkbar wäre auch, die Fristen nach § 3 Abs. 2 NetzDG zu abzuändern oder in bestimmten Fällen unter dem Aspekt der Gefahr im Verzuge eine Löschung ohne vorherige Anhörung zu gestatten. Die Netzwerkbetreiber könnten, sofern sie nach kursorischer Prüfung schon von einer Rechtswidrigkeit eines Beitrags ausgehen, den Verfasser auch hierüber in Kenntnis setzen und ihn auffordern, den Beitrag selbst zu löschen.

c) Umgang mit der Löschung rechtmäßiger Inhalte

Für die Verfasser gelöschter Inhalte muss die Möglichkeit gewährleistet werden, die Rückgängigmachung einer Löschungsentscheidung zu erwirken.

In diesem Zusammenhang möchte ich vorab die – weiter zu fassende – Frage in den Blick nehmen, ob der Betreiber eines derart großen sozialen Netzwerks wie beispielsweise  Facebook einseitig „Gemeinschaftsstandards“ bestimmen kann, die als Allgemeine Geschäftsbedingungen Vertragsbestandteil werden und die es gestatten, Inhalte zu entfernen oder Nutzer zu sperren, wenn gegen sie verstoßen wird. In Anbetracht der uneinheitlichen Rechtsprechung zur Grundrechtsbindung der Plattformbetreiber wäre es wünschenswert, hier Rechtssicherheit zu schaffen.

Aus unserer Sicht ist es in Anbetracht der Vielzahl von Personen und Meinungen, die in den sozialen Medien aufeinandertreffen, dringend notwendig, den Netzwerkbetreibern zuzugestehen, die Vertragsbedingungen auch für die von den Nutzern eingestellten Inhalte einseitig festzulegen und so ein Mindestmaß an Zivilität des Geschehens auf der Plattform sicherzustellen. Hierdurch werden die Nutzer nicht unangemessen benachteiligt; im Gegenteil können solche Gemeinschaftsstandards eine pluralistische, auch kontrovers ausgetragene Debatte gerade ermöglichen, weil sie bei konsequenter Anwendung dazu beitragen, dass alle Nutzer gleichermaßen einen Rahmen vorfinden, in dem sie von ihrer Meinungsäußerungsfreiheit Gebrauch machen mögen. Es sollte im Netz nicht das Recht des Lauteren, Rücksichtsloseren gelten.

Dies zu Grunde gelegt, käme aus unserer Sicht das vorgeschlagene bußgeldbewehrte und berichtspflichtige Wiedereinstellungsverfahren (put-back) nur in den wenigen Fällen in Betracht, in denen eine Äußerung nicht gegen die Gemeinschaftsstandards, aber einen der in § 1 Abs. 3 NetzDG aufgeführten Straftatbestände verstößt und deshalb im engeren Sinne aufgrund des NetzDG gelöscht wird. Weil dies offenbar – wie aus den Transparenzberichten zu schließen – nur selten der Fall ist, dürfte einem solchen bußgeldbewehrten Put-Back-Verfahren möglicherweise eine eher geringe praktische Relevanz zukommen. Eine Berichtspflicht über diese Vorgänge halten wir für sinnvoll. Die Bußgeldbewehrtheit sehen wir kritischer. Das unberechtigte Löschen nicht vertragswidriger und nicht strafbarer Inhalte ist nur bedingt mit dem Fall vergleichbar, in dem der Provider von einer auf seiner Plattform begangenen Straftat Kenntnis erlangt und die betreffende Äußerung nicht entfernt. In letztgenanntem Fall geht es um Gefahrenabwehr, in erstgenanntem Fall um eine Vertragsstörung. Günstig wäre auf der anderen Seite die Signalwirkung, die von der Implementierung eines solchen Put-Back-Verfahrens ausginge: für die Rechte der betroffenen Nutzer und gegen eine einseitige Ausrichtung des NetzDG auf das Löschen. Im Ergebnis hätten wir also gegen ein solches Wiedereinstellungsverfahren nichts einzuwenden.

Auch gegen die Löschung von Äußerungen unter dem Aspekt der Verletzung der Gemeinschaftsstandards sollten Betroffene vorgehen können, und zwar mit der Begründung, dass und weshalb die Äußerung nicht gegen die Gemeinschaftsstandards verstößt. Dies ist bislang nicht Gegenstand von NetzDG, sondern rein zivilrechtlich und gegebenenfalls unter Inanspruchnahme gerichtlicher Hilfe zu klären.

Jedenfalls so lange die Plattformbetreiber nicht die Möglichkeit einer Regulierten Selbstregulation nutzen, sollte für beide Fallkonstellationen – die der Löschung nach Gemeinschaftsstandards oder nach dem NetzDG – nach erfolgloser Beschwerde beim Anbieter der Weg zu einer unabhängigen Stelle für außergerichtliche Klärung eröffnet sein.

d) Niedrigschwelliges Schlichtungsangebot auch für die meldenden Nutzer

Anzumerken ist, dass aus Sicht der Nutzer, die Inhalte beanstanden und durch diese womöglich selbst in ihren Rechten verletzt sind, ebenfalls das Bedürfnis bestünde, in einem niedrigschwelligen Verfahren intransparente und nicht nachvollziehbare Entscheidungen der Netzwerkbetreiber gegen eine Löschung beanstandeter Inhalte überprüfen lassen zu können, ohne sogleich eine Beschwerde beim Bundesamt für Justiz einreichen und/oder bei eigener rechtlicher Betroffenheit die zivilrechtliche Inanspruchnahme des Urhebers oder der Plattform über Rechtsanwalt und Gericht in die Wege leiten zu müssen.

e) Qualitätssicherung

Der in § 3 Abs. 4 S. 3 NetzDG aufgenommene Gedanke ist zu bekräftigen: Eine gute personelle Ausstattung des Beschwerdemanagements der sozialen Netzwerke, die juristische Schulung der dortigen Mitarbeiter und ihre psychologische Betreuung ist unerlässlich. Die Arbeitsweise und -organisation in den Löschzentren ist ein gut gehütetes Betriebsgeheimnis von Facebook, was ebenfalls nicht zur Transparenz des Beschwerdemanagements und zur Akzeptanz der Entscheidungen beiträgt. Inwieweit dort tatsächlich die Qualität von Beschwerdeentscheidungen und eine regelmäßige psychologische Betreuung sichergestellt sind, erscheint fraglich. Es liegt aber auf der Hand, dass die Tätigkeit in solchen Löschzentren für die Beschäftigten sehr belastend ist. Eine Qualitätsauditierung durch unabhängige Prüfer wäre angezeigt.

Der Vorzug wäre allerdings nach unserer Einschätzung einer – unabhängigeren und mutmaßlich weniger auf Kosteneffizienz ausgerichtete – Einrichtung der Regulierten Selbstregulierung zu geben, bei der Ausstattung und Abläufe selbstverständlich ebenfalls den Qualitätsanforderungen entsprechen müssten. Ob daneben für das Beschwerdeverfahren die Einrichtung einer weiteren (Clearing-)Stelle sinnvoll ist oder ein- und dieselbe Stelle für die außergerichtliche Schlichtung strittiger Fälle, sei dahingestellt.

2. Berichtspflichten

Die mangelnde Vergleichbarkeit der bislang vorgelegten Transparenzberichte und ihre teils mangelnde Güte zeigt, dass es erforderlich sein wird, die Anforderungen an die Berichte noch weiter zu konkretisieren, obwohl bereits jetzt in § 2 NetzDG sehr präzise aufgelistet ist, zu welchen Aspekten sich die Berichte zu verhalten haben. Lobend hervorzuheben ist die Art und Weise, wie Google für YouTube und Google+ über sein Beschwerdemanagement berichtet. Diese Berichte könnten in ihrem Informationsgehalt als Orientierung dienen.

3. Bemühungen zur Reduktion von Social Bots und Fake Profilen

Gerade Nutzer, die menschenfeindliche Narrative verbreiten und durch toxische Sprache zu einer aggressiven Stimmung in den sozialen Medien beitragen wollen, bedienen sich häufig mehrerer, zwar von ihnen selbst angelegter, aber nicht authentischer Accounts (Fake Accounts oder auch „Sockenpuppen“ genannt), um so vermeintliche Mehrheitsverhältnisse vorzutäuschen und durch eine überwältigende Fülle von Hasskommentaren andere Nutzer einzuschüchtern und zu vertreiben. Dies haben Recherchen in geschlossenen Online-Foren, in denen derartige Hasskampagnen verabredet werden, und Untersuchungen des Datenanalysten unseres Vereins, Philip Kreißel, ergeben (Studie „Hass auf Knopfdruck“, herausgegeben von ISD und ichbinhier e.V. 2018). Die Recherchen decken sich mit dem, was im „Handbuch für Medienguerillas“ nachgelesen werden kann, welches in rechtsextremen Gruppen zirkuliert und seit 2017 online ist. Dort heißt es wörtlich: „Wenn Du keine Freunde hast, lege Dir mehrere Accounts an und betreibe sie parallel. Bau Dir eine Armee von Sockenpuppen auf. Der Mensch ist ein Herdentier. Er ist eher gewillt einer Gruppe von Menschen zu folgen, als einem einzelnen.“

Festzustellen ist auch der Einsatz von Social Bots, also von Algorithmen, die automatisiert und massenhaft Likes vergeben und Inhalte teilen mit dem Ziel, das Meinungsbild zu verzerren und so illegitim Einfluss auf die öffentliche Willensbildung zu nehmen.

Gegen diese Phänomene tun die Anbieter sozialer Netzwerke zu wenig. Auf Meldungen selbst offensichtlicher Fake Accounts wird nach unseren Erfahrungen teils nicht einmal reagiert; gelöscht werden diese Accounts jedenfalls in den seltensten Fällen. Dabei sprechen wir uns nicht für eine Klarnamenpflicht aus. Allerdings sollten die Netzwerkbetreiber bei der Neuerrichtung von Accounts Verfahren nutzen, über die sichergestellt wird, dass sich hinter einem Account eine authentische Person verbirgt. Spätestens Hinweisen auf Fake Accounts sollte nachgegangen werden. Derartige, nicht authentische Accounts sind meines Wissens nach den Nutzungsbedingungen der Plattformbetreiber nicht gestattet. Zu erwägen wäre, die Regelungen zum Beschwerdemanagement und zu den Berichtspflichten auf Social Bots und Fake Accounts zu erstrecken.

4. Ausdehnung auf kleinere Diensteanbieter

Der Anwendungsbereich des NetzDG ist infrage zu stellen: Extremistische Nutzer, die strafrechtlich relevante Inhalte posten möchten und von den großen Netzwerkbetreibern gesperrt werden, weichen auf kleinere Plattformen aus. Das dortige Geschehen ist völlig unkontrolliert und richtet nicht zwingend weniger Schaden an. Zu nennen wären hier Anbieter wie VK.com, bei denen unverhohlen neonazistische, strafbare Inhalte geteilt werden. Problematisch sind auch Gaming-Plattformen, auf denen beispielsweise Symbole verfassungsfeindlicher Organisationen geteilt und Hasskampagnen gestartet werden.

Dem zu erwartenden Einwand, dass diese kleinen Plattformen durch die hohen angedrohten Bußgelder in ihrer Existenz bedroht wären und dies die Quasi-Monopolstellung der großen Plattformbetreiber noch verstärken würde, ist zu entgegnen, dass erstens Bußgelder nur bei systematischen Verstößen verhängt werden und dass zweitens die Höhe einer Geldbuße von der Schwere des Verstoßes, von der tatsächlichen Reichweite der betreffenden, rechtswidrigen Inhalte und auch von der wirtschaftlichen Leistungsfähigkeit des Unternehmens abhinge.

5. Verfolgen statt nur Löschen

In ihrem eigenen Interesse sollten Netzwerkbetreiber Auskunftsersuchen der Staatsanwaltschaft zügig beantworten und so zu einer effizienten Strafverfolgung beitragen. Zu erwägen wäre auch, ob es bei Offizialdelikten eine Anzeigepflicht geben sollte. Sicherzustellen ist unbedingt auch, dass zu strafbaren Inhalten auch nach ihrer Entfernung die Beweise gesichert sind. Ob hier die ins NetzDG aufgenommenen Speicherfristen genügen, kann ich nicht beurteilen.

Mit dem Wunsch nach konsequenter Ahndung strafbarer Äußerungen im Netz ist die Erwartung verknüpft, dass eine solche letztlich generalpräventive Wirkung hätte. Viele Nutzer, die beleidigende oder volksverhetzende Inhalte posten, sind sich der strafrechtlichen Relevanz ihres Tuns nicht bewusst, so lange ihnen dies nicht durch Staatsanwaltschaft und Gericht aufgezeigt wird.

Die Kooperationsbereitschaft der Netzwerkbetreiber allein wird allerdings nicht genügen, um schnelle Ermittlungsergebnisse und zeitnahe Sanktionen zu ermöglichen:

  • Wir sprechen uns dafür aus, dass in sämtlichen Bundesländern die Erstattung von Online-Anzeigen ermöglicht wird.
  • Auch Schwerpunkt-Staatsanwaltschaften, die für Äußerungsdelikte speziell im Internet zuständig sind, könnten sinnvoll sein. Das Problembewusstsein und die Expertise für die besondere Tragweite von im Netz begangenen Äußerungsdelikten ist nach unseren Erfahrungen nicht bei allen Staatsanwaltschaften gleichermaßen vorhanden. Eine Beleidigung, in den sozialen Medien begangen, hat eine wesentlich größere Reichweite als beispielsweise der im Straßenverkehr gezeigte Mittelfinger. Verabreden sich dann noch mehrere Nutzer, mit ihren zahlreichen Accounts die Seite einer Einzelperson mit Beleidigungen zu fluten, dann kann dies die betroffene Person massiv und folgenreich beeinträchtigen. Hier sind für eine angemessene strafrechtliche Beurteilung technische Kenntnisse sowie das Wissen um die Dynamiken des Internets und die Folgen von Hasskampagnen erforderlich.
  • Die betreffenden Strafverfolgungsbehörden und Gerichte sind schließlich personell und technisch besser auszustatten.

6. Weitere Maßnahmen

Wenn wir dem Hass im Netz und einer weiteren Spaltung der Gesellschaft entgegenwirken wollen, dann bedarf es noch weiterer Maßnahmen, die nicht in die Zuständigkeit des Bundesgesetzgebers fallen, die ich hier aber trotzdem nicht unerwähnt lassen möchte:

  • Aufklärungs- und Bildungsmaßnahmen zu den Themen Medien- und Diskurskompetenz in Schulen und im Erwachsenenbereich sowie Fortbildungsprogramme für Fachkräfte
  • Politische Bildung, Vermittlung demokratischer Grundwerte
  • Förderung Zivilgesellschaftlichen Engagements
  • Moderation der Kommentarspalten durch die Seitenbetreiber
  • Unterstützungsmaßnahmen für die Betroffenen von Hassrede (unabhängige Informations- und Beratungsstellen offline sowie online, Maßnahmen zur Minimierung des Kostenrisikos bei Einleitung zivilrechtlicher Schritte)
  • Ausweitung der Forschung zum Thema
  • Europäische und internationale Regulierungsansätze
  • grenzüberschreitende Zusammenarbeit bei der Strafverfolgung

Abschließend ist zu sagen, dass die vorstehend ausgesprochenen Empfehlungen keinen Anspruch auf Vollständigkeit haben.

 

Hamburg, den 14.05.2019

 

Sonja Boddin

Navigation