Bekämpfung von Hass im Netz – Wie die Meinungsfreiheit geopfert wird

von Alexander Sander und Kirsten Fiedler

Ein wiederkehrendes Schema: IT-Konzerne sollen gegen alle möglichen illegalen oder unerwünschten Aktivitäten im Netz vorgehen – von Urheberrechtsverletzungen über Kinderpornographie bis hin zu Terrorismus und Hassbotschaften. Die Politik geht davon aus, dass die Reaktion der Unternehmen effektiv, verhältnismäßig und nachhaltig ausfallen wird.

In Deutschland ist das Thema insbesondere durch eine von Bundesjustizminister Heiko Maas lancierte Initiative gegen Hasskriminalität im Netz ins Blickfeld der Öffentlichkeit geraten. Im September 2015 wurde ein Arbeitskreis mit Internetanbietern und zivilgesellschaftlichen Organisationen ins Leben gerufen. Die Task-Force „Umgang mit rechtswidrigen Hassbotschaften im Internet“ wurde vor dem Hintergrund rechtsextremistischer und rechtsradikaler Äußerungen in Zusammenhang mit der Flüchtlingskrise gestartet, richtet sich aber ganz allgemein gegen „Hate Speech“.

Eine Definition, was „Hate Speech“ überhaupt sein soll, gibt es jedoch nicht. Dies wird auch auf der Internetpräsenz der Task-Force eingeräumt. Knapp heißt es dort: „Gemeint sind allgemein Äußerungen, die bestimmte Personen oder Personengruppen herabsetzen und verunglimpfen sollen.“[1] Einschränkend wird zwar noch hinzugefügt, dass man im Rahmen der Task-Force nur Formen von Hate Speech bekämpfen will, die gegen Gesetze verstoßen. Allerdings obliegt diese Überprüfung den Unternehmen wie Facebook und Google. Statt Ermittlungsbehörden diese sensible Aufgabe zu überlassen, sollen Unternehmen entscheiden, ob etwa eine Aussage wie „Soldaten sind Mörder“ als rechtswidrig einzustufen ist oder nicht. Dass hierbei Gefahren für die Meinungsfreiheit entstehen, ist mehr als offensichtlich.

Dessen ist sich auch das Justizministerium bewusst und erklärt dazu: „Dem BMJV ist es ein wichtiges Anliegen, dass die Meinungsfreiheit gewahrt wird. Dazu gehört gerade auch, dass die Unternehmen Beiträge nicht ‚übereifrig‘ löschen, also z. B. Beiträge, in denen Hassparolen lediglich zitiert, aber nicht unterstützt werden. Die in der Task Force vereinbarten Maßnahmen – etwa die Prüfung von Beschwerden durch sprachlich und juristisch kompetente Teams – sollen gerade dafür sorgen, dass die Unternehmen ‚punktgenau‘ löschen.”[2] Dass Unternehmen dazu in der Lage sind, muss stark bezweifelt werden – ganz zu schweigen von der tatsächlichen Kompetenz der Löschteams. Wofür Gerichte oft Monate brauchen, sollen sie innerhalb von 24 Stunden entscheiden und entsprechende Inhalte löschen.

Von der Task-Force zum Gesetz

Nachdem die Task-Force ein Jahr arbeitete, stellten Justizminister Maas und Familienministerin Manuela Schwesig im September 2016 jedoch fest, dass die Löschung der rechtswidrigen Inhalte „noch nicht ausreichend“ sei.[3] Es werde zu langsam und zu wenig gelöscht, so die MinisterInnen. Vorerst blieb es aber bei der Aufforderung an die Unternehmen, ihre Praxis zu verbessern.

Nur ein halbes Jahr später, im März 2017, schien dem Justizminister das nicht mehr auszureichen. Er präsentierte einen Gesetzentwurf, der die Unternehmen unter Androhung von Bußgeldern von bis zu 50 Millionen Euro dazu bringen soll, strafbare Inhalte im Netz zu entfernen. Maas begründete seinen Entwurf nun mit Zahlen aus einer Studie von jugendschutz.net: Danach führten User-Meldungen von strafrechtlich relevanten Inhalten bei Facebook nur in 39 Prozent, bei Twitter sogar nur in 1 Prozent der Fälle zu Löschungen.[4] Gerade in diesen sozialen Netzwerken kann man Beiträge jedoch mit nur wenigen Klicks melden. NutzerInnen dürften jedoch nur selten – jedenfalls seltener als juristisch geschultes Personal und definitiv seltener als Gerichte – einschätzen können, welche Beiträge tatsächlich strafrechtlich relevant sind und welche nicht. Dass Unternehmen nicht umgehend auf Meldungen reagieren, ist nicht schön, aber durchaus nachvollziehbar. Anders sehen die Löschquoten aus, wenn man die Unternehmen direkt anschreibt und ihnen etwas länger Zeit einräumt. So kommt Facebook dann auf eine Löschquote von 93 Prozent, Twitter sogar auf 100 Prozent. Das von Maas angesprochene Problem existiert, jedoch wird es dramatisiert und verengt den Blick auf nur wenige soziale Netzwerke. Hinzu kommt, dass keine Strafen vorgesehen sind, wenn Inhalte gelöscht werden, die nicht rechtswidrig sind.

In weniger als vier Monaten war der Weg vom Referentenentwurf zur Verabschiedung des Netzwerkdurchsetzungsgesetzes zurückgelegt. Am 30. Juni gab der Bundestag sein Ja-Wort, am 7. Juli verzichtete der Bundesrat auf die Anrufung des Vermittlungsausschusses.[5] Wie Unternehmen in Zukunft reagieren werden, ist damit vorgezeichnet: Overblocking, also das Löschen von Inhalten, die sich im Rahmen der Meinungsfreiheit bewegen, droht zur ständigen Realität in sozialen Netzwerken zu werden. Statt Ermittlungsbehörden so auszustatten, dass diese überprüfen können, welche Inhalte rechtswidrig sind, hat der Gesetzgeber die Verantwortung den Unternehmen überlassen. Gegen eine drastische Bestrafung von Unternehmen, wenn sie nach einer gerichtlichen Aufforderung Inhalte nicht unverzüglich löschen, spricht nichts. Die Rechtsdurchsetzung zu privatisieren, führt jedoch unweigerlich zu inakzeptablen Eingriffen in die Meinungsfreiheit.

Von Clean IT zum EU-Internetforum

Auch auf europäischer Ebene gibt es weitreichende Versuche, die privatisierte Rechtsdurchsetzung voranzutreiben und Unternehmen an der falschen Stelle in die Pflicht zu nehmen. Ein prominentes Beispiel war das Clean IT-Projekt, das 2011 mit 325.000 Euro aus dem Fördertopf der EU-Kommission gestartet wurde. Bei der Initiative handelte es sich um einen öffentlich-privaten Dialog zwischen europäischen Sicherheitsbehörden, Mitgliedstaaten und IT-Unternehmen. Es hatte zum Ziel, „illegale Inhalte“ im Netz zu bekämpfen. Geleakte Dokumente deckten dann auf, dass eine EU-weite, flächendeckende Überwachung des Internetverkehrs geplant war und Inhalte „ohne die eher bürokratischen und arbeitsintensiven Prozeduren“[6] der Gerichte von den IT-Unternehmen gelöscht oder gesperrt werden sollten. Das Projekt empfahl den Diensteanbietern, unerwünschte Aktivitäten in ihren Nutzungsbedingungen zu untersagen und die entsprechenden Bestimmungen „nicht sehr detailliert“ zu gestalten, um Platz für Spielraum zu lassen. Nach kritischen Medienberichten distanzierte sich die damalige EU-Innenkommissarin Cecilia Malmström von dem Projekt.[7]

Dennoch organisierte sie zwei Jahre später ein informelles Abendessen, um dort ein neues Projekt anzustoßen, das die Methoden von Clean IT fast exakt kopierte. Ein „EU-Internetforum“ wurde gegründet, um mit Technologieunternehmen darüber zu reden, wie diese freiwillig und ohne Richtervorbehalt Inhalte im Netz sperren oder löschen sollten. Frei nach dem Motto: Wer braucht schon Gesetze für Internetsperren, wenn es Nutzungsbedingungen gibt? Die EU-InnenministerInnen trafen sich nun regelmäßig in Brüssel, um hinter verschlossenen Türen mit Delegierten von Facebook, Google, Twitter, Ask.fm und Microsoft darüber zu reden, was die Konzerne gegen „terroristische Inhalte“ und Radikalisierung machen könnten. Einige Monate später kam das Thema Hassbotschaften dazu.

Im Frühjahr 2016 wurde dann ein „Verhaltenskodex“ für die beteiligten Unternehmen präsentiert. Gemeldete Inhalte – also nicht nur explizit illegale – sollten „in weniger als 24 Stunden“ geprüft und ohne vorherigen Richterbeschluss entfernt werden. Der Kodex erklärte, dass die IT-Konzerne in der Bekämpfung von kriminellen Inhalten im Netz die „führende Rolle“ haben – noch vor nationalen Strafverfolgungsbehörden. Der Kodex schreibt den Unternehmen weiterhin vor, einen gemeldeten Inhalt zunächst aufgrund der Nutzungsbedingungen oder Gemeinschaftsstandards zu prüfen und nur „wenn notwendig“ die Gesetze der Mitgliedstaaten als Grundlage hinzuzuziehen. Kurz gesagt, der Kodex degradiert europäische Gesetzgebung zum Instrument zweiter Klasse hinter der „führenden Rolle“ privater Unternehmen, die ermuntert werden, ihre Gemeinschaftsstandards willkürlich durchzusetzen.

Trend: Privatisierte (Rechts-)durchsetzung

Clean IT und das EU-Internetforum sind Teil eines größeren Problems. Im Guardian beschrieb Evgeny Morozov diesen Trend passend: „Unsere Demokratien werden von steigender Ungleichheit und Terrorismus bedroht. Google und Facebook haben übernommen.“[8] Unsere politische Führungsebene gibt die Verantwortung für die Lösung von sozialen bis hin zu militärischen Fragen immer öfter ans Silicon Valley ab – und verschlimmert damit das Demokratiedefizit und die Unglaubwürdigkeit der europäischen Institutionen. Fünf Elemente tragen hauptsächlich hierzu bei:

1. Ungenaue Problemdefinitionen: Es ist recht bemerkenswert, dass in den meisten Initiativen und Projekten nie die Frage der Motivationen für die öffentlich-privaten Dialoge mit den Diensteanbietern aufkam. Es wird einfach angenommen, dass der Prozess der Radikalisierung „mehr und mehr im Netz“ stattfindet. Hierauf baut eine weitere, wacklige Annahme auf, nämlich dass Aktionen von Internet-Unternehmen die Antwort auf das angenommene Problem seien.

Studien haben jedoch gezeigt, dass eine Radikalisierung in den meisten Fällen über persönliche Kontakte läuft. So haben Wissenschaftler vom King’s College in London festgestellt,[9] dass mehr als die Hälfte aller Dschihadisten, die in den letzten Jahre Anschläge in Europa verübt haben, bereits in Haft waren und ein Drittel sich dort radikalisierte. Auch Anis Amri, der Attentäter von Berlin, hat sich im Gefängnis radikalisiert. Fehlgeleitete Schlussfolgerungen, wie zum Beispiel dass die Radikalisierung hauptsächlich im Internet bekämpft werden müsse, machen also eine dringend notwendige differenzierte Kritik unmöglich und verhindern eine wirksame politische Regulierung.

2. Intransparente Prozesse: Wie das Clean IT-Projekt fanden auch die Treffen des Forums hinter verschlossenen Türen statt, Dokumente wurden nicht veröffentlicht. Dies ist ein Problem, denn die Regulierung der Meinungsfreiheit der heute über 500 Millionen EinwohnerInnen der EU darf nicht im Alleingang von Innenministerien und Internetunternehmen beschlossen werden. Es bedarf demokratischer Prozesse und Transparenz. Zudem ist äußerst unklar, was die Unternehmen tun sollen, um „terroristischen Inhalt zu reduzieren“ und was die Rechtsgrundlage für eine solche Tätigkeit wäre. Wie NutzerInnen sich bei fälschlichen Internetsperren oder Löschungen effektiv wehren können, bleibt ebenfalls ein Rätsel.

3. Schwammige Formulierungen: Zudem wurde meist nur schlecht (oder gar nicht) definiert, was eigentlich „terroristische Inhalte“ oder „terroristische Propaganda“ sind. Beim Thema Hassbotschaften wird es sogar noch chaotischer und unklarer. Der Rahmenbeschluss 2008/913/JI des EU-Rates „zur strafrechtlichen Bekämpfung bestimmter Formen und Ausdrucksweisen von Rassismus und Fremdenfeindlichkeit“ führte zu kunterbunten Umsetzungen in den Strafgesetzbüchern der Mitgliedstaaten.[10] Selbst wenn es eine klare, einheitliche Definition gäbe, scheint kein Gedanke daran verschwendet zu werden, ob Diensteanbieter überhaupt die notwendigen juristischen Kenntnisse besitzen, um zu beurteilen, ob ein Video, Post oder Tweet nun illegal ist oder nicht.

Wieso auch, denn die EU-Kommission nimmt hin, dass auf der Basis der Nutzungsbedingungen der Unternehmen nicht nur bereits illegale, sondern auch rechtmäßige Inhalte (z.B. Bilder von weiblichen Brustwarzen auf Facebook oder in Apple Store) verboten werden. Die Nutzungsbedingungen sind ein Instrument der leichten Hand, mit dem sich Löschungen von Posts und Tweets leichter vornehmen lassen und das den Unternehmen eine unter Umständen schwierige Prüfung der Rechtmäßigkeit erspart.

Die Beseitigung von Inhalten durch Unternehmen, die nicht in der Lage oder willens sind, die Legalität zu beurteilen, führt zu einem hohen Risiko einer Verletzung der Kommunikationsfreiheit. Wenn die Nicht-Löschung von Inhalten nach schwammigen Vorgaben noch mit einem Bußgeld bedroht wird, das fehlerhafte Löschen jedoch nicht, ist Overblocking vorprogrammiert. Einer der Gründe, die zum Scheitern des Clean IT-Projekts führten, war die scharfe Kritik an der mangelnden Klarheit des Begriffs „terroristische Nutzung des Internets“. Weder die Mitgliedstaaten noch die Kommission scheinen aus vergangenen Fehlern gelernt zu haben.

4. Zweifelhafte Effizienz: Forscher der Universität Leuven stellten 2012 in einer Studie fest, dass illegale Hassbotschaften meist in der Hoffnung verbreitet werden, dass diese gelesen, gemeldet und gelöscht werden.[11] Also schafft die Idee des „Whac-a-mole”-Spiels mit Inhalten, die hochgeladen, gemeldet, verifiziert, heruntergenommen, wieder hochgeladen, gemeldet, verifiziert und wieder gelöscht werden, das offensichtliche Risiko, eher kontraproduktive Resultate zu erzielen. Die TäterInnen werden jedenfalls nicht daran gehindert, stets neue Hassbotschaften ins Netz zu stellen.

Bei „freiwilligen“ Aktionen der sozialen Netzwerke sind also fast alle Beteiligten Gewinner: Die Politik kann sich brüsten, endlich etwas zu unternehmen, die Diensteanbieter können einfach mit Berufung auf ihre Gemeinschaftsstandards löschen, wie es ihnen gefällt, ohne tatsächlich illegale Inhalte den Behörden melden zu müssen, und die TäterInnen werden weiterhin ihre Hassbotschaften verbreiten, ohne eine ernsthafte Verfolgung oder Strafe zu riskieren.

Die Dokumente, die vom Clean IT Projekt oder dem EU Internetforum an die Öffentlichkeit gelangten, zeigen, dass nie eine vorherige Analyse der Effizienz und der Auswirkungen der geplanten Maßnahmen durchgeführt wurde. Werden die Entscheidungen der Unternehmen tatsächlich zur Bekämpfung von „terroristischen Inhalten“ beitragen? Oder führt das Löschen der Inhalte durch Google und Facebook eher dazu, dass Straftaten unter den Teppich gekehrt werden? Niemand weiß es. Studien oder Folgeabschätzungen gibt es jedenfalls keine.

5. Unerwünschte Nebenwirkungen: Letztendlich schafft eine privatisierte Rechtsdurchsetzung ernsthafte Risiken für die freie Meinungsäußerung, da rechtmäßige, aber umstrittene Inhalte infolge von intransparenten unternehmensinternen Prozessen gelöscht werden. Rechtsstaatliche Prozesse werden umgangen und Unternehmen, deren eigentliches Hauptziel es ist, Profite zu erzielen, werden zu Quasi-Polizeien und Quasi-Gerichten über unsere Meinungsfreiheit ernannt. In der EU und auch im Mitgliedstaat Deutschland geben die demokratischen Gesetzgeber die Kontrolle an IT-Konzerne ab. Entscheidend sind nicht mehr die Grundrechtecharta der EU, Richtlinien oder Verordnungen, nicht mehr das Grundgesetz und die Gesetze, sondern Nutzungsbedingungen und „Gemeinschaftsstandards“. Sie werden durchgesetzt.

Fazit

Die Europäische Union beruht auf demokratischen Grundsätzen, Rechtsstaatlichkeit und Menschenrechten. Dies bedeutet auch, dass Einschränkungen von Rechten eine gesetzliche Grundlage haben müssen. Unternehmen die Hauptrolle im Kampf gegen Terrorismus und Hassbotschaften zu geben und das Gesetz durch willkürliche Entscheidungen aufgrund von AGB zu ersetzen, ist keine nachhaltige Antwort auf die Radikalisierung junger Menschen in Europa. Die Risiken der kontraproduktiven Nebenwirkungen zu ignorieren, ist fahrlässig – denn die Probleme bleiben ungelöst und die Chance wird verpasst, an den Wurzeln anzusetzen, etwa durch Investitionen in Präventionsarbeit, Deradikalisierung im Gefängnis oder die Schulung von JustizmitarbeiterInnen, um Radikalisierung frühzeitig zu erkennen. Der Aufbau von Schwerpunktstaatsanwaltschaften, die rund um die Uhr verfügbar sind, rasch auf rechtswidrige Inhalte reagieren und eine tatsächliche Strafverfolgung einleiten können, ist unumgänglich. Happige Bußgelder gegen Unternehmen werden da legitim, wo es darum geht, sie bei Nicht-Achtung gerichtlicher Anordnungen in die Pflicht zu nehmen. Nur so kann der Spagat zwischen Meinungsfreiheit und der Bekämpfung von Hass im Netz gelingen.

Die europaweite Bekämpfung von Hassbotschaften und Aufrufen zu Gewalt und Terror ist zu wichtig, als dass sie offene, demokratische und transparente Prozesse ignorieren könnte. Alles auf die Überwachung und Kontrolle des Internets zu setzen, ist verantwortungslos, kurzsichtig und ineffizient.

[1]    www.fair-im-netz.de/WebS/NHS/DE/Home/home_node.html#massnahmen
[2]    www.fair-im-netz.de/WebS/NHS/DE/Home/home_node.html#massnahmen
[3]    BMJV: Pressemitteilung v. 26.9.2016 (online unter bmjv.bund.de oder www.fair-im-netz.de)
[4]    BMJV: Pressemitteilung v. 14.3.2017; jugendschutz.net: Löschung rechtswidriger Hassbeiträge bei Facebook, YouTube und Twitter, www.bmjv.de/SharedDocs/Downloads/DE/Artikel/03142017_Monitoring_jugendschutz.net.pdf?__blob=publicationFile&v=1
[5]    BT-Drs. 18/12727 v. 14.6.2017; BT-Plenarprot. 18/244 v. 30.6.2017, S. 25115 ff.; BR-Prot. 959 v. 7.7.2017, S. 367
[6]    Clean IT project: Detailed Recommendations Project, Version 0.63, Confidential – not for publication, v. 28.8.2012; www.edri.org/files/cleanIT_sept2012.pdf
[7]    s. ihre Twitter-Meldung v. 25.9.2012: https://twitter.com/MalmstromEU/status/ 250641266038173696
[8]    Morozov, E.: The state has lost control: tech firms now run western politics, in: Guardian v. 27.3.2016
[9]    Basra, R.; Neumann, P.; Brunner, C.: Criminal Pasts, Terrorist Futures: European Jihadists and the New Crime-Terror Nexus, London 2016; http://icsr.info/2016/10/new-icsr-report-criminal-pasts-terrorist-futures-european-jihadists-new-crime-terror-nexus/
[10] siehe den Bericht der EU-Kommission, Com (2014) 27 final v. 27.1.2014
[11] Scottiaux, S.; Vrielink, J.: The Limits of Limitations: Effects of the Legal Prohibition of Racist Hate Speech on Victims and Perpetrators’, Centre for Media Pluralism and Media Freedom, European University Institute, 26 March 2012