Die Internetpolizei: Wie Europol gegen unliebsame Internetinhalte vorgeht

von Kilian Vieth

Europol lässt Inhalte aus dem Internet entfernen. Der Ansatz geht über den Kampf gegen terroristische Propaganda deutlich hinaus und vermischt Polizeiarbeit und Medienregulierung. Sollte eine Polizeibehörde für die Überwachung und Kontrolle von Facebook-Postings und Tweets zuständig sein?

Europol unterhält seit Sommer 2015 eine sogenannte Meldestelle für Internetinhalte (EU Internet Referral Unit, kurz: EU IRU). Diese Einheit durchsucht das Internet und analysiert und bewertet Inhalte, die sie für unangemessen oder zumindest fragwürdig hält. Diese Inhalte werden dann als Löschempfehlung an die Betreiber der betreffenden Website weitergeleitet. Damit soll der Verbreitung von Propagandamaterial und der Radikalisierung im Internet entgegengewirkt werden. Die Meldestelle versucht, die Internetkonzerne also gezielt auf Online-Material aufmerksam zu machen, das nicht den AGBs der jeweiligen Plattform entspricht. Damit agiert die EU-Meldestelle an der Schnittstelle von privater und polizeilicher Medienregulierung.

Die Einrichtung der neuen Europoleinheit wurde im März 2015 beschlossen, also nur etwa zwei Monate nach den Anschlägen auf die Redaktion von Charlie Hebdo und den jüdischen Supermarkt Hypercacher in Paris. Die Forderung nach einer EU-Einheit gegen Online-Propaganda findet sich auch schon in einer Erklärung vom 30. Januar 2015, in der festgehalten wird, dass das Internet eine „bedeutende Rolle für Radikalisierung spielt“ und die „Entfernung von terroristischen und extremistischen Inhalten gestärkt werden muss“.[1] Die Schaffung der neuen EU-Meldestelle wurde ausdrücklich als politische „Antwort“ auf die Anschläge von Paris bezeichnet. Sie folgt also dem altbekannten Muster, sicherheitspolitische Maßnahmen im Schnellverfahren umzusetzen, sobald sich die politische Gelegenheit bietet. Sicherheitspolitische AkteurInnen sehen sich nach solchen Attacken oft unter Druck, „Handlungsfähigkeit“ zu demonstrieren, auch wenn es sich dabei häufig um symbolische Maßnahmen handelt.

Die EU IRU baut auf dem „Check the Web“-Projekt auf, das terroristische Propaganda im Internet analysiert und in einer zentralen Datenbank sammelt, die allen Mitgliedstaaten zur Verfügung steht. Von der Einführung 2007 bis Anfang 2015 wurden darin bereits um die 10.000 Dokumente und Personen gespeichert.[2] Dabei ging es jedoch nur um die Überwachung und Analyse von Propagandamaterial; die Löschempfehlungen an die Provider spielten bei „Check the Web“ noch keine Rolle. Großbritannien war der erste EU-Mitgliedstaat, der im Rahmen seines Präventionsansatzes gegen Terrorismus polizeiliche Maßnahmen gegen Radikalisierung im Internet umsetzte. Das institutionelle Modell und Vorbild für die EU IRU war die britische „Counter-Terrorism Internet Referral Unit“ (CTIRU).[3] Diese britische Einheit arbeitet seit 2010 daran, unliebsame Inhalte aus dem Internet zu filtern.

Überwachen und Löschen lassen

Europols erklärtes Ziel ist es, durch die Meldestelle den Zugang zu „terroristischem und extremistischem Material“ im Internet zu reduzieren. Die Inhalte können sowohl Text, Bilder und Videos sein, aber auch ganze Social Media-Accounts oder Profile, die diese Inhalte verbreiten. Bisher konzentriert sich die Einheit vor allem auf die Überwachung großer Plattformen wie Facebook, Youtube und Twitter sowie auf relevante Knotenpunkte, an denen Propagandainhalte zentral verteilt werden. Priorität haben zum Beispiel die Accounts, die Inhalte übersetzen oder besonders große Reichweiten haben.[4] Den Großteil der zu entfernenden Inhalte sucht und findet die Europoleinheit selbstständig, außerdem nimmt sie aber auch Inhalte aus den Mitgliedstaaten entgegen und leitet sie an die Plattformen weiter. Diese Koordinierungsfunktion soll Doppelanfragen verhindern und unterbinden, dass z.B. konkrete NutzerInnen-Accounts, die von einem Mitgliedstaat gezielt zur Informationsgewinnung überwacht werden, von einem anderen Mitgliedstaat zur Löschung beantragt werden. Gleichzeitig bietet sich Europol als Vermittlerin für die Mitgliedstaaten an, die keine eigene Meldestelle unterhalten. Anders als der Name „Meldestelle“ es vielleicht vermuten lässt, nimmt Europol keine Informationen von BürgerInnen entgegen; kooperiert wird nur mit Behörden und den Internetunternehmen.

Soweit bekannt hat die Meldestelle keinen privilegierten Zugang zu den einzelnen Online-Plattformen. Sie beruft sich darauf, nur die Möglichkeiten auszuschöpfen, die prinzipiell allen BürgerInnen offen stehen: Inhalte bei Social Media-Anbietern zu melden. Wie genau die Kommunikation zwischen der EU IRU und den Dienstanbietern funktioniert, ist unklar. Es besteht aber kein Zweifel, dass die Zusammenarbeit ausgeweitet werden soll. Dafür hat die EU-Kommission eigens das „EU Internet Forum“ ins Leben gerufen, um den Dialog und die „Partnerschaft“ mit den Plattformbetreiberfirmen zu verbessern.[5]

Weitreichendes Doppelmandat

Obwohl die Entscheidung, eine EU-Internetmeldestelle zu schaffen, eindeutig im Zusammenhang mit den Pariser Anschlägen im Januar 2015 stand, gehen die Befugnisse der neuen Einheit deutlich über den Bereich der Terrorismusbekämpfung hinaus: Die EU IRU soll nicht nur „terroristische und extremistische“ Inhalte überwachen und entfernen lassen, sondern auch Inhalte, die im Zusammenhang mit „illegaler Einwanderung“ und „Migrantenschmuggel“ stehen. Im April 2015 entschied der Europäische Rat, Europols Auftrag umfasse auch „im Einklang mit der jeweiligen nationalen Verfassung Internetinhalte, mit denen Schlepper Migranten und Flüchtlinge anlocken, auszumachen und deren Entfernung aus dem Netz zu beantragen“.[6] Mit dieser Ausdehnung des Mandats, noch bevor die Meldestelle überhaupt eingerichtet war, wurde eine zusätzliche, äußerst schwammige Grundlage für die Löschung von Informationen geschaffen. Von Anfang an umfasste die Zuständigkeit der EU IRU damit auch die Überwachung der Online-Aktivitäten von FluchthelferInnen bzw. SchlepperInnen.[7] Die Internetmeldestelle arbeitet dementsprechend sowohl mit Europols Anti-Terrorismuszentrum (ECTC) als auch mit dem ebenfalls bei Europol angesiedelten Zentrum gegen „Migrantenschmuggel“ (EMSC) zusammen.

Die aktuellsten öffentlichen Zahlen zur Arbeit der EU IRU stammen aus einem Bericht vom Dezember 2016. Darin heißt es, die Meldestelle habe bis Oktober 2016 die Löschung von 15.421 Inhalten beantragt.[8] Diese Inhalte waren auf mindestens 31 Plattformen verteilt und in acht verschiedenen Sprachen verfasst.[9] 88,9 Prozent dieser gemeldeten Inhalte wurden daraufhin gelöscht. Da es bisher wenig Vergleichswerte gibt, fällt es schwer, diese „Erfolgsquote“ zu bewerten und zu überprüfen. Der interessante Knackpunkt ist der kleine Anteil der gemeldeten Inhalte, die die Plattformen trotz Empfehlung von Europol nicht gelöscht haben. Denn die entscheidende Frage ist nicht unbedingt, wie viele Inhalte insgesamt entfernt wurden, sondern anhand welcher Kriterien die Löschung erfolgt.

Es lohnt sich also, diesen Prozess genauer zu beleuchten. Wichtig ist zunächst, dass die Inhalte zweimal getrennt bewertet werden. Die erste Bewertung erfolgt durch Europols IRU, die einzelne Inhalte oder Accounts z.B. als „terroristische Propaganda“ oder „Anlockung von MigrantInnen“ einstuft. Nachdem der Inhalt an den betreffenden Anbieter weitergeleitet wurde, führt das Unternehmen, auf dessen Servern sich der Inhalt befindet, eine zweite Bewertung durch. Wie und auf welcher Grundlage diese zweite Bewertung durchgeführt wird, liegt allein in der Verantwortung dieses Unternehmens. Typischerweise beziehen sich die Unternehmen auf ihre Gemeinschaftsrichtlinien, also das sich selbst gegebene, individuelle Regelwerk. Europol betont, absolut keinen Einfluss auf die endgültige Löschentscheidung zu haben. Und das aus gutem Grund, denn Europol hat keine Exekutivgewalt und kann die Inhalte nur melden, aber die Löschung nicht selbst vollstrecken, da die rechtliche Grundlage dies nicht zulässt.

Beide Bewertungsprozesse – von Europol und von den Plattformen – sind völlig intransparent und nicht überprüfbar. Eine richterliche oder parlamentarische Kontrolle oder auch eine Aufsicht durch eine Ombuds­person ist nicht vorgesehen. Ein Widerspruchs- oder Offenlegungsrecht haben die NutzerInnen nicht. Die Verantwortung für die Löschung von Inhalten wird gänzlich an die Unternehmen abgewälzt.

Bewusste Privatisierung des Regelwerks

Keiner der beiden Prozesse zur Bewertung der Inhalte basiert auf gesetzlich festgelegten Regeln, sondern auf den „Community Guidelines“ der Unternehmen. Auch Europols Meldestelle richtet sich bei der Analyse von Inhalten nach den Gemeinschaftsstandards der Unternehmen. Das ist deshalb so wichtig, da es sich hierbei nicht um ein zufälliges Arrangement handelt. Ganz im Gegenteil war dies einer der Gründe, die EU Meldestelle einzurichten: Man kann damit mehr Inhalte entfernen lassen, als nach gesetzlichen Vorgaben erlaubt wäre.

Der EU-Anti-Terrorismuskoordinator erklärte in einer Stellungnahme Anfang 2015 wörtlich, es sei sinnvoll, sich nach den AGBs der Plattformen zu richten, da diese mehr Löschungen erlauben als die meisten europäischen und nationalen Rechtsrahmen.[10] Es geht also auch um das Grundrecht auf freie Meinungsäußerung und die Frage, wer die Regeln dafür bestimmt. Welche Inhalte verboten sind, ist von Land zu Land und von Plattform zu Plattform sehr verschieden. Die Grenzen der freien Meinungsäußerung zu definieren, ist immer eine politische Entscheidung, die in einer freien Gesellschaft nicht durch intransparente, technokratische Abläufe, sondern durch eine offene, demokratische Debatte getroffen werden muss. Ein Beispiel ist die Abbildung „weiblicher“ Brustwarzen: Instagram und Facebook löschen solche Bilder umgehend, aber in Deutschland sind nackte Brüste in der Öffentlichkeit eigentlich nicht explizit verboten. Während nationalsozialistische Symbole in Deutschland verboten sind, können sie in anderen Ländern teilweise frei zur Schau gestellt werden. Wie die Einschränkung der freien Meinungsäußerung ausgelegt wird, kann also nicht verallgemeinert werden und steht immer in einem sozialen und politischen Kontext.

Wie trifft Europol diese komplexe Entscheidung über die Einstufung von Inhalten? Dazu schweigt Europol und verweist vage auf seine gesetzliche Grundlage. Doch die liefert wahrlich keine ausreichend präzisen Kriterien für komplexe Abwägungen und Einzelfallentscheidungen. Europol hat einen enormen Gestaltungsspielraum bei der Kategorisierung von unerwünschten Inhalten.

Ein effektiver Ansatz?

Europol wurde geschaffen, um den Informationsaustausch und die Kooperation zwischen den nationalen Polizeien zu verbessern und die Effektivität und Effizienz der europäischen Sicherheitspolitik erhöhen. Die immer engere Kooperation mit privaten Plattformen gilt es jedoch kritisch zu beobachten, da sich abzeichnet, dass das „IRU-Modell“ zur Regulierung von Medieninhalten auch auf nationaler Ebene ausgeweitet werden wird. Schon heute unterhalten 26 Mitgliedstaaten extra eingerichtete nationale Kontaktstellen zur EU IRU. Und das, obwohl Europol selbst zugibt, dass der Ansatz der EU-Meldestelle nicht besonders effektiv ist.[11] Denn das Löschen von Internetinhalten ähnelt einem Katz-und-Maus-Spiel: Wird an einer Stelle etwas gelöscht, taucht es dafür an anderer Stelle (mehrfach) wieder auf. Diesem Grundproblem – seit längerem schon als Streisand-Effekt bekannt – hat die Europolmeldestelle wenig entgegenzusetzen. Das Entfernen bleibt reaktiv und in seiner Wirkung begrenzt, auch weil sich die SenderInnen von Propagandamaterial schnell an Löschmaßnahmen anpassen können. Auch wenn Europol mehr Ressourcen für die Meldestelle fordert (bis Juli 2017 soll die Einheit auf 36 MitarbeiterInnen anwachsen),[12] bleibt unklar, ob sich diesem strukturellen Problem mit mehr Personal und besserer Hard- und Software entgegenwirken lässt. Europol wird voraussichtlich weiter Katz-und-Maus spielen, wenn auch mit immer größeren Computern. Denn auch die Kapazitäten und Methoden der SenderInnen entwickeln sich kontinuierlich weiter.

Ein Ansatz, die Arbeit der Meldestelle effektiver zu machen, sind so genannte Upload-Filter. Sie sollen verhindern, dass einmal entfernte In­halte leicht verändert erneut hochgeladen werden. Langfristig will Europol seine reaktive Rolle ablegen und ins Prognosegeschäft einsteigen. Dann soll der „Missbrauch“ von Social Media antizipiert und das Verbreiten von terroristischer Propaganda bereits im Voraus unterbunden werden.[13] Diese „Vision“ ist noch Zukunftsmusik, ihre Verwirklichung ist aber nicht ausgeschlossen. Denn technisch ist eine präventive Filte­rung von Inhalten möglich, und der Einsatz von Vorhersagetechnik für die Polizeiarbeit liegt generell im Trend.

Deswegen sollte nicht nur nach der technischen, sondern auch nach der politischen und sozialen Effektivität gefragt werden. Denn das Löschen(-lassen) von Internetinhalten behandelt nur die Symptome. Die Sicherheitsbehörden müssen sich selbst in die Gleichung mit einrechnen: Wenn ein Inhalt entfernt wird, welche Botschaft sendet das an den oder die SenderIn? Werden selbst-referenzielle Filterblasen dadurch nicht verstärkt und Verschwörungsideologien zusätzlich befeuert?

Wenn gelöscht wird, muss sichergestellt sein, dass die gleichen Standards für alle gelten. Die bisherige Arbeit der EU IRU fokussiert sich sehr stark auf das Thema Islamismus und Radikalisierung durch jihadistische Ideologien. Wenn es z.B. um Rechtsterrorismus in der Uk­raine geht, werden deutlich weniger Mittel auf das Entfernen von Inhalten verwendet. Auch „illegale Migration“ mit der Meldestelle zu bekämpfen, überdehnt die klassischen Kompetenzen einer Polizeibehörde. Die Einrichtung der Meldestelle wurde vordergründig mit dem Kampf gegen Terrorismus und Radikalisierung begründet. Ein überzeugendes Narrativ: Wer will schon das Löschen von brutalen Enthauptungsvideos kritisieren? Doch wenn die Lösch-Infrastruktur einmal geschaffen ist, kann deren Einsatzbereich sukzessive erweitert werden.

Auch wenn die Entscheidungshoheit über die Frage „löschen oder nicht löschen?“ bis auf weiteres bei den Plattformen verbleiben wird, ist die EU IRU trotzdem keine symbolische Initiative. Sie verändert das Zu­sammenspiel von öffentlichen und privaten AkteurInnen bei der Regulierung von Medieninhalten und richtet sie nach neuen Kriterien aus. Es geht nicht mehr darum, ob ein konkreter Inhalt legal ist, sondern ob er kommerziell und (sicherheits-)politisch wünschenswert ist. Auch wenn der Vergleich hinkt: Man stelle sich vor, die EU IRU wäre nicht für Face­book und Youtube, sondern für große Tageszeitungen zuständig. Der Aufschrei über die politische Einflussnahme wäre immens.

[1]   EUCO 18/15 v. 23.4.2015 v. 23.4.2015
[2]   Ratsdok. 7266/15 v. 16.3.2015, S. 3
[3]   Ratsdok. 1035/15 v. 17.1.2015, S. 3
[4]   Ratsdok. 14244/15 v. 23.11.2015, S. 11
[5]   COM (2016) 230 endg. v. 24.4.2016, S. 7
[6]   EUCO 18/15 v. 23.4.2015
[7]   BT-Drs. 18/9764 v. 26.9.2016
[8]   Ratsdok. 14260/16 v. 20.12.2016, S. 22
[9]   Europol: EU Internet Referral Unit. Year One Report Highlights v. 22.07.2016 (www.statewatch. org/news/2016/sep/eu-iru-one-year.htm)
[10]  Ratsdok. 1035/15 v. 17.1.2015, S. 3
[11]  Ratsdok. 7266/15 v. 16.3.2015, S. 4
[12]  Ratsdok. 14260/16 v. 20.12.2016, S. 22
[13]  Ratsdok. 7266/15 v. 16.3.2015, S. 5f.