Christchurch Call: EU ringt um Anti-Terrormaßnahmen

Treffes des "Christchurch Call" gestern in Paris. Die neuseeländische Premierministerin Jacinca Ardern (2.v.r.) und der französische Präsident Emmanuel Macron (r.). hatten die Initiative ins Leben gerufen. [Charles Platieu/ epa]

Neuseeland und Frankreich scharen Staaten und soziale Medien um sich, um gemeinsam gegen Terror im Netz vorzugehen. Auch die EU verhandelt seit Monaten ein Terrorgesetz. Doch Kritiker finden es zu strikt und fürchten Zensur.

Am Rande eines Ministertreffens der G7 in Paris haben gestern, am 15. Mai, die neuseeländische Premierministerin Jacinda Ardern und der französische Präsident Emmanuel Macron den „Christchurch Call“ ins Leben gerufen.

Die Initiative fordert andere Staaten und Onlineplattformen auf, sich zur Eindämmung von terroristischen Inhalten im Netz zu verpflichten. Frankreich, das in den letzten Jahren ebenfalls Schauplatz großer Terroranschläge war, hatte Neuseeland nach dem Terroranschlag auf zwei Moscheen am 15. März Unterstützung im Kampf gegen Terrorismus zugesagt.

In einer Facebook-Ansprache am Sonntag hatte Ardern betont, dass der Anschlag in Christchurch besonders gewesen sei. „Das Attentat war so geplant, dass es viral im Internet verbreitet werden sollte“.

Der Angreifer hatte seine Tat live auf Facebook gestreamt, woraufhin das Video tausendfach geteilt wurde. Facebook gibt an, innerhalb von 24 Stunden rund 1,2 Millionen Kopien des Videos gesperrt und weitere 300.000 gelöscht zu haben. „Eine der Herausforderungen, mit denen wir in den Tagen nach dem Angriff konfrontiert waren, war die Verbreitung vieler verschiedener Varianten des Videos des Angriffs“, erklärte der Vizepräsident für Integrität, Guy Rosen.

Facebook steht nun unter Handlungsdruck. Am Morgen des Christchurch Call erklärte das Unternehmen, seine Regeln für Livestreams verschärfen zu wollen. In Zukunft sollen Nutzer, die mit Uploads gegen die Richtlinien der Plattform verstoßen, für eine gewisse Zeit für Live-Videos gesperrt werden.

Eine Stunde Zeit zum Löschen von Terror-Videos

Unter anderem sollen Online-Plattformen verpflichtet werden, rechtswidrige und terroristische Inhalte innerhalb einer Stunde nach der Meldung zu entfernen.

Staaten richten Überwachungsstellen ein

Eine gesetzliche Regelung zur Eindämmung gewaltverherrlichender Inhalte im Internet existiert bisher nicht – derzeit gilt das Prinzip der freiwilligen Selbstkontrolle. In einer gemeinsamen Datenbank erfassen und blockieren Google, Facebook, Twitter und andere soziale Medien seit 2017 die digitalen Fingerabdrücke von mutmaßlich terroristischen Inhalten.

Inzwischen haben einige Staaten eigenständig Kontrolleinheiten eingeführt. Seit Oktober beschäftigt das Bundeskriminalamt in Deutschland eine Einheit, die online illegale Inhalte sucht und an Europol meldet. Laut Bundesinnenministerium sind seitdem knapp 6.000 solcher Meldungen vorgenommen worden. Auch Großbritannien hat kürzlich den Aufbau einer unabhängigen Regulierungsbehörde angekündigt, die gefährliche Inhalte kontrollieren soll.

Was bislang fehlt: eine europäische Antwort. Im September hatte die EU-Kommission einen Gesetzesvorschlag gegen terroristische Inhalte vorgelegt, dem der EU-Rat in großen Teilen zugestimmt hatte. Der Entwurf sieht vor, dass Onlineplattformen jegliche Inhalte, die zu Terrorakten aufrufen, sie bewerben oder im Detail beschreiben, innerhalb einer Stunde entfernen müssen, wenn eine entsprechende Entfernungsverordnung einer nationalen Behörde aus einem EU-Staat vorliegt. Andernfalls drohen Geldbußen von bis zu vier Prozent des weltweiten Unternehmensumsatzes.

EU-Parlament stimmt Richtlinie gegen Terror-Videos zu

Das EU-Parlament hat einem Gesetzesvorschlag gegen „Terror-Inhalte“ im Internet zugestimmt. Diese sollen künftig innerhalb einer Stunde gelöscht werden.

Problem für kleine Blogs und Foren

Der Vorschlag der Kommission trifft allerdings auf breiten Widerstand von NGOs, Journalisten und Politikern. Sie fürchten eine Zensur des Internets und zweifeln an der Umsetzbarkeit des Vorhabens.

Entsprechend schwierig gestaltete sich die Einigung auch im EU-Parlament. In einem Brief an den zuständigen Justizausschuss hatten sich unter anderem prominente Vertreter der Digitalbranche gegen die Ein-Stunden-Vorgabe ausgesprochen: „Diese extrem kurze Frist würde in Verbindung mit belastenden Sanktionen eine übermäßige Entfernung von rechtmäßigen Inhalten zur Folge haben. Das würde sich negativ auf die Meinungsfreiheit und die damit verbundenen Grundrechte der europäischen Nutzer auswirken“, schrieben sie. Besonders für kleinere Internetplattformen wie Blogs oder Foren sei die unmittelbare Überwachung aller Inhalte „technisch nicht machbar“.

EU-Parlament gegen „Terrorfilter“

Elisabeth Niekrenz, Juristin und politische Referentin bei der netzpolitischen Organisation Digitale Gesellschaft, hat sich intensiv mit den Plänen der Kommission beschäftigt. Sie sieht darin noch ein weiteres Problem: Er enthalte kaum die Möglichkeit, rechtlich gegen die Sperrung von Inhalten vorzugehen. Zwar könne man Klage einreichen, wenn eine nationale Behörde eine Entfernungsanordnung erlasse. „Aber ob und wann ich in allen Mitgliedsstaaten ein rechtsstaatlichen Verfahren erhalte, ist eine ganz andere Sache. Die Definition von terroristischen Inhalten hat ganz klar auch eine politische Ebene, da gibt es viel Raum für Missbrauch gegen regierungskritische Stimmen“, sagte sie gegenüber EURACTIV.

Präzedenzfall: Zensur bei Facebook?

Eine polnische NGO hat Klage gegen den US-amerikanischen Social-Media-Riesen Facebook eingereicht. Die Organistaion kritisiert, ihre Meinungsfreiheit sei auf der Plattform eingeschränkt worden.

Das sehen auch viele EU-Parlamentarier so. Der am 17. April im Parlament verabschiedete Gesetzesentwurf ist daher deutlich entschärften worden. Zum einen enthält er eine eigene Klausel, die Inhalte für Bildungszwecke und zur journalistischen Berichterstattung vor dem Generalverdacht des Terrorismus schützen soll. Zum anderen entschieden sich die Parlamentarier gegen eine verpflichtende, aktive Überwachung der Inhalte durch einen „Terrorfilter“, wie ihn die Kommission erdacht hatte. Außerdem schlossen sie Nachrichtendienste wie den Facebook Messenger, sowie nicht-öffentliche Plattformen von den zu beobachtenden Plattformen aus.

Kritiker sorgen sich dennoch weiter um die Meinungsfreiheit im Internet. Viele Inhalte wie Satire drohen fälschlicherweise entfernt zu werden, meint auch Elisabeth Niekrenz: „Automatische Filter haben bereits eine Vielzahl von Videos der NGO „Syrian Archive“ gelöscht, die Kriegsverbrechen des IS dokumentierten – vermutlich, weil in ihnen IS-Flaggen zu sehen waren. Jeder ungerechtfertigt entfernte Inhalt ist aus Sicht der Meinungsfreiheit einer zu viel.“

Wie die EU-Regelung zu terroristischen Inhalten aussehen wird, werden das neue Parlament und der Rat im September oder Oktober verhandeln. In den kommenden Monaten wird auch Jacinda Ardern versuchen, weitere Onlineplattformen und Staaten zur Unterzeichnung des Christchurch Calls zu bringen. Soziale Medien arbeiten weltweit, sagte sie, daher brauche es auch eine globale Lösung.

Weitere Informationen

Gesetze gegen "Hassrede" vs. Meinungsfreiheit

EU-Justizkommissarin Věra Jourová erklärte bei einer Veranstaltung, Versuche, Hass-Kommentare im Internet zu regulieren und gegebenenfalls zu bestrafen, seien gerechtfertigt.

Subscribe to our newsletters

Subscribe

Wissen was in Europas Hauptstädten passiert - abonnieren Sie jetzt unseren neuen 9 Uhr Newsletter.