Gefälschte Videos von angeblichen Mitgliedern der Le Pen-Familie, die mit kontroversen Bemerkungen für rechte Parteien werben, sind im Internet viral gegangen. Dies hat eine Debatte über die Wirksamkeit der Inhaltsmoderation im Vorfeld der EU-Wahlen angefacht.
Inmitten der jüngsten Meinungsumfragen, die den Zuwachs rechter Fraktionen vorhersagen, ging eine Reihe von gefälschten Videos viral.
Junge Frauen gaben vor, Mitglieder der Familie Le Pen zu zeigen, die in Unterwäsche, am Strand oder beim Skifahren tanzen, während sie über die EU-Wahlen sprechen und sich über People of Colour in Frankreich lustig machen.
Die in den Umfragen führende französische rechte Partei Rassemblement National (ID) hat Jordan Bardella zu ihrem Spitzenkandidaten für die EU-Wahlen ernannt. Marion Maréchal, die Nichte von Marine Le Pen, ist hingegen die Spitzenkandidatin der konkurrierenden rechten Partei Reconquête! (EKR).
In den letzten Wochen sind auf TikTok zahlreiche gefälschte Videos aufgetaucht, die vorgeben, von Le Pens Nichten zu stammen. Einige davon wurden über zwei Millionen Mal angeschaut.
Sie zeigen drei angebliche Nichten der Familie Le Pen, Amandine Le Pen, Chloé Le Pen und Lena Maréchal Le Pen, die es nicht gibt.
Die jugendlichen Gesichter von Marine Le Pen und Marion Maréchal wurden in Videos eingearbeitet, die von echten Influencerinnen gestohlen wurden.
Die viralen Deepfakes scheinen für die beiden rechten Parteien zu werben. Sie erwähnen mehrfach die EU-Wahlen.
Zumindest einige der TikTok-Accounts wurden am Dienstag (16. April) gelöscht, wie Euractiv beobachtete.
Le Pens Familie sagte, sie sei „nicht sehr glücklich“ über die gefälschten Accounts. Reconquête! meldete die Inhalte an TikTok.
Ein anonymer Betreiber des Accounts von Lena Maréchal rechtfertigte die Aktion gegenüber BFM TV als „soziales Experiment“, das „nichts mit Politik zu tun“ habe.
„[Dies ist] das Kleid, das ich für den Sieg von Jordan [Bardella] tragen werde“, heißt es in einem Deepfake-Video von der angeblichen Amandine Le Pen. Darin hat sie sich als Jeanne d’Arc verkleidet, eine französische historische Figur, auf die sich der Rassemblement National oft bezieht.
„Wenn man in Paris herumläuft, sieht man mehr Schleier als Baguettes“, oder „Mohamed ist der Typ, der den Rassemblement National beleidigt, aber in meinen DMs landet“, sagte die spärlich bekleidete falsche Nichte.
Bardella bezeichnete dies am Samstag (13. April) bei BFM TV als „böswillige Nutzung“ von KI. Der Spitzenkandidat für die EU-Wahl forderte eine stärkere Regulierung von KI-gestützten Inhalten.
Die Ironie
Ein Gefühl der Ironie durchziehe die Situation, da französische Abgeordnete des Rassemblement National gegen eine Bestimmung gestimmt haben, die die Online-Veröffentlichung von KI-gesteuerten Deepfakes ohne Zustimmung verbiete, erklärte Frankreichs Digitalstaatssekretärin Marina Ferrari am Montag (15. April).
Der Rassemblement National und linke Parteien hatten sich letzte Woche in der Nationalversammlung gegen Frankreichs umfassendes Digitalgesetz ausgesprochen. Als Begründung wurden Bedenken bezüglich „autoritärer Maßnahmen“ genannt.
Mit dem SREN-Gesetzentwurf soll unter anderem das wegweisende EU-Gesetz zur Moderation von Online-Inhalten, das Gesetz über digitale Dienste (DSA), in die französische Gesetzgebung übernommen werden.
Im Verzug
Frankreich und fast ein Drittel der EU-Mitgliedstaaten sind mit der Umsetzung dieses wegweisenden Gesetzes im Verzug, trotz der bevorstehenden EU-Wahlen im Juni. Eigentlich sollten sie ihre koordinierende Verwaltungsbehörde bis zum 17. Februar 2024 benennen.
Diese nationalen Koordinierungsbehörden haben wiederum die Aufgabe, Organisationen zu benennen, die für die Meldung illegaler Inhalte an die Plattformen zuständig sind. Dies sind die sogenannten „Trusted Flaggers.“
Die Plattformen müssen vorrangig Moderationsentscheidungen zu den von diesen Organisationen gekennzeichneten Inhalten treffen. Dazu könnten auch politische Inhalte gehören, wie die Videos von Le Pens falschen Nichten.
Obwohl Frankreich seine Behörde für audiovisuelle Medien Arcom noch nicht offiziell als DSA-Koordinierungsbehörde benannt hat, hat die Behörde bereits damit begonnen, Bewerbungen für „Trusted Flaggers“ entgegenzunehmen.
Die wirklichen Herausforderungen für „Trusted Flaggers“ werden die Rekrutierung, die Ausbildung und die Sicherung der Budgets sein, um langfristig einsatzfähig zu sein. Dies erklärte Julie Carel, Partnerin bei der französischen Anwaltskanzlei Momentum Avocats, gegenüber Euractiv.
Carel rechnet mit einer „rechtlichen Wartezeit“ zwischen der offiziellen Ernennung von Arcom und der Auswahl der „Trusted Flaggers.“ Zudem erwartet sie auch eine „operative Wartezeit“, in der die Organisationen ihre Moderationsteams schulen müssen.
DSA-Durchsetzung
Trotz der Verzögerungen weist Carel darauf hin, dass das Gesetz über digitale Dienste bereits jetzt in Kraft ist. Auch wenn das nationale Recht noch nicht angepasst wurde, sind die Unternehmen aufgrund der direkten Anwendung von EU-Rechtsakten dennoch daran gebunden.
Die viralen Videos zeigen jedoch, dass die Inhaltsmoderation trotz bemerkenswerter Vorfälle noch nicht perfekt ist.
Im September 2023 verbreitete sich wenige Tage vor den slowakischen Parlamentswahlen ein Deepfake-Audioclip von Michal Šimečka (Progressive Slowakei/Renew). In diesem Clip gab der Kandidat zu, die Wahl zu manipulieren. Das Video verbreitete sich wie ein Lauffeuer. Einige behaupten, dies habe die Wahl zugunsten seines Gegners Robert Fico (Smer) beeinflusst.
In einem Versuch, auf die wachsende Besorgnis über Wahlmanipulationen durch Deepfakes zu reagieren, verpflichteten sich 20 Plattformen im Februar, den betrügerischen Einsatz von KI bei den Wahlen 2024 weltweit zu bekämpfen.
Unabhängig davon identifizierte die EU-Kommission in ihren DSA-Leitlinien generative künstliche Intelligenz als Risiko für die Integrität des Wahlprozesses.
Im März hat die Kommission neun der größten Plattformen in der EU auf ihre Verwendung von generativer künstlicher Intelligenz hin überprüft. Damit will sie bewerten, inwiefern die Plattformen das Gesetz über digitale Dienste einhalten.
[Bearbeitet von Rajnish Singh/Kjeld Neubert]



