In Vorbereitung auf die Wahlen zum Europäischen Parlament im Juni 2024 wird sich Meta auf die Bekämpfung von Fehlinformationen und die Abwehr von Risiken durch künstliche Intelligenz konzentrieren. Dies gab das Unternehmen am Montag (26. Februar) bekannt.
Nach der Ankündigung von Meta am Montag (26. Februar), zieht die Muttergesellschaft der Social-Media-Plattformen Facebook, Instagram, Threads und WhatsApp mit TikTok gleich. Das chinesische Unternehmen hatte seine Vorbereitungen für die Wahlen bereits am 14. Februar angekündigt.
Laut dem Blogbeitrag von Marco Pancini, Leiter der Abteilung für EU-Angelegenheiten bei Meta, werden „Inhalte, die zu drohender Gewalt oder körperlichen Schäden beitragen könnten oder die darauf abzielen, Wahlen zu unterdrücken“, von Facebook, Instagram und Threads entfernt.
Bei Inhalten, die nicht gegen diese Richtlinien verstoßen, arbeitet Meta mit Fact-Checking-Organisationen zusammen – „26 Partnern in der gesamten EU, die 22 Sprachen abdecken“ – um die Inhalte zu überprüfen und zu bewerten.
Um den Faktenfindern das Auffinden und Bewerten von Wahlinhalten zu erleichtern und zu beschleunigen, wird das amerikanische Unternehmen „Schlüsselworterkennung einsetzen, um verwandte Inhalte an einem Ort zusammenzufassen.“
„Unsere Fact-Checking-Partner werden auch in unser neues Recherchetool Meta Content Library eingebunden, das über eine leistungsstarke Suchfunktion verfügt, um sie bei ihrer Arbeit zu unterstützen“, heißt es in dem Blogpost.
Meta wird außerdem ein Elections Operations Center einrichten, um potenzielle Bedrohungen sofort zu erkennen und Strategien zur Schadensbegrenzung in Echtzeit umzusetzen.
Anfang dieses Monats versprach TikTok, „ein in-App-Wahlzentrum in lokaler Sprache für jeden der 27 EU-Mitgliedstaaten einzurichten, um sicherzustellen, dass die Menschen leicht Fakten von Fiktion unterscheiden können.“
Die in chinesischem Besitz befindliche Plattform arbeitet mit neun Fact-Checking-Organisationen in Europa zusammen, die die Richtigkeit der Inhalte in 18 europäischen Sprachen bewerten und „alle Behauptungen, die nicht überprüft werden können“, kennzeichnen.
Werbeanzeigen mit Falschinformationen sowie Anzeigen die von der Stimmabgabe abraten und die Gültigkeit der Wahl oder ihres Ergebnisses in Frage stellen, werden von Meta verboten. Die Anzeigen auf den Social-Media-Plattformen durchlaufen vor und nach der Veröffentlichung „mehrere Ebenen der Analyse und Erkennung.“
Meta arbeitet mit dem European Fact-Checking Standards Network (EFCSN) zusammen, um europäische Fact-Checker für die Bewertung von KI-generierten und digital veränderten Medieninhalten zu schulen. Außerdem starten sie eine Medienkompetenz-Kampagne, um die Öffentlichkeit über die Erkennung solcher Inhalte aufzuklären.
Im Fall von TikTok dürfen Benutzerkonten, die Politikern oder politischen Parteien gehören, auf der Plattform keine Werbung schalten oder Einnahmen erzielen. Wer gegen die Regeln verstößt, muss mit der Löschung seiner Inhalte rechnen.
Die Videoplattform wendet jedoch auch „differenziertere Richtlinien zur Einschränkung von Benutzerkonten an, um das öffentliche Interesse zu schützen.“ Wenn beispielsweise ein Politiker oder eine Partei Fehlinformationen verbreitet, die während einer Wahlperiode manipulierend sein könnten, kann TikTok das Konto bis zu 30 Tage lang für die Veröffentlichung von Inhalten sperren und die Inhalte bei Regelverstößen entfernen.
Verdeckte Einflussnahme
Wie TikTok zuvor erwähnt auch Meta die verdeckte Einflussnahme. Das Unternehmen definiert diese als koordinierte Bemühungen zur Manipulation des öffentlichen Diskurses zu strategischen Zwecken, die von verdeckten Kampagnen mit gefälschten Identitäten bis hin zu offenen Aktionen durch staatlich kontrollierte Medien reichen können.
Um verdeckte Beeinflussungsmaßnahmen zu bekämpfen, hat Meta spezialisierte globale Teams eingerichtet, die sich mit der Unterbindung derartiger Verhaltensweisen befassen, und „eine Sitzung abgehalten, die sich auf Bedrohungen speziell im Zusammenhang mit den Wahlen zum EU-Parlament konzentrierte.“
Das Unternehmen kennzeichnet auch staatlich kontrollierte Medien auf Facebook, Instagram und Threads, um die Nutzer über mögliche staatliche Einflussnahme zu informieren.
Zu den Plänen von TikTok gehört die Einführung spezieller Berichte über verdeckte Beeinflussungsmaßnahmen, um die Transparenz, die Verantwortlichkeit und die branchenübergreifende Zusammenarbeit zu verbessern.
Die Plattform wird außerdem Videos im Zusammenhang mit den Europawahlen kennzeichnen und die Nutzer zum entsprechenden Wahlzentrum leiten. Außerdem werden sie mit Hilfe von Hashtags daran erinnert, sich an die Regeln zu halten, Fakten zu überprüfen und Inhalte zu melden, von denen sie vermuten, dass sie gegen die Gemeinschaftsrichtlinien verstoßen.
Künstliche Intelligenz
KI-generierte Inhalte werden einem Überprüfungsprozess unterzogen. Wird festgestellt, dass sie „verändert“ sind, was „gefälschte, manipulierte oder umgewandelte Audio-, Video- oder Fotoinhalte“ umfasst, kennzeichnet das Unternehmen sie und stuft sie im Feed herunter, um ihre Sichtbarkeit zu minimieren.
Meta kennzeichnet fotorealistische Inhalte, die Meta-KI verwenden, auch wenn sie nicht „verändert“ sind. Das Unternehmen entwickelt zudem Tools zur Kennzeichnung von KI-generierten Bildern aus verschiedenen Quellen, darunter Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock.
Meta plant auch eine Funktion hinzuzufügen, die es Nutzern ermöglichen wird, KI-generierte Inhalte, die sie teilen, durch Hinzufügen einer Kennzeichnung offenzulegen. Passiert dies nicht, können Strafen verhängt werden. Wenn der Inhalt „ein erhebliches Risiko birgt, die Öffentlichkeit in wesentlichen Fragen zu täuschen“, kann das Unternehmen eine deutlichere Kennzeichnung verwenden, „damit die Menschen mehr Informationen und Kontext haben.“
Werbetreibende auf Meta müssen offenlegen, ob sie digital veränderte fotorealistische Bilder, Videos oder realistisch klingende Audiodateien in bestimmten Fällen für Anzeigen im Zusammenhang mit sozialen Themen, Wahlen oder Politik verwenden.
Metas Überprüfungs- und Kennzeichnungsprozess für KI-generierte Inhalte ähnelt sehr dem, den TikTok in diesem Monat angekündigt hat. Letzteres hat jedoch auch erwähnt, dass es einen speziellen „Mission Control“-Raum in seinem Dubliner Büro einrichten wird. Darin sollen spezialisierte Wahlteams aus der Vertrauens- und Sicherheitsabteilung zusammenkommen.
Meta weist darauf hin, dass es mit anderen Unternehmen der Branche zusammengearbeitet hat, um gemeinsame Standards und Richtlinien für die Verbreitung von KI-generierten Online-Inhalten zu entwickeln.
„Diese Arbeit ist größer als ein einzelnes Unternehmen und erfordert enorme Anstrengungen von Industrie, Regierung und Zivilgesellschaft“, heißt es in dem Blogpost abschließend.
[Bearbeitet von Alice Taylor/Kjeld Neubert]



