Die Rechenschaftspflichten im Digital Services Act müssen bestehen bleiben

DISCLAIMER: Die hier aufgeführten Ansichten sind Ausdruck der Meinung des Verfassers, nicht die von EURACTIV Media network.

Risikobewertungen und Überprüfungen sind notwendig, um große Online-Plattformen in die Pflicht zu nehmen, schreiben Nienke Palstra, Emma Ruby-Sachs, Claudia Prettner und Jesse Lehrich. [Shutterstock]

Die Bestimmungen des Digital Services Act zur Risikobewertung und Audit von Tech-Unternehmen müssen bleiben und verbessert werden, wenn wir diese für schädliche Unternehmenspraxen und Rechtsverletzungen zur Rechenschaft ziehen wollen, schreiben Nienke Palstra, Emma Ruby-Sachs, Claudia Prettner und Jesse Lehrich.

Nienke Palstra ist Senior Campaigner bei Global Witness.

Emma Ruby-Sachs ist Geschäftsführerin bei SumOfUs.

Claudia Prettner ist Rechts- und Politikberaterin bei Amnesty International.

Jesse Lehrich ist der Gründer von Accountable Tech.

Während die Temperaturen in Brüssel gerade auf ein sommerliches Niveau ansteigen, kommen auch die Verhandlungen über den Digital Services Act der EU auf Betriebstemperatur.

Von Vielen unbemerkt, wurde im vergangenen Monat eine Stellungnahme des EU-parlamentarischen Ausschusses für bürgerliche Freiheiten, Justiz und Inneres veröffentlicht. Das vom deutschen EU-Parlamentsabgeordneten der Piratenpartei Patrick Breyer verfasste Dokument macht den radikalen Vorschlag, zwei der zentralen Rechenschaftspflichten für sehr große Online-Plattformen fallen zu lassen: die Risikobewertung (Artikel 26) und die unabhängige Prüfung (Artikel 28).

Die Argumente Breyers für die Streichung der beiden Bestimmungen ist die Sorge über die freie Meinungsäußerung, die Erweiterung des Umfangs der Rechtsvorschrift auf Inhalte, die zwar schädlich, aber legal sind, sowie die Befugnisse, die Plattformen und privaten Prüfungsorganen gegenüber öffentlichen Behörden eingeräumt werden.

Tatsächlich wäre die Streichung dieser Artikel aber gerade für jenes Grundecht, dass Breyer zu schützen versucht, kontraproduktiv. Risikobewertungen und Audit sind notwendig, um beispielsweise Online-Plattformen für gewisse Designaufmachungen – wie Empfehlungs- und Werbesysteme – verantwortlich zu halten und um sicherzustellen, dass den aus ihren Diensten entstehenden Risiken etwas entgegengehalten wird.

Die auf Algorithmen basierenden Empfehlungssysteme von Plattformen funktionieren oft als Manipulationsmaschinen, die so ausgestaltet sind, dass die Verbreitung von schädlichen Inhalten – wie Gewalt, Hass oder Verschwörungstheorien – verstärkt wird.

Missbräuchliche und hasserfüllte Inhalte zielen insbesondere auf Frauen, People of Colour, LGBTI* sowie andere gefährdete Gruppen ab. Dadurch werden gerade vulnerable Gruppen zum Schweigen gebracht, oder aus der Online-Welt vertrieben, und damit letztendlich deren Recht auf freie Meinungsäußerung untergraben.

Die Art und Weise, wie diese beiden Artikel derzeit formuliert sind, ist nicht perfekt. Der Wortlaut lässt zu viel Spielraum für Schlupflöcher und unzureichende oder anderweitig problematische Umsetzungen durch Plattformen.

Artikel 26 basiert derzeit auf einer Liste an Grundrechten, auf deren Einhaltung sich Plattformen selbst überprüfen müssen. Einige der wichtigsten und am weitesten verbreiteten Rechtsverletzungen – wie Daten- oder Konsumentenschutz sind jedoch ausgenommen.

Auch in Bezug auf den Audit gibt es die berechtigte Befürchtung, dass jene Probleme, die bereits aus der Finanzüberprüfung bekannt sind, wiederholt werden könnten. Dort spielt die Überprüfung vor allem den „Big Four“ der Wirtschaftsüberprüfungsunternehmen in die Hände, während das Problem des Interessenskonflikts aber weiter fortbesteht.

Doch die Bestimmungen über Risikobewertung und des Audits vollkommen fallen zu lassen würde bedeuten, das Kind mit dem Bad auszuschütten.

Der Vorschlag zum Digital Services Act versucht hierbei die richtige Balance zu finden, um auf der einen Seite die Redefreiheit zu bewahren und Upload-Filter zu verhindern; und auf der anderen Seite Tech-Unternehmen für schädliches Verhalten und die Verwässerung von Grundrechten zur Verantwortung zu ziehen.

Wenn es also keine Regelungen über Risikobewertung und Audit gibt, wie soll der Gesetzgeber dann gegen diese systematischen Rechtsverletzungen vorgehen können?

Wenn sie auf die richtige Art und Weise angegangen werden, sind Risikobewertung und Audit elegante Lösungen, um die Auswirkung von Tech-Unternehmen auf unsere Gesellschaften und Rechte zu eruieren und einen Richtungswechsel einzuleiten. Kurz gesagt: Risikobewertung und Audit stellen einen Weg aus der Sisyphusarbeit der Content-Moderation dar.

Der Vorschlag kann und sollte jedoch verbessert werden, indem die Risikobewertung umfassender ausgestaltet wird und die existierenden und potenziellen Auswirkungen von Online-Diensten und Geschäftsmodellen von Tech-Giganten vermehrt ins Visier genommen werden, und auf alle Grundrechte ausgeweitet werden.

Dies sollte in Übereinstimmung mit internationalen Standards und menschenrechtlichen Sorgfaltspflichten – wie den UN-Leitprinzipien für Wirtschaft und Menschenrechte – geschehen. Zusätzlich ist es entscheidend, dass Plattformen nicht nur dazu verpflichtet werden systemische Risiken abzuschwächen, sondern, sofern diese erkannt werden, auch vollkommen einzustellen.

Breyer hat allerdings recht, dass man die Art und Weise, wie Audits durchgeführt werden, genauer unter die Lupe nehmen muss. Denn wollen wir wirklich, dass Risikobewertungen von privaten Organisationen oder Institutionen übernommen werden, die von den Unternehmen selbst damit beauftragt wurden?

Audits sind eines der wesentlichen Instrumente des DSA und sollten daher von unabhängig berufenen Expert:innen durchgeführt werden, anstelle von traditionellen Wirtschaftsprüfungsunternehmen. Um die Sinnhaftigkeit der Audits zu gewährleisten, sollten diese Fachleute nicht nur Expertise im Bereich des Plattform-Designs mitbringen, sondern auch dazu verpflichtet werden, alle erforderlichen Informationen und Daten – inklusive der Algorithmen von Plattformen – einzuholen.

Diese Art von Wirtschaftsprüfung mag bislang noch nicht existieren, aber die EU sollte alles daransetzen, um deren Herausbildung zu fördern, anstatt gar keine Mechanismen zur unabhängigen Überprüfung mehr zu haben.

Der Digital Services Act ist verbesserungswürdig, aber nicht auf die Art und Weise, die Breyer vorschlägt.

Subscribe to our newsletters

Subscribe