Die slowenische Ratspräsidentschaft hat einen Kompromisstext zum KI-Gesetzentwurf der EU in Umlauf gebracht, der wichtige Änderungen in den Bereichen Social Scoring, biometrische Erfassungssysteme und risikoreiche Anwendungen enthält und gleichzeitig zukünftige Diskussionspunkte aufzeigt.
Die rotierende EU-Ratspräsidentschaft hat am Montag (29. November) einen ersten Kompromisstext veröffentlicht, der einen Fortschrittsbericht zum KI-Gesetzentwurf der EU begleitet.
Anwendungsbereich und Definitionen
In dem von EURACTIV eingesehenen Fortschrittsbericht bekräftigen die EU-Länder ihre ausschließliche Zuständigkeit für nationale Sicherheitsfragen und bestehen darauf, dass KI-Systeme, die ausschließlich für militärische Zwecke entwickelt werden, aus dem Anwendungsbereich der Verordnung herausgenommen werden sollten.
KI-Systeme, die ausschließlich zum Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt werden, wurden ebenfalls aus dem Anwendungsbereich ausgeschlossen.
Die Präsidentschaft hat die Definition von KI-Systemen präzisiert, um sie besser von klassischen Softwareprogrammen abzugrenzen. KI-Systeme sind demnach in der Lage, Daten oder andere Eingaben zu verarbeiten, „um durch Lernen, Schlussfolgerungen oder Modellierung den Weg zur Erreichung bestimmter, vom Menschen definierter Ziele zu finden“, heißt es in dem Kompromiss.
KI-Anbieter werden nun definiert als eine Person oder Organisation, „die ein KI-System entwickelt hat und dieses System auf den Markt bringt oder in Betrieb nimmt“. Die Anbieter werden dafür verantwortlich sein, die Einhaltung der Anforderungen der Verordnung zu gewährleisten.
Es wurde eine neue Kategorie von KI-Systemen mit „allgemeinem Verwendungszweck“ hinzugefügt, die nicht in den Anwendungsbereich der Verordnung fallen, es sei denn, das System wird unter einer Trademark geführt oder in ein anderes System integriert, das der Verordnung unterliegt.
Social Scoring
Der Kommissionsvorschlag enthält ein Verbot von KI-Anwendungen, die als inakzeptable Risiken gelten. Eine davon ist das Social Scoring, eine in China eingeführte Praxis, die als Förderung der Massenüberwachung angesehen wird.
Die Präsidentschaft schlägt nun vor, das Verbot des Social Scoring von öffentlichen Behörden auf private Einrichtungen auszuweiten. Darüber hinaus wurde die Definition der verbotenen Nutzung um die Ausnutzung einer „sozialen oder wirtschaftlichen Situation“ erweitert.
Diese Änderungen könnten weitreichende Auswirkungen auf den Finanzsektor haben, da beispielsweise die Zinssätze für Kredite derzeit auf der Grundlage der Rückzahlungswahrscheinlichkeit berechnet werden.
Auch die Verwendung von KI-Systemen für die Berechnung von Versicherungsprämien wurde als Hochrisikosystem aufgenommen.
Biometrische Erfassung
Die von den Rechtsvorschriften erfassten biometrischen Erfassungssysteme werden nicht mehr als „ferngesteuert“ definiert, sondern als jedes System, das zur Identifizierung von Personen „ohne deren Zustimmung“ führt.
Die Möglichkeit, biometrische Erfassungssysteme in Echtzeit einzusetzen, wurde auf Akteure ausgedehnt, die keine Strafverfolgungsbehörden sind, aber mit ihnen zusammenarbeiten. Der Grund für den Einsatz dieser Systeme wurde auf den Schutz kritischer Infrastrukturen ausgedehnt.
Biometrische Systeme dürfen nur nach Genehmigung durch die Justizbehörde eingesetzt werden. In dringenden Fällen sah der ursprüngliche Vorschlag vor, dass die Genehmigung auch nachträglich beantragt werden kann.
Nach dem neuen Text hingegen muss die Genehmigung „unverzüglich während der Verwendung beantragt werden, und wenn die Genehmigung abgelehnt wird, ist die Verwendung mit sofortiger Wirkung einzustellen.“
Hochrisikosysteme
Der KI-Gesetzentwurf führt spezifische Verpflichtungen ein, die ein hohes Risiko in Bezug auf Gesundheit, Sicherheit und Grundrechte bergen. In ihrem Vorschlag hat die Kommission acht Hochrisikobereiche identifiziert, die nicht geändert, sondern nur weiter definiert werden können.
Die wichtigste Änderung in der Liste der Hochrisikosysteme ist die Aufnahme digitaler Infrastrukturen zum Schutz der Umwelt, insbesondere „KI-Systeme, die zur Kontrolle von Emissionen und Verschmutzung eingesetzt werden sollen“.
Im Bereich der Strafverfolgung wurde die Unterkategorie der Kriminalitätsanalyse gestrichen.
Der Kompromisstext sieht vor, dass die Europäische Kommission die Liste der Hochrisikosysteme alle zwei Jahre zusammen mit der Liste der von der Verordnung erfassten KI-Techniken und -Ansätze bewerten muss.
Noch offene Fragen
Im Fortschrittsbericht wird eine Reihe von Bereichen vorweggenommen, die voraussichtlich weiterer Erörterung bedürfen.
Die Anforderungen an Hochrisikosysteme werden als vage bezeichnet und bedürfen praktischer Leitlinien, um den Unternehmen die Einhaltung zu erleichtern. Die angeführten Beispiele beziehen sich darauf, wie die Anforderungen an die Datenqualität und die Transparenz in der Praxis erfüllt werden können.
Außerdem haben mehrere EU-Länder betont, dass die Forderung nach vollständigen und fehlerfreien Datensätzen weitgehend unrealistisch sein könnte. „Eine Reihe von Delegationen betonte, dass dies zwar so weit wie möglich der Fall sein sollte, aber keine absolute Anforderung darstellen sollte“, heißt es in dem Bericht.
Mehrere Mitgliedstaaten betonten auch die Komplexität der Wertschöpfungskette, „in der die Grenzen zwischen den verschiedenen Akteuren nicht immer klar gezogen sind“. Infolgedessen müsse die Verteilung der Zuständigkeiten möglicherweise neu bewertet werden, um der Realität der KI-Wertschöpfungsketten besser gerecht zu werden.
Der übermäßige Verwaltungsaufwand für KMU war ein wiederkehrendes Thema in den Diskussionen, ein Thema, das auch auf dem letzten Gipfel der EU-Staats- und Regierungschefs angesprochen wurde.
Bedenken wurden auch hinsichtlich des Verhältnisses des KI-Gesetzentwurfs zu anderen EU-Rechtsvorschriften geäußert, um widersprüchliche Rechtsvorschriften zu vermeiden, insbesondere in Bezug auf Datenschutz, Strafverfolgung, Produktsicherheit und andere sektorale Rechtsvorschriften.
[Bearbeitet von Frédéric Simon]




