Um mit dem EU-Parlament über die heikle Frage der Regulierung von Basismodellen im Rahmen des kommenden KI-Gesetzes zu verhandeln, hat die spanische EU-Ratspräsidentschaft einen überarbeiteten Vorschlag vorgelegt.
Das KI-Gesetz ist ein Leitgesetz zur Regulierung der künstlichen Intelligenz auf der Grundlage ihrer Fähigkeit, Schaden zu verursachen. Das Dossier befindet sich in der letzten Phase des Gesetzgebungsverfahrens, dem sogenannten Trilog, bei dem die EU-Kommission, der Rat der EU und das Europäische Parlament die Regulierungsbestimmungen aushandeln.
Die EU-Institutionen streben an, beim nächsten politischen Trilog am 6. Dezember eine Einigung zu erzielen. Im Vorfeld dieses entscheidenden Termins benötigt Spanien, das im Namen der EU-Staaten verhandelt, ein überarbeitetes Mandat.
Euractiv berichtete über den ersten Teil des Mandats zum Thema Strafverfolgung, der am heutigen Mittwoch (29. November) im Ausschuss der Ständigen Vertreter diskutiert werden soll.
Der zweite Teil des Mandats wurde am Montag in Umlauf gebracht, aber der Teil über Basismodelle wurde am Dienstagabend separat veröffentlicht. Er wird am Freitag auf der Ebene der Botschafter verhandelt.
Basismodelle
Die Regeln für Basismodelle und leistungsstarke Arten von künstlicher Intelligenz wie OpenAIs GPT-4, welches ChatGPT antreibt, sind zu einem Streitpunkt bei den Verhandlungen geworden. Beim letzten Trilog schien man sich auf einen abgestuften Ansatz für Basismodelle zu einigen, mit strengeren Auflagen für die leistungsstärksten Modelle.
Vor drei Wochen jedoch gerieten die Verhandlungen ins Stocken, da sich Frankreich mit Unterstützung Deutschlands und Italiens zunehmend gegen verbindliche Regeln für diese Modelle aussprach, die über Verhaltenskodizes hinausgehen.
Letzte Woche versuchte die Kommission, einen Mittelweg zu finden, und schlug horizontale Regeln für alle Allzweck-KI-Modelle (GPAI) und Verhaltenskodizes für die Spitzenmodelle vor. Die Präsidentschaft schlug den nationalen Delegierten denselben Kommissionstext mit nur einer kleinen Änderung vor.
Das EU-Parlament forderte jedoch in einem Arbeitspapier, welches Euractiv vorliegt, strengere Regeln für diese Modelle. Die Ratspräsidentschaft hat den Kompromiss der Kommission hingegen weitgehend übernommen. Die Europäische Kommission hat am Sonntag (19. November) daraufhin einen Kompromiss in Umlauf gebracht, die einige Elemente des Parlaments enthalten.
Das Verfahren zur Einstufung von Allzweck-KI-Modellen als systemische Risiken wurde weitgehend beibehalten. Nach wie vor gibt es zwei quantitative Schwellenwerte: der für das Training verwendete Rechenaufwand ist größer als 10~26 und die Zahl der geschäftlichen Nutzer in der EU übersteigt 10.000.
Auch die horizontalen Verpflichtungen für alle Allzweck-KI-Modelle wurden beibehalten, darunter die Gewährleistung, dass KI-generierte Inhalte als künstlich erzeugt oder manipuliert erkannt werden können. Es wurde eine Anforderung hinzugefügt, wonach die Modellevaluierung nach standardisierten Protokollen erfolgen muss.
In Bezug auf das Urheberrecht wird von den Modellanbietern nach wie vor verlangt, dass sie „angemessene Maßnahmen“ ergreifen, um die gesetzlichen Anforderungen zu erfüllen, und dass sie eine hinreichend detaillierte Zusammenfassung der Trainingsdaten und der urheberrechtlichen Bestimmungen veröffentlichen.
Für Allzweck-KI-Modelle mit systemischen Risiken schreibt der Kommissionstext interne Maßnahmen und einen regulatorischen Dialog mit der Kommission vor, um potenzielle systemische Risiken zu ermitteln und zu mindern. Zusätzlich muss ein angemessenes Cybersicherheitsniveau gewährleistet werden.
Modellanbieter können die Einhaltung der horizontalen und systemspezifischen Verpflichtungen durch die Beachtung von Verhaltenskodizes nachweisen.
Darüber hinaus schlägt die Präsidentschaft vor, die Anbieter von Allzweck-KI-Systemen wie ChatGPT zu verpflichten, den diese Systeme nutzenden Wirtschaftsakteuren alle relevanten Informationen zur Verfügung zu stellen, damit sie den Verpflichtungen des KI-Gesetzes nachkommen können. Wenn die Anbieter von Allzweck-KI-Systemen deren Nutzung in einem Hochrisikoszenario zulassen, müssen sie dies angeben und die entsprechenden Anforderungen erfüllen.
Die nationalen Delegierten wurden gefragt, ob der vorgeschlagene Text annehmbar wäre, wenn sie bei der Aufnahme von Verweisen auf die Energieeffizienz in die Verhaltenskodizes für Modelle mit systemischen Risiken flexibel wären. Außerdem wurden sie gefragt, ob sie die Ausnahme von Open-Source-Modellen akzeptieren würden.
Governance
In Bezug auf die Governance bat die Ratspräsidentschaft darum, mit einem Mandat zu verhandeln, das den Vorschlag der Kommission von letzter Woche weitgehend unberührt lässt.
Dieser neue Ansatz wird durch die neue Regelung für leistungsstarke KI-Modelle erforderlich und konzentriert sich auf ein KI-Büro, das bei der Kommission angesiedelt ist und eine enge Verbindung zur Forschung unterhält.
Der Europäische Ausschuss für künstliche Intelligenz, in dem die nationalen Behörden zusammenkommen, bliebe eine Koordinierungsplattform und ein Beratungsgremium für die Kommission. Der Rat möchte Flexibilität im Hinblick auf die Ernennung von mehr als einer zuständigen Behörde auf nationaler Ebene beibehalten.
Zugang zum Quellcode
Die Ratspräsidentschaft forderte auch ein überarbeitetes Mandat für weniger umstrittene Teile des Gesetzes.
Im ursprünglichen Vorschlag waren die Marktaufsichtsbehörden und Konformitätsbewertungsstellen ermächtigt, Zugang zum Quellcode zu verlangen, wenn sie die Einhaltung der Anforderungen des KI-Gesetzes bei KI-Systemen mit hohem Risiko bewerten.
Während das EU-Parlament diese Möglichkeit aus dem Gesetzentwurf entfernt hat, ist die Ratspräsidentschaft der Ansicht, dass „es wichtig ist, diese Möglichkeit zumindest für die Marktüberwachungsbehörden beizubehalten, damit diese unter bestimmten Bedingungen Zugang zum Quellcode erhalten können.“
Strafmaßnahmen
Hinsichtlich der Strafmaßnahmen schlägt die Präsidentschaft vor, den Abgeordneten auf halbem Wege entgegenzukommen. Die Bußgelder werden als Prozentsatz des weltweiten Jahresumsatzes des Unternehmens oder eines vorher festgelegten Betrags festgelegt, abhängig davon, welcher Betrag höher ist.
Die Präsidentschaft schlug 6,5 Prozent für Verstöße gegen die verbotenen KI-Anwendungen, drei Prozent für Verstöße gegen die Verpflichtungen des KI-Gesetzes und 1,5 Prozent für die Übermittlung falscher Informationen vor.
Inkrafttreten
Was den Zeitpunkt des Inkrafttretens des KI-Regelwerks betrifft, so schlug die Ratspräsidentschaft vor, dass die Verordnung zwei Jahre nach ihrem Inkrafttreten gelten soll. Eine Ausnahme bilden die Abschnitte über die Konformitätsbewertungsstellen, die Governance und die Strafmaßnahmen, die um 12 Monate vorgezogen werden sollen.
KI-Kenntnisse
Des Weiteren wurde vereinbart, dass KI-Anbieter und -Betreiber Maßnahmen ergreifen sollen, um ein ausreichendes Niveau an KI-Kenntnissen bei ihren Mitarbeitern sicherzustellen. Der Verweis auf solche Maßnahmen auf nationaler und EU-Ebene wurde dagegen gestrichen.




