Die führenden EU-Abgeordneten bei der Ausarbeitung des KI-Gesetzes haben die ersten Kriterien vorgeschlagen, um die leistungsstärksten Basismodelle zu ermitteln. Für diese sollen besondere Regelungen gelten.
Das KI-Gesetz ist ein richtungsweisender EU-Gesetzesvorschlag zur Regulierung der künstlichen Intelligenz auf der Grundlage ihres Schadenspotenzials für Menschen. Das Dossier befindet sich derzeit in der letzten Phase des Gesetzgebungsverfahrens, dem sogenannten Trilog, bei dem die EU-Kommission, das Parlament und der Ministerrat die endgültigen Bestimmungen aushandeln.
Einer der strittigen Punkte in dieser letzten Verhandlungsphase ist der Umgang mit Basismodellen wie GPT-4. Auf deren Grundlage können verschiedene KI-Anwendungen wie der weltbekannte Chatbot ChatGPT aufgebaut werden.
Am Dienstag (7. November) berichtete Euractiv, dass die spanische Ratspräsidentschaft des EU-Ministerrats einen ersten Entwurf von Vorschriften für Basismodelle, einschließlich der leistungsstärksten Modelle, vorgelegt hat.
Am Mittwoch haben die Büros der Co-Berichterstatter des Europäischen Parlaments, Dragoș Tudorache und Brando Benifei, den Abgeordneten eine Stellungnahme zum Entwurf des Ratsvorsitzes übermittelt. Der Text der Co-Berichterstatter wird am Donnerstag in einer Sitzung diskutiert.
Klassifizierung der Basismodelle
Ein wichtiger Aspekt dieses mehrstufigen Ansatzes ist die Abgrenzung der „leistungsstarken“ Basismodelle von den anderen Modellen. Im Vorschlag des Rates wurde die Kommission beauftragt, innerhalb von 18 Monaten nach Inkrafttreten des Gesetzes sekundäre Rechtsvorschriften zur Festlegung der Grenzwerte auszuarbeiten.
Für die leitenden Europaabgeordneten sind diese Kriterien zu wichtig, um sie allein der Kommission zu überlassen. Daher schlugen sie vier erste Kriterien vor, für die konkrete Grenzwerte festgelegt werden müssen, falls sie angenommen werden.
Bei den Kriterien handelt es sich um die Menge der für das Training verwendeten Datenstichproben, die Größe der Parameter, die das Modell repräsentieren, den in Gleitkommaoperationen gemessenen Rechenaufwand für das Training und einige Leistungsmaßstäbe, die noch vollständig ausgearbeitet werden müssen.
In diesem Fall müsste die Kommission innerhalb von 18 Monaten eine Methode zur Bewertung solcher Grenzwerte vorlegen. Darüber hinaus wäre die EU-Kommission befugt, die Grenzwerte anzupassen, wenn beispielsweise durch den technologischen Fortschritt die Menge der für das Training eines leistungsfähigen Basismodells erforderlichen Daten reduziert wird.
Es bleibt zu diskutieren, ob alle Grenzwerte eingehalten werden sollten oder ob einige genügen. Nach dem Vorbild des Gesetzes über digitale Dienste wollen die Parlamentarier, dass die Betreiber über die vorgegebenen Grenzwerte Informationen liefern.
Die Kommission könnte ihre Entscheidung über die Klassifizierung jedoch auch auf andere Informationen stützen, die sie im Rahmen der Offenlegungspflichten erhält. Die Klassifizierung soll wegfallen, wenn das Modell mindestens ein Jahr lang unter den relevanten Schwellenwerten bleibt, so der Text der Abgeordneten.
Für die anführenden Abgeordneten des Europäischen Parlaments ist eine Definition von leistungsstarken Basismodellen nicht notwendig, da ihre Klassifizierung auf den Grenzwerten beruhen wird.
Vorschriften für Betreiber von leistungsstarken Basismodellen
Die Co-Berichterstatter haben auch einige Änderungen an den Vorschriften für Betreiber von leistungsstarken Modellen vorgeschlagen. Es wurde festgelegt, dass die Vorschriften unabhängig davon gelten, ob das Modell unter freien und Open-Source-Lizenzen zur Verfügung gestellt wird.
Die führenden Europaabgeordneten wollen, dass leistungsstarke Basismodelle in der öffentlichen EU-Datenbank registriert werden. Diese Datenbank war ursprünglich für Nutzer von risikoreichen KI-Systemen gedacht.
Es wurde eine zusätzliche Vorschrift vorgeschlagen, die besagt, dass diese leistungsstarken Modelle relevante Ressourcenverbrauchsstandards einhalten müssen.
Der Vorschlag des Ratsvorsitzes sieht vor, dass diese Betreiber potenzielle Systemrisiken bewerten müssen. Die Abgeordneten schlugen vor, zusätzlich zu den Systemrisiken alle vorhersehbaren negativen Auswirkungen auf Grundrechte, geschlechtsspezifische Diskriminierung, den Schutz der öffentlichen Gesundheit, der Umwelt und von Minderjährigen zu berücksichtigen.
Hinsichtlich der Risikobegrenzung wollen die Abgeordneten das KI-Büro damit beauftragen, einen jährlichen Bericht zu veröffentlichen, der die wichtigsten wiederkehrenden Risiken identifiziert, die besten Methoden zur Risikobegrenzung aufzeigt und Systemrisiken nach Mitgliedsstaaten aufschlüsselt.
Basismodelle
Der vorliegende Ansatz beinhaltet die Festlegung einiger horizontaler Vorschriften für alle Basismodelle. Die Co-Berichterstatter sind jedoch der Ansicht, dass die Definition des Rates für Basismodelle unklar ist, da einige Elemente mit generativer KI verwechselt werden könnten.
Der Text des Parlaments stellt klar, dass diese Vorschriften gelten, bevor das Modell auf den Markt gebracht wird. Die von der spanischen Ratspräsidentschaft eingeführten Querverweise zum EU-Urheberrecht wurden in einen bestimmten Artikel für generative KI verschoben.
Generative KI
Die mit dem Dossier betrauten Europaabgeordneten schlugen einen neuen Artikel mit Vorabbestimmungen für generative Basismodelle und KI-Systeme vor, die synthetische Audio-, Bild-, Video- oder Textinhalte auf der Grundlage von aus Daten gelernten Verknüpfungen und Mustern generieren können.
Für die Parlamentarier müssen die Ergebnisse dieser Systeme in maschinenlesbarem Format als künstlich generiert oder manipuliert gekennzeichnet werden.
Darüber hinaus müssten die Anbieter „das Basismodell oder das KI-System so trainieren und gegebenenfalls konzipieren und entwickeln, dass angemessene Garantien gegen die Erzeugung von Inhalten gewährleistet sind, die gegen das Unionsrecht verstoßen, ohne dass die Grundrechte, einschließlich der Meinungsfreiheit, beeinträchtigt werden.“
Die Bestimmungen des spanischen Ratsvorsitzes, wonach diese Anbieter eine detaillierte Zusammenfassung der für das Training des Modells verwendeten Inhalte vorlegen und nachweisen müssen, dass sie angemessene Maßnahmen zur Wahrung des Urheberrechts ergriffen haben, wurden beibehalten.
Der Absatz über die Schaffung von Kapazitäten, die die Opt-out-Entscheidungen der Urheber von Inhalten respektieren, wurde jedoch gestrichen.
Schließlich verpflichtet der Text die Anbieter, „sicherzustellen, dass ihre Systeme wirksam, interoperabel, robust und zuverlässig sind, soweit dies technisch machbar ist, wobei die Besonderheiten und Einschränkungen der verschiedenen Arten von Inhalten zu berücksichtigen sind.“
Allzweck-KI
Die Co-Berichterstatter schlugen vor, Allzweck-KI als „ein KI-System zu definieren, das in einem breiten Spektrum von Anwendungsbereichen eingesetzt und an diese angepasst werden kann, für die es aber nicht absichtlich und speziell entwickelt wurde.“
Hinsichtlich der Verpflichtungen bestehen die Ko-Berichterstatter auf der Beibehaltung des Parlamentstextes über die Verantwortlichkeiten entlang der gesamten AI-Wertschöpfungskette der Anbieter.
[Bearbeitet von Zoran Radosavljevic/Kjeld Neubert]




