Die Europaabgeordneten, die an den Verhandlungen über das KI-Regelwerk der EU beteiligt sind, haben am Freitag (24. November) ein Arbeitspapier in Umlauf gebracht. Darin wird ein Vorschlag zur Regulierung der leistungsfähigsten KI-Modelle detailliert vorgestellt.
Das KI-Gesetz, ein bahnbrechendes Gesetz zur Regulierung von KI auf der Grundlage ihres Schadenspotenzials, befindet sich in der letzten Phase des Gesetzgebungsverfahrens, in der die EU-Kommission, das Parlament und der Rat in sogenannten Trilogen zusammenkommen, um die endgültigen Bestimmungen auszuarbeiten.
In dieser späten Verhandlungsphase streiten sich die EU-Politiker über den Ansatz für Basismodelle, also leistungsstarke KI-Typen wie GPT-4 von OpenAI, auf dem der berühmteste Chatbot der Welt, ChatGPT, basiert.
Bei einem politischen Trilog Mitte Oktober schien es einen Konsens für einen abgestuften Ansatz zu geben, mit horizontalen Verpflichtungen für alle Basismodelle und zusätzlichen Anforderungen für die Modelle, die ein systemisches Risiko für die Gesellschaft bergen.
Vor zwei Wochen berichtete Euractiv jedoch, wie das weltweit erste umfassende KI-Gesetz in Gefahr war, nachdem sich Frankreich, Deutschland und Italien gegen jegliche Verpflichtung zu Basismodellen gewehrt und das Parlament dazu gebracht hatten, den Verhandlungstisch zu verlassen.
Die drei größten europäischen Volkswirtschaften teilten daraufhin ihre Ansichten in einem Non-Paper mit, in dem sie sich dafür aussprachen, den technologieneutralen und risikobasierten Ansatz des KI-Gesetzes zugunsten von Verhaltenskodizes aufzugeben.
Am Montag (20. November) enthüllte Euractiv einen Kompromisstext der Europäischen Kommission, mit dem versucht wurde, den mehrstufigen Ansatz wiederzubeleben – mit abgeschwächten Transparenzverpflichtungen für alle Basismodelle und Verhaltenskodizes für diejenigen, die ein systemisches Risiko darstellen.
Der überarbeitete mehrstufige Ansatz wurde auf internen Ratssitzungen am Mittwoch und Donnerstag diskutiert, wobei Frankreich skeptisch blieb und Deutschland und Italien eine weniger kompromisslose Haltung einnahmen.
Die meisten Mitgliedstaaten hielten den Text der Kommission für einen Schritt in die richtige Richtung, auch wenn einige Vorbehalte gegen die Definitionen und die weit gefassten Formulierungen in Bezug auf das Sekundärrecht bestehen blieben.
Der Vermittlungsversuch der EU-Kommission hat es jedoch schwerer, vom Europäischen Parlament akzeptiert zu werden, das den mehrstufigen Ansatz bereits als abgeschwächten Kompromiss ansah, aber schließlich das Prinzip akzeptierte, sich mehr auf die folgenreichsten Modelle zu konzentrieren.
„Im Parlament gibt es eine klare Mehrheitsposition, die vielleicht begrenzte, aber klare Verpflichtungen für die Entwickler der leistungsstärksten Modelle will“, sagte Brando Benifei, einer der EU-Abgeordneten, die das Dossier anführten, gegenüber ANSA. Er warnte, dass andernfalls keine politische Einigung gefunden werden könne.
Das Thema sollte eigentlich am Freitag in einem technischen Trilog diskutiert werden. Die Diskussion wurde jedoch auf Montag verschoben, da die spanische Ratspräsidentschaft der Ansicht war, dass sie noch kein Verhandlungsmandat habe.
In der Zwischenzeit haben die federführenden Abgeordneten des Europäischen Parlaments ihren Kollegen ein Arbeitspapier vorgelegt, das Euractiv einsehen konnte und das eine Reihe von verbindlichen Verpflichtungen für Anbieter von Basismodellen vorsieht, die ein systemisches Risiko darstellen.
Zu den Verpflichtungen gehören interne Bewertungen und Tests, einschließlich sogenannter Red-Team-Bewertungen, Maßnahmen zur Cybersicherheit, technischer Dokumentation und Energieeffizienznormen.
„Dem Parlament ist es wichtig zu betonen, dass diese Verpflichtungen nur für den ursprünglichen Entwickler der ausgewiesenen Modelle der Kategorie systemischer Risiken [also OpenAI, Anthropic, StabilityAI, Meta] gelten würden, nicht aber für die nachgelagerten Entwickler, die das Modell überarbeiten oder weiterentwickeln“, heißt es in dem Dokument.
Das KI-Büro wäre dann in der Lage, die technische Dokumentation und die Modellbewertung zu überprüfen und Sanktionen zu verhängen, falls gegen die Anforderungen der Verordnung verstoßen wird.
Beide Seiten unterstützen diese verpflichtenden Anforderungen, während der konservative Europaabgeordnete Axel Voss einen Ansatz, der ausschließlich auf freiwilligen Verpflichtungen basiert, als inakzeptabel bezeichnete. Er erklärte, dass Mindestnormen für Transparenz, Cybersicherheit und Informationspflichten gelten sollten.
„Wir können unsere Augen nicht vor den Risiken verschließen“, sagte er auf X.
Das Parlament möchte die horizontalen Transparenzanforderungen beibehalten, zu denen die Bereitstellung von Modellkarten gehört, die den Schulungsprozess und alle relevanten Informationen enthalten, um die Verpflichtungen des KI-Gesetzes für nachgelagerte Wirtschaftsakteure zu erfüllen, die ein KI-System auf dem Modell aufbauen.
Die Abgeordnete der Grünen Kim Van Sparrentak erklärte gegenüber Contexte, der deutsch-französisch-italienische Ansatz sei „absurd.“ Er wies darauf hin, dass diese Argumentation die gleiche sei wie die der Big-Tech-Unternehmen und dass unverbindliche Initiativen in der Vergangenheit kaum zu Ergebnissen geführt hätten.
In dem Arbeitspapier akzeptieren die Parlamentarier die Idee von EU-Verhaltenskodizes, allerdings nur als Ergänzung zu den horizontalen Transparenzanforderungen für alle Basismodelle und um beispielsweise die bewährten Verfahren der Branche zur Risikobewertung festzulegen.
Darüber hinaus wollen die Abgeordneten den Entwurfsprozess dieser Verhaltenskodizes auf KMU, zivilgesellschaftliche Organisationen und die akademische Welt ausweiten – ein Konzept, das in der Ratsversion des Kommissionskompromisses gestrichen wurde.
Hinsichtlich der Frage, wo die Grenze für Modelle gezogen werden soll, die ein systemisches Risiko darstellen, wird in dem Arbeitspapier dargelegt, dass die EU-Abgeordneten nicht mit einem einzigen quantitativen Grenzwert zufrieden sind, der auf der Menge an Datenverarbeitung basiert, die zum Trainieren eines Modells verwendet wird, wie es von der Kommission vorgeschlagen wurde.
Nach einer Bewertung von Forschern der Stanford University möchte das Parlament, dass die Einstufung auf mehreren Kriterien wie den Fähigkeiten des Modells, der Anzahl der Nutzer, den finanziellen Investitionen, den Modalitäten und den Veröffentlichungsstrategien basiert.
Die Idee ist, dem KI-Büro einen Ermessensspielraum bei der Beurteilung zu geben, ob ein Modell ein systemisches Risiko für die Gesellschaft darstellt, basierend auf dieser vorgegebenen Liste von Kriterien, die überarbeitet werden kann, um mit den Markt- und Technologieentwicklungen Schritt zu halten.
„Wir brauchen Sicherheitsvorkehrungen für diese Modelle wegen ihrer Auswirkungen, ihrer Vielseitigkeit und der Tatsache, dass wir sie bald in vielen Produkten und Dienstleistungen um uns herum finden werden“, sagte der Mitberichterstatter des Parlaments Dragoș Tudorache.
[Bearbeitet von Alice Taylor/Kjeld Neubert]




