KI-Basismodelle: EU-Ratspräsidentschaft schlägt Regelwerk vor

Spanien führt derzeit im Namen der EU-Regierungen die Verhandlungen über das Gesetz über künstliche Intelligenz. Dabei handelt es sich um einen richtungsweisenden Gesetzesvorschlag zur Regulierung der KI auf der Grundlage ihres Schadenspotenzials. [Tada Images/Shutterstock]

Die spanische Präsidentschaft des EU-Ministerrats hat im Rahmen der Verhandlungen über das KI-Gesetz eine Reihe von Vorschriften für Basismodelle und Allzweck-KI ausgearbeitet.

Spanien führt derzeit im Namen der EU-Regierungen die Verhandlungen über das Gesetz über künstliche Intelligenz. Dabei handelt es sich um einen richtungsweisenden Gesetzesvorschlag zur Regulierung der KI auf der Grundlage ihres Schadenspotenzials. Das Dossier befindet sich derzeit in der letzten Phase des Gesetzgebungsverfahrens, dem sogenannten Trilog zwischen dem EU-Rat, dem Parlament und der Kommission.

Seit dem rasanten Aufstieg von ChatGPT, einem weltberühmten Chatbot, der auf dem GPT-4-Modell von OpenAI basiert, haben sich die EU-Abgeordnete mit der Frage beschäftigt, wie diese Art von künstlicher Intelligenz unter das KI-Gesetz der EU fallen sollte.

Mitte Oktober berichtete Euractiv, dass die Abgeordneten einen mehrstufigen Ansatz anstrebten, mit einer strengeren Regelung für die leistungsstärksten Basismodelle wie GPT-4. Am Sonntag (5. November) stellte die spanische Ratspräsidentschaft den anderen EU-Staaten die erste ausgearbeitete Version des Gesetzestextes für Rückmeldungen vor, die von Euractiv eingesehen wurde.

KI-Gesetz geht in die Verhandlungsphase

Das Europäische Parlament hat am Mittwoch (14. Juni) mit überwältigender Mehrheit seinen Standpunkt zum KI-Regelwerk angenommen. Damit ist der Weg frei für die interinstitutionellen Verhandlungen, die zum Abschluss des weltweit ersten umfassenden Gesetzes über künstliche Intelligenz führen sollen.

Basismodelle

Das Basismodell wird als „ein umfangreiches KI-Modell [definiert], das mit einer großen Datenmenge trainiert wurde.“ Die Modelle sind zudem „in der Lage ist, ein breites Spektrum an spezifischen Aufgaben zu erfüllen, wie beispielsweise das Generieren von Videos, Texten und Bildern, die Kommunikation in einer Fremdsprache, die Datenverarbeitung oder das Entwickeln von Computercodes.“

Diese Modelle müssen der Transparenzverpflichtung nachkommen. Das heißt, die Betreiber von KI-Systemen müssen aktuelle technische Unterlagen zur Verfügung stellen, in denen die Leistungen und ihre Grenzen sowie eine Reihe von Elementen erläutert werden, die in einer Anlage aufgeführt werden.

Darüber hinaus müssen die Anbieter von Basismodellen nachweisen, dass sie angemessene Maßnahmen ergriffen haben, um sicherzustellen, dass die Entwicklung des Modells im Einklang mit den EU-Richtlinien zum Urheberrecht erfolgt ist. Dies gilt insbesondere für die Data-Mining-Bestimmung, die besagt, dass für Data-Mining-Aktivitäten bei öffentlich zugänglichen Online-Inhalten die Zustimmung der Rechteinhaber erforderlich ist, und zwar auch in maschinenlesbarer Form, wenn die Rechteinhaber die urheberrechtliche Ausnahmeregelung für Text- und Data-Mining abgelehnt haben.

Die Entwickler des Basismodells müssen also ein System einrichten, das die Opt-out-Entscheidungen der Urheber von Inhalten respektiert.

Eine weitere Vorschrift beinhaltet die Veröffentlichung einer ausreichend detaillierten Zusammenfassung der für die Entwicklung des Basismodells verwendeten Inhalte. Außerdem muss der Betreiber auf der Grundlage einer von der Europäischen Kommission zu entwickelnden Vorlage angeben, wie er mit urheberrechtlichen Aspekten umgeht.

Leistungsstarke Basismodelle

Auf der letzten Verhandlungssitzung einigten sich die Abgeordneten auf die Einführung einer strengeren Regelung für „leistungsstarke“ Basismodelle.

Ein „leistungsstarkes“ Basismodell wird als „ein Basismodell definiert, das mit großen Datenmengen trainiert wurde und dessen Komplexität, Funktionen und Leistung weit über dem Durchschnitt für Basismodelle liegt. Es könnte Systemrisiken innerhalb der Wertschöpfungskette verbreiten, unabhängig davon, ob es in ein Hochrisikosystem integriert ist oder nicht.“

Innerhalb von 18 Monaten nach Inkrafttreten des KI-Gesetzes muss die Kommission Durchführungs- oder delegierte Rechtsakte erlassen, um die Bedingungen für die Einstufung eines Basismodells als „leistungsstark“ im Einklang mit den Markt- und Technologieentwicklungen festzulegen.

Die EU-Kommission wird die Basismodelle, die diese Bedingungen erfüllen, in Absprache mit dem KI-Büro, eine neue EU-Einrichtung zur Unterstützung der harmonisierten Anwendung des AI-Gesetzes, festlegen.

Die Bestimmungen des Gesetzes, die klären, wie die Artikel auszulegen sind, werden erläutern, was ein KI-Modell ist und wie es aufgebaut ist. Sie enthalten auch Verweise auf die wissenschaftliche Gemeinschaft, die Interaktion zwischen Datensätzen und Basismodellen und wie KI-Anwendungen darauf aufgebaut werden können.

Zu den Vorschriften für diese Systemmodelle gehört auch die kontradiktorische Prüfung, ein Prozess, der als Red-Teaming bekannt ist. Es bleibt zu diskutieren, wie diese Prüfpflicht für leistungsstarke Basismodelle gelten soll, die als System vermarktet werden, in das Komponenten wie herkömmliche Softwaresysteme integriert sind, so wie es beim GPT-4 der Fall ist.

Wichtig ist, dass die EU-Länder erörtern, ob das Red-Teaming von externen Experten durchgeführt werden muss. Die Ratspräsidentschaft ist der Ansicht, dass der Anbieter dies tun kann, da diese Modelle auch Audits unterzogen werden sollen.

Das KI-Büro könnte Unterlagen anfordern, die belegen, dass das Modell mit dem KI-Gesetz übereinstimmt. Auf begründeten Antrag könnte es ein unabhängiges Audit in Auftrag geben, um die Übereinstimmung des Modells mit dem KI-Gesetz und mit den im Rahmen des unterzeichneten Verhaltenskodexes eingegangenen Verpflichtungen zu bewerten, zu dessen Ausarbeitung die Kommission anregen sollte.

Eine als „möglicherweise zusätzlich“ gekennzeichnete Vorschrift sieht vor, dass die Anbieter von leistungsstarken Basismodellen verpflichtet werden, ein System zur Erfassung schwerwiegender Störungen und entsprechender Abhilfemaßnahmen einzurichten.

Darüber hinaus müssen die Anbieter von leistungsstarken Basismodellen die Systemrisiken in der EU bewerten, einschließlich der Risiken, die sich aus der Einbindung des Modells in ein KI-System ergeben. Dies soll mindestens einmal jährlich nach der Markteinführung und für jede neue Version, die veröffentlicht wird, geschehen.

Die Risikobewertung sollte die Verbreitung illegaler oder schädlicher Inhalte und alle einigermaßen vorhersehbaren negativen Auswirkungen in Bezug auf schwere Zwischenfälle oder die Beeinträchtigung demokratischer Prozesse umfassen.

Die Kommission ist ermächtigt, die Bestimmungen über Basismodelle und leistungsstarke Basismodelle auf der Grundlage von Markt- und Technologieentwicklungen anzupassen.

Großbritannien: Künstliche Intelligenz könnte menschlicher Kontrolle entgleiten

In einem ersten Kommuniquéentwurf des Gipfeltreffens, den Euractiv einsehen konnte, wird die Möglichkeit, dass hochleistungsfähige KI-Modelle der menschlichen Kontrolle entgleiten oder für katastrophale Schäden eingesetzt werden – zum Beispiel zur Herstellung von Biowaffen – als eines der größten Risiken angesehen.

Allzweck-KI

Als Letztes folgen die Allzweck-KI-Systeme wie ChatGPT, bei denen es sich um Systeme handelt, „die auf einem KI-Modell basieren, zusätzliche Komponenten wie herkömmliche Softwares enthalten können und über eine Benutzerschnittstelle die Möglichkeit bieten, eine Vielzahl von Zwecken zu erfüllen, sowohl für die direkte Nutzung als auch für die Einbindung in andere KI-Systeme.“

Die spanische Ratspräsidentschaft schlug Verpflichtungen für Anbieter von Allzweck-KI-Systemen vor, wenn sie Lizenzvereinbarungen mit nachgelagerten Wirtschaftsakteuren abschließen, die das System für einen oder mehrere risikoreiche Anwendungsfälle einsetzen könnten.

Diese Verpflichtungen umfassen die Angabe der risikoreichen Einsatzbereiche, für die das System verwendet werden kann, sowie die Bereitstellung technischer Unterlagen und aller Informationen, die für den nachgelagerten KI-Anbieter relevant sind, um die Anforderungen an die risikoreichen Einsatzbereiche zu erfüllen.

Die Anbieter von Allzweck-KI-Systemen können auch bestimmte risikoreiche Anwendungen verbieten. In diesem Fall müssen sie alle notwendigen und verhältnismäßigen Maßnahmen ergreifen, um mögliche Fehlanwendungen aufzudecken und durchzusetzen.

[Bearbeitet von Nathalie Weatherald/Kjeld Neubert]

Abonnieren Sie unsere Newsletter

Abonnieren