Anfang der Woche fand die ersten Plenarsitzung des Verhaltenskodex für allgemeine künstliche Intelligenz (GPAI) statt. Die EU-Kommission gab dabei zu, dass es Meinungsverschiedenheiten zwischen Anbietern von Allzweckmodellen und anderen Interessengruppen gäbe.
Für Anbieter von GPAI-Systemen [universelle künstlichen Intelligenzen; Allzweck-KI] wie ChatGPT stützt sich das EU-KI-Gesetz stark auf den Verhaltenskodex. Dieser legt detailliert dar, was die Anforderungen des Gesetzes an Risikomanagement und Transparenz in der Praxis bedeuten würden, bis die Standards irgendwann im Jahr 2026 endgültig festgelegt sind.
Am Montag (30. September) teilte die Kommission eine internationale und akademisch geprägte Liste der Vorsitzenden und stellvertretenden Vorsitzenden der Arbeitsgruppen mit, die den Kodex entwerfen werden. Sie „begrüßte fast 1.000 Teilnehmer“ zur ersten virtuellen Plenarsitzung des Entwurfsprozesses, wie aus einer E-Mail eines Kommissionssprechers hervorgeht.
Die Arbeitsgruppen werden Anregungen aus drei Quellen erhalten: eine Multi-Stakeholder-Konsultation, Workshops mit Allzweck-KI-Modellanbietern und Vorsitzenden und stellvertretenden Vorsitzenden sowie die Plenarsitzungen des Verhaltenskodex.
Der erste Allzweck-KI-Anbieter-Workshop ist für Mitte Oktober geplant. Laut zwei Quellen wird der erste Entwurf des Kodex wird um den 3. November fertig sein.
„Ein umfassender Bericht [über die Konsultation der Interessengruppen] wird im Herbst veröffentlicht werden“, und die endgültige Fassung des Verhaltenskodex wird „veröffentlicht und in einer abschließenden Plenarsitzung vorgestellt werden, die voraussichtlich im April 2025 stattfinden wird“, heißt es in der E-Mail des Sprechers.
Die Kommission präsentierte auf der Plenarsitzung Folien mit vorläufigen Ergebnissen der Stakeholder-Konsultation, die am 18. September endete. Laut der Kommission enthielt sie „fast 430“ Beiträge aus der Industrie, der Zivilgesellschaft und der Wissenschaft.
Beiträge von Anbietern und Nicht-Anbietern
Die Präsentation, die Euractiv einsehen konnte, zeigte Statistiken und stellte Maßnahmen vor, die viele Interessengruppen in den Kodex aufnehmen möchten.
GPAI-Anbieter steuerten nur fünf Prozent der Beiträge bei, aber die von ihnen unterstützten Maßnahmen wurden gesondert hervorgehoben.
Das KI-Gesetz verlangt von Anbietern, die verwendeten Trainingsdaten, für ihre GPAI-Systeme, zusammenzufassen und gemäß einer Vorlage zu berichten, die vom Büro für künstliche Intelligenz der Kommission entworfen werden soll.
Etwa 70–80 Prozent der Interessenvertreter, die keine Anbieter sind, möchten lizenzierte Inhalte, aus dem Internet kopierte [gescrapte] Daten und offene Datenbestände in diese Vorlage aufnehmen.
Die GPAI-Anbieter befürworteten zwar die Offenlegung lizenzierter, aus dem Internet zusammengestellter, proprietärer, nutzergenerierter und synthetischer Daten, die für Schulungen verwendet werden, waren jedoch weniger bereit, die von ihnen verwendeten offenen Datensätze zu teilen.
In Bezug auf die Risikobewertung waren die Allzweck-KI-Anbieter weniger an strengen Maßnahmen interessiert als andere, wie beispielsweise Audits durch Dritte oder Sicherheitsnachweise im Zusammenhang mit bestimmten Risikoschwellen.
Stattdessen sind sich die meisten Interessengruppen, einschließlich der Allzweck-KI-Anbieter, einig, dass in der Dokumentation die Lizenz, die KI-Systeme, zu denen das Modell gehören kann, und die Aufgaben, die es ausführen soll, angegeben werden sollten.
Akademiker und „Experten in persönlicher Eigenschaft“
Laut den auf der Plenarsitzung vorgestellten Statistiken erhielt die Kommission schriftliche Beiträge von einer vielfältigen Gruppe. 32 Prozent der Antworten kamen aus der Industrie, 25 Prozent von Rechteinhabern, 16 Prozent von der Zivilgesellschaft und 13 Prozent von der Wissenschaft.
Zuvor hatten Organisationen der Zivilgesellschaft befürchtet, dass Internetgiganten zu viel Einfluss auf den Prozess haben würde.
Von den „fast 1000“ Interessengruppen, die an der ersten Plenarsitzung teilnahmen, waren die beiden größten Gruppen „Experten in persönlicher Funktion“ (34 Prozent) und Akademiker (30 Prozent).
Angesichts der hohen Teilnehmerzahl erklärte eine an der Ausarbeitung beteiligte Person gegenüber Euractiv, dass „die Kommission und die Vorsitzenden den Entwurf und die Kommentare, die integriert werden können, genau kontrollieren müssen; andernfalls wird der Prozess nicht funktionieren“.
[Bearbeitet von Eliza Gkritsi/Martina Monti/Kjeld Neubert]