Das weltweit erste umfassende KI-Gesetz geht in die wohl letzten intensiven Verhandlungen über. Die EU-Institutionen müssen jedoch noch ihren Ansatz für die leistungsstärksten „Basismodelle“ und die Bestimmungen in den Bereichen der Rechtsdurchsetzung ausarbeiten.
Nach dem hochrangigen Treffen zwischen dem Rat, dem Parlament und der Kommission gab es keine klare Einigung. Der Trilog, wie die interinstitutionellen Verhandlungen im EU-Jargon genannt werden, begann am Dienstagabend (24. Oktober) und zog sich bis in die frühen Morgenstunden des Mittwochs hin.
Die Abgeordneten einigten sich auf die Bestimmungen zur Einstufung von KI-Anwendungen mit hohem Risiko und gaben allgemeine Leitlinien für den Umgang mit leistungsstarken Basismodellen und deren Überwachung vor. Die Bestimmungen zu Verboten und zur Rechtsdurchsetzung wurden jedoch kaum behandelt.
Alle Augen richten sich nun auf den nächsten Trilog am 6. Dezember, bei dem eine politische Einigung erwartet wird, aber nicht garantiert ist. In der Zwischenzeit wurden neun technische Sitzungen zur Festlegung des Textes über einige der schwierigsten und folgenreichsten Aspekte des KI-Gesetzes angesetzt.
Klassifizierungsregeln für risikoreiche KI-Systeme
Das KI-Gesetz verfolgt einen risikobasierten Ansatz. Demnach müssen KI-Modelle, die ein erhebliches Risiko für die Gesundheit, die Sicherheit und die Grundrechte der Menschen darstellen können, strenge Auflagen erfüllen, wie etwa in Bezug auf Risikomanagement und Daten-Governance.
Im ursprünglichen Vorschlag wurden alle KI-Anwendungen, die unter eine vorher festgelegte Liste kritischer Anwendungsfälle fallen, als hochriskant eingestuft. Beim letzten Trilog am 2. Oktober wurde jedoch ein mögliches Filtersystem vorgeschlagen, das es KI-Entwicklern ermöglicht, von dieser strengeren Regelung ausgenommen zu werden.
Die Kriterien unterlagen einer umfangreichen Überarbeitung und einer rechtlichen Prüfung durch den juristischen Dienst des Europäischen Parlaments, die allerdings negativ ausfiel. Dennoch stimmt der vereinbarte Text im Wesentlichen mit dem überein, über den Euractiv zuvor berichtet hatte.
Die einzige Ausnahmeregelung, die geändert wurde, bezieht sich auf die Erkennung von Abweichungen im Entscheidungsprozess und besagt, dass das KI-System nicht dafür gedacht sein darf, „die zuvor abgeschlossene menschliche Bewertung zu ersetzen oder zu beeinflussen, ohne dass eine ordnungsgemäße Überprüfung durch den Menschen erfolgt.“
In dem aus dem letzten Trilog hervorgegangenen Text wird die Kommission beauftragt, eine umfassende Liste mit praktischen Beispielen für risikoreiche und nicht risikoreiche Anwendungsfälle zu erstellen. Die Bedingungen, unter denen die EU-Kommission die Ausnahmeregelungen ändern kann, werden von den Juristen noch genauer ausgearbeitet.
In einem Entwurf, der Euractiv vorliegt, wird die Kommission nur dann neue Filter hinzufügen können, wenn es konkrete und verlässliche Beweise dafür gibt, dass KI-Systeme in die Hochrisikokategorie fallen, ohne ein erhebliches Risiko für Menschen darzustellen.
Umgekehrt wird die EU-Kommission die Kriterien nur dann streichen können, wenn es notwendig ist, ein einheitliches Sicherheitsniveau in der EU aufrechtzuerhalten.
Basismodelle
Die explosionsartige Verbreitung von ChatGPT, einem Chatbot, der von OpenAIs GPT-3.5 und GPT-4 betrieben wird, hat die Verhandlungen über das KI-Gesetz gestört und die Abgeordneten gezwungen, herauszufinden, wie sie mit diesen leistungsstarken Modellen umgehen sollen.
Letzte Woche berichtete Euractiv, dass der Ansatz aus mehreren Stufen besteht. Die Idee ist, horizontale Verpflichtungen für alle grundlegenden Modelle zu schaffen. Dazu gehören Transparenz und Unterstützung der nachgelagerten Wirtschaftsakteure bei der Einhaltung der KI-Verordnung.
Der mehrstufige Ansatz scheint breite Unterstützung zu finden. Die Hauptfrage ist jedoch, wie die oberste Stufe der „sehr leistungsstarken“ Basismodelle, wie GPT-4, definiert werden soll. Diese werden einer Vorabprüfung und Maßnahmen zur Risikominderung unterzogen.
Die Bezeichnung könnte in „hochwirksame“ Modelle geändert werden, um den Schwerpunkt auf die Systemrisiken zu legen, die diese Modelle darstellen können. Die allgemeine Einigung besteht darin, mehrere Kriterien zu entwickeln, auf deren Grundlage ein Basismodell als „hochwirksam“ eingestuft werden kann.
Mögliche Kriterien, die ins Gespräch gebracht wurden, betreffen die Rechenleistung, die Menge der Übungsdaten und die wirtschaftlichen Ressourcen der KI-Anbieter. Die meisten Bedenken beziehen sich jedoch auf die Frage, wie dieser Ansatz für einen schnelllebigen Markt zukunftssicher gemacht werden kann.
Forscher von führenden Universitäten wie Stanford sind ebenfalls an dem Thema als Ratgeber beteiligt. Es wird erwartet, dass die EU-Verhandlungsführer in den kommenden Tagen neue Entwürfe ausarbeiten werden, die diesen Ansatz schriftlich festhalten.
In Bezug auf die Governance herrscht zunehmend Einigkeit darüber, dass die Durchsetzung von KI-Modellen, die Systemrisiken bergen, ähnlich wie im Gesetz über digitale Dienste (DSA) zentral geregelt werden sollte.
Dies wird eine der Hauptaufgaben des KI-Büros sein, das der Kommission unterstellt, aber „funktional unabhängig“ sein wird. Ebenfalls in Anlehnung an das DSA hat die Kommission die Einführung einer Verwaltungsgebühr zur Finanzierung des neuen Personals vorgeschlagen.
Die Abgeordneten stehen der Verwaltungsgebühr jedoch skeptisch gegenüber und halten die Parallele zum DSA in diesem Fall für nicht zutreffend, da das DSA sich auf Dienstleistungen konzentriert, während das AI-Gesetz sich an den Rechtsvorschriften zur Produktsicherheit orientiert.
Verbote und Rechtsdurchsetzung
In der Frage, welche KI-Anwendungen verboten und welche Ausnahmen den Strafverfolgungsbehörden überlassen werden sollten, herrschen zwischen den EU-Ländern und den Europaabgeordneten noch größere Meinungsverschiedenheiten, die zu einem Konflikt führen könnten, da beide Institutionen an ihren Positionen festhalten.
Das Einzige, was aus dem letzten Trilog klar hervorging, war, dass die Verhandlungsführer verschiedene Aspekte betrachten, um ein Paket zu schnüren, das die Verbote, die Ausnahmen für die Rechtsdurchsetzung, die Folgenabschätzung für Grundrechte und die systemrelevanten Bestimmungen umfasst.
[Bearbeitet von Nathalie Weatherald]




