Deutschland fordert schärfere KI-Regulierung auf EU-Ebene

Bundeskanzlerin Angela Merkel erhielt 2019 ein Geschenk von einem Roboter. Dennoch bleibt die Bundesregierung gegenüber KI skeptisch. [ALEXANDER BECHER/EPA]

Vier Monate, nachdem die EU-Kommission ihr Weißpapier zu Künstlicher Intelligenz (KI) präsentierte, folgt nun die Stellungnahme der deutschen Regierung. Weitgehend ist man sich mit Brüssel einig, doch bei der Sicherheit sieht Berlin Nachholbedarf. Insbesondere stört die Regierung, dass nur KI-Anwendungen mit „hohem Risiko“ besonderen Anforderungen entsprechen müssen.

Laut Weisspapier der EU-Kommission gibt es zwei Kriterien für KI-Anwendungen mit „hohem Risiko“: Sie müssen in sensiblen Sektoren zum Einsatz kommen, etwa Gesundheit, Sicherheit oder Justiz.

Zusätzlich muss ihre dortige konkrete Anwendung mit besonderen Risiken verbunden sein, also beispielsweise Diskriminierungs- Verletzungs- oder Lebensgefahr. Erfüllt eine KI-Anwendung beide Kriterien, muss sie besonderen Anforderungen entsprechen, etwa bezüglich der Aufbewahrung von Daten oder der menschlichen Aufsicht.

Das geht Deutschland nicht weit genug. Sowohl bei der Klassifizierung als auch bei den Anforderungen selbst schlägt die Regierungen einige Nachschärfungen vor.

Kommission: Risikoreiche künstliche Intelligenz soll 'zertifiziert, getestet und kontrolliert' werden

Künstliche Intelligenz-Technologien, die ein hohes Missbrauchsrisiko bergen, das zu einer Aushöhlung der Grundrechte führen könnte, werden einer Reihe neuer Anforderungen unterworfen, teilte die Europäische Kommission am Mittwoch, den 19. Februar, mit.

„Hohes Risiko“: Erweiterung der Kriterien

Die Kriterien für eine KI-Anwendung mit „hohem Risiko“ sei „zu überdenken und gegebenenfalls zu erweitern“. Dass riskante Anwendung nur dann besonderen Anforderungen entsprechen müssen, wenn sie in sensiblen Sektoren eingesetzt werden, sei eine zu hohe Schwelle.

„In der Folge würden bestimmte risikobehaftete Verwendungen von vornherein nicht erfasst, wenn sie nicht bestimmten Sektoren unterfallen“, so die Stellungnahme. Dass die Kommission selbst auf mögliche Ausnahmefälle hindeutete, verdeutliche die Notwendigkeit einer umfassenderen Regelung.

LEAK: Coronavirus als Kickstarter für die digitale Transformation der EU

Die EU-Mitgliedsstaaten und die Europäische Kommission sollten „die Erfahrungen aus der COVID-19-Pandemie gründlich analysieren“, um daraus zukünftige Politikmaßnahmen im Bereich Digitales abzuleiten.

Mehr Risiko-Abstufungen

Aber auch das zwei-Stufen-System an sich ist Berlin zu undifferenziert. Es sei „fraglich, ob für KI-Anwendungen mit geringerem als „hohem“ Risiko allein die bereits geltenden EU-Vorschriften ausreichen“, besagt die Stellungnahme.

Daher bittet man Brüssel um ein neues Klassifikationsschema, das gemeinsam mit den Mitgliedsstaaten entwickelt werden soll. Es soll mehrere Abstufungen „für relevante Risiken und Schäden unter Beachtung von Schadenshöhe und Schadenswahrscheinlichkeit vorsehen“, etwa für „Leben und Gesundheit, Vermögen, demokratische Prozesse, Umwelt, Klima, soziale, gesellschaftliche und wirtschaftliche Teilhabe“.

Falls allerdings eine KI-Anwendung gänzlich frei von Schädigungspotential sein würde, soll keine spezifische Kontrolle erforderlich sein.

EU-Parlament erarbeitet Pläne für einen gemeinsamen Ansatz zur KI

EU-Parlamentarier debattierten gestern den Ansatz des Blocks zur Regulierung von KI-Technologien. Man wolle Wege aufzeigen, wie die EU die Entwicklung von Künstlicher Intelligenz und anderen neuen Technologien begleiten kann.

Anforderungen zu unkonkret

Die Anforderungen selbst, die KI-Anwendungen ab einem bestimmten Gefahrenpotenzial laut Kommission erfüllen müssen, begrüßt Deutschland grundsätzlich. Nur im Detail gibt sie Verbesserungsvorschläge.

Etwa fordert Berlin eine Konkretisierung in der Frage, ab wann Datensätze verpflichtend aufbewahrt werden müssen. Dass dies laut Kommission in „bestimmten begründeten Fällen“ der Fall sei, sei zu unklar und bedürfe Konkretisierung, genau wie die momentane Beschreibung eines „begrenzten, angemessenen Zeitraums“, in dem die Datensätze aufbewahrt werden müssen.

Auch soll der Aspekt der Informationssicherheit, „verstanden als Schutz sowohl vor zufälligen Fehlern, zum Beispiel durch unerwartete Nutzereingaben, als auch vor gezielter Manipulation durch Angreifer“, stärker als bisher berücksichtigt werden. Hier hält Deutschland einen „verpflichtend hohen IT-Sicherheitsstandard für KI-Systeme mit hohem Risiko“ für „unabdingbar.“

Nachholbedarf sieht die Regierung auch bei der menschlichen Aufsicht über KI-Systeme, hier müsse Brüssel noch konkretisieren, „unter welchen Umständen welche Form menschlicher Aufsicht als Anforderung verbindlich vorgeschrieben werden sollte“.

Vestager: Automatische Gesichtserkennung verstößt gegen EU-Datenschutzrecht

Laut den strikten Datenschutzregelungen der EU dürfte die automatische Identifizierung durch Gesichtserkennungstechnologie illegal sein, betonte die für Digitalpolitik zuständige Vizepräsidentin der Kommission, Margrethe Vestager.

Seehofer: Vom Gesichtserkenner zum Datenschützer

Auffällig ist, dass eine besonders kontroverse KI-Anwendung wiederholt in der deutschen Stellungnahme vorkommt: Die Gesichtserkennung, hier allerdings unter dem Fachbegriff „biometrische Fernidentifikation“. Innenminister Horst Seehofer hatte noch im Januar angedacht, die Gesichtserkennung in Deutschland auszuweiten (EURACTIV berichtete). Nach massiver Kritik der Zivilgesellschaft ruderte er allerdings zurück.

Das Innenministerium ist Co-Autor der Stellungnahme. Sie betont die „besonderen Risiken für die Freiheitsrechte der Bürgerinnen und Bürger“ durch biometrische Fernidentifikation, und die „Tiefe der möglichen Eingriffe in grundrechtlich geschützte Güter“. Gleich an zwei Stellen macht der Text klar, dass nicht nur das „Wie“, sondern auch das „Ob“ eines Einsatzes dieser Technologie noch diskutiert werde.

In einer frühen Version des Weißpapiers wurde noch ein EU-weites Moratorium der Gesichtserkennung angedacht (EURACTIV berichtete), dann aber wieder verworfen.

Seehofer sei es laut einer Presseaussendung zur Stellungnahme „wichtig, dass KI-Anwendungen nicht nur innovativ, sondern auch sicher sind. Sicher vor Hackerangriffen, sicher vor Sabotage, sicher vor unberechtigten Datenabflüssen.“

Subscribe to our newsletters

Subscribe
UNTERSTÜTZEN