Ethische künstliche Intelligenz? Experten sehen viele „kritische“ Bereiche

Der humanoide Roboter Sophia während einer Präsentation auf dem Techfestival Bright Day 2018 in Vijfhuizen, Niederlande. [EPA-EFE/ROBIN UTRECHT]

Die hochrangige Expertengruppe für künstliche Intelligenz (KI) der Europäischen Kommission hat am Dienstag ihren Bericht über Ethik und künstliche Intelligenz veröffentlicht und auf strittige Fragen in Bereichen wie automatische Identifizierung, Bürgerbewertung und Killerroboter hingewiesen.

Der Bericht beschreibt, wie KI-Entwickler und -Nutzer sicherstellen können, dass die Technologie die Grundrechte, die geltenden Vorschriften sowie ethische Werte respektiert. Er wurde von 52 Experten aus Wissenschaft, Wirtschaft und Zivilgesellschaft zusammengestellt. Diese weisen auf eine Reihe von „kritischen Bedenken“ für die Zukunft der KI hin.

Einer davon ist das Feld des sogenannten „normativen Bürgerscorings“, das von den Autoren als eine Beurteilung der „moralischen Persönlichkeit“ oder der „ethischen Integrität“ von Menschen durch Dritte definiert wird.

Der Bericht stellt fest, dass Bürgerbewertungssysteme die Freiheit und die Autonomie der Bürger gefährden, wenn sie „in großem Umfang von Behörden durchgeführt werden“.

EU-Gericht: Britische Überwachung verstößt gegen Menschenrechte

Die Nachrichten- und Sicherheitsorganisation der britischen Regierung hat mit ihrem Massenüberwachungsprogramm die Menschenrechte verletzt, entschied der Europäische Gerichtshof für Menschenrechte (EGMR).

Im Bericht wird jedoch nicht direkt gesagt, dass derartige Prozess verboten werden sollten. Vielmehr werden Fälle hervorgehoben, in denen „Bürgerscorings in einem begrenzten sozialen Bereich angewendet werden“. In diesen Fällen müsse aber auf ein hohes Maß an Transparenz geachtet werden.

Massenhafte Bürgerbewertungen auf staatlich kontrollierter Ebene werden derzeit in China als Teil des dortigen „Punktesystems“ für Bürger umgesetzt.

Versteckte KI-Systeme und Interaktion mit Maschinen

An anderer Stelle im Bericht heißt es zum Thema „Verdeckte KI-Systeme“, die Entwickler müssten „sicherstellen, dass Menschen darauf aufmerksam gemacht werden, wenn sie mit einer KI-Identität interagieren – oder sie müssen zumindest in der Lage sein, diese Information anzufordern und bestätigen zu lassen“.

Da derartige Systeme immer menschenähnlicher werden, kämpft die EU darum, sicherzustellen, dass Roboter niemals mit Menschen verwechselt werden können. So soll eine klare moralische und ethische Trennung zwischen Grundprinzipien, Verhaltensweisen und Werten von Mensch und Roboter gewährleistet werden.

Künstliche Intelligenz und europäische Werte

Die Debatte um Künstliche Intelligenz dreht sich nicht nur um technische Fragen, sondern auch um ethnische. In der EU trägt dazu wesentlich der EWSA bei, der Anfang der Woche ein „Stakeholder-Gipfel“ zum Thema durchführte.

Die Einbeziehung solcher „hyperrealen“ Androiden in die Gesellschaft „könnte unsere Wahrnehmung in Bezug auf Menschen und die Menschheit an sich verändern,“ wird im Bericht gewarnt. Weiter heißt es: „Die Entwicklung von humanoiden und androiden Robotern sollte daher einer sorgfältigen ethischen Bewertung unterzogen werden.“

Gesichtserkennung

Ein weiterer Problembereich ist aus Sicht der Expertengruppe der Einsatz von KI in Identifikationstechnologien, wie beispielsweise Gesichtserkennungssoftware.

Eine solche Technologie wird derzeit von der britischen Polizei getestet, die mit einer entsprechenden Software die Gesichter von Weihnachtseinkäufern in London scannen will – in der Hoffnung, gesuchte Kriminellen leichter identifizieren zu können.

Die Experten weisen darauf hin, dass im Zusammenhang mit dieser Form der KI-Technologie insbesondere Probleme mit Blick auf einem Mangel an Zustimmung (von Seiten der beobachteten Bürger) entstehen.

„Killerroboter“

Darüber hinaus steht vor allem das Thema „tödliche autonome Waffensysteme“ (lethal autonomous weapon systems, LAWS) – umgangssprachlich besser bekannt als „Killerroboter“ – im Mittelpunkt des Berichts. Solche Waffensysteme funktionieren ohne nennenswerte menschliche Kontrolle.

Im September hatte das Europäische Parlament eine Entschließung verabschiedet, in der ein internationales Verbot solcher „Killerroboter“ gefordert sowie betont wird, dass „Maschinen keine menschenähnlichen Entscheidungen treffen können“. Die Menschheit müsse für die im Laufe eines Krieges getroffenen Entscheidungen verantwortlich und rechenschaftspflichtig bleiben.

Im Kampf gegen die Killer-Roboter

Diese Woche werden die UN-Gespräche über die Entwicklung und Verbreitung autonomer, tödlicher Waffensysteme fortgesetzt.

Die Entschließung des Parlaments erfolgte nach dem Scheitern der Vereinten Nationen, einen Konsens über ein weltweites Verbot tödlicher autonomer Waffensysteme zu erzielen. Ein Staatenblock unter der Führung der USA und Russlands, zu dem unter anderem auch Südkorea und Israel gehören, sprach sich gegen ein solches Verbot aus.

Kommission wünscht menschenzentrierten Ansatz

Generell werden in den Schlussfolgerungen der ethischen Leitlinien der Kommission ein „menschenorientierter Ansatz“ unter Achtung der Grundrechte und gesellschaftlichen Werte für die Entwicklung von KI gefordert.

Das übergeordnete langfristige Ziel sei die Förderung einer vertrauenswürdigen KI.

„Die künstliche Intelligenz kann unseren Gesellschaften große Vorteile bringen, von der Diagnose und Heilung von Krebserkrankungen bis hin zur Senkung des Energieverbrauchs,“ erklärte der für den digitalen Binnenmarkt zuständige Kommissar Andrus Ansip am Dienstag.

Er fügte hinzu: „Aber damit Menschen KI-basierte Systeme akzeptieren und nutzen können, müssen sie ihnen vertrauen. Sie müssen wissen, dass ihre Privatsphäre respektiert wird, und dass Entscheidungen nicht voreingenommen sind.“

Die vorliegenden aktuellen Papiere stellen bisher noch einen Entwurf für ethische Leitlinien der Kommission dar. Die Behörde will nun Rückmeldungen von Bürgern und weiteren Experten zum geplanten Bericht einholen. Insbesondere den oben genannten Anliegen dürfte dabei besondere Aufmerksamkeit geschenkt werden.

Die endgültige Fassung der Leitlinien soll im März 2019 veröffentlicht werden.

Weitere Informationen

Künstliche Intelligenz – ein Fall für das Völkerrecht

Der Gedanke, Roboter für uns arbeiten zu lassen, ist verlockend. Doch was, wenn die Maschinen irgendwann intelligenter und effektiver sind als die Menschen? Künstliche Intelligenz muss reguliert werden.

Handelsausschuss fordert schärfere Exportkontrollen für Überwachungssoftware

Das EU-Parlament will strengere Ausfuhrkontrollen für Überwachungsprogramme und stimmt am Mittwoch über eine entsprechende Initiative ab.

Hackerangriff "Wanna Cry": Der Frankenstein-Moment des Überwachungsstaates

Die globale Cyberattacke auf kritische Infrastrukturen hat Regierungen und Sicherheitsbehörden kalt erwischt. Der Angriff offenbart eine neue Verwundbarkeit im digitalen Zeitalter: staatlich gehortete Cyberwaffen, die sich gegen ihre Schöpfer richten.

Unterstützer

HUAWEI

Huawei Technologies ist einer der weltweit führenden Anbieter von Informationstechnologie und Telekommunikationslösungen

Von Twitter

Subscribe to our newsletters

Subscribe