„Die größte gesellschaftliche Veränderung seit Erfindung des Buchdrucks“

W. Brian Arthur gilt als einer der weltweit führenden Experten für das Thema Künstliche Intelligenz. [Brandeins]

Künstliche Intelligenz (KI) hat in den vergangenen zehn Jahren große Fortschritte gemacht. Maschinen können nun Gesichter erkennen, selbstfahrende Autos steuern und sogar Musik komponieren. W. Brian Arthur sprach mit EURACTIV Deutschland darüber, inwiefern KI „eine enorme Veränderung für unsere Gesellschaft“ darstellt und warum es wichtig ist, sie sorgsam zu reglementieren.

W. Brian Arthur ist einer der einflussreichsten Denker des Santa Fe Institute und wurde vor 30 Jahren für seine Wirtschaftstheorie des Lock-in-Effekts berühmt, die das Wachstum heutiger Tech-Giganten erklärt. Arthur gilt als einer der weltweit führenden Experten für das Thema Künstliche Intelligenz.

Er sprach am Complexity Science Hub Vienna in Wien mit Alicia Prager von EURACTIV.de.

EURACTIV: Am Mittwoch stellte die Europäische Kommission ihre nächsten Schritte zur Stärkung des Vertrauens in die KI und zur Förderung ihrer Entwicklung vor. Worauf müssen wir uns vorbereiten? Wie wird KI unsere Gesellschaft verändern?

Arthur: Viele denken, dass die KI nur eine neue, eine weitere Technologie ist. Aber ich glaube, dass hier etwas viel Tieferes und Grundlegendes passiert. Es handelt sich nicht nur um eine weitere industrielle Revolution, sondern um die größte Veränderung für unsere Gesellschaft seit der Erfindung des Buchdrucks. Vor dieser Druck-Revolution war Wissen nicht ohne weiteres öffentlich zugänglich. Man musste Zugang zu den Büchern eines Klosters oder ähnlichem haben. Aber danach hatte plötzlich jeder, der es sich leisten konnte, ein Buch zu kaufen, Zugang zu all diesen vormals privaten Informationen. Dadurch wurden die Renaissance, die Reformation und die moderne Wissenschaft stark beschleunigt. Die moderne Gesellschaft ist auch durch die öffentliche Verfügbarkeit von Wissen in Form von Büchern hervorgebracht worden.

Mit der KI haben wir nun die öffentliche Verfügbarkeit von Informationen und Daten. Das wird eine enorme Veränderung für unsere Gesellschaft sein. Und es geht ja gerade erst los.

Können Sie ein paar Beispiele geben, was dies genau bedeuten kann?

Der Mensch ist sehr gut darin, Muster zu erkennen. Und wir sind sehr gut darin, Urteile aller Art zu fällen. Bisher dachten wir immer, Computer würden darin nie gut werden. Computer waren gut in Arithmetik, in Buchhaltung, im Umgang mit Zahlen und beim Sortieren. Aber plötzlich – in den letzten zehn Jahren – haben Computer sehr gut dazu gelernt, wenn es um solche Muster geht. Zum Beispiel können sie Gesichter erkennen, selbstfahrende Autos steuern, riesige Datensätze verstehen.

Ein weiteres Beispiel: Bisher konnten nur sehr wenige Menschen Musik komponieren. Aber jetzt kann ich ein KI-Programm anweisen, dies für mich zu tun.

Wir entdecken also, dass plötzlich viele der Dinge, die uns zu Menschen gemacht haben, heute im Internet öffentlich zugänglich oder in der Digitalwirtschaft verfügbar sind.

Ethische künstliche Intelligenz? Experten sehen viele "kritische" Bereiche

Eine Expertengruppe der EU-Kommission hat in ihrem Bericht über „Ethik und künstliche Intelligenz“ auf diverse kritische Fragen hingewiesen.

Das sind Entwicklungen, die auch viele ethische Fragen aufwerfen. Es geht darum, wie man die Entwicklung nutzt und wie wir sicherstellen können, dass die Gesellschaft insgesamt profitiert…

Egal, welche neue Technologie auftaucht: die Menschen sind erst einmal misstrauisch.

Und es ist richtig, misstrauisch zu sein! Denn wir wissen nicht, welche Art von Welt diese Technologie uns bringen wird. Künstliche Intelligenz kann uns eine Welt bieten, in der wir automatisch das Gehirn von jemandem scannen und einen Tumor finden können. Aber die KI kann – und wird – auch missbraucht werden.

Traditionell gab es in menschlichen Gesellschaften bis vor kurzem immer eine Vorstellung davon, was in der sozialen Gemeinschaft akzeptabel ist. Beispiel: Es könnte ja recht gefährlich sein, mit 200 Kilometern pro Stunde eine Straße entlang zu rasen; also haben wir das geregelt. Aber aus irgendeinem Grund gab es in der Technologie nicht den gleichen Prozess: Es gibt niemanden, der entscheidet, dass Facebook über seine Community-Standards nicht zulässt, dass Dinge veröffentlicht werden, die schlichtweg nicht der Wahrheit entsprechen.

Es gibt zwar gesetzliche Regelungen oder Vereinbarungen, dass Drittländer sich nicht in Wahlen einmischen oder sie manipulieren sollten, aber sie können es heimlich tun. Und es scheint, dass große Unternehmen wie Facebook nicht genug tun, um sie zu stoppen. Und vor allem in den USA monopolisieren unterdessen viele High-Tech-Unternehmen ihren Teil des Marktes, und die Leute zucken mit den Schultern und sagen: „Naja, ist mir doch egal.“

In dieser Hinsicht ist Europa einfach deutlich besser, denn insgesamt lassen sich die Europäerinnen und Europäer von den Großkonzernen nicht allzu viel Unsinn gefallen.

Apple-CEO: USA sollten beim Datenschutz "dem Beispiel der EU" folgen

Die Menschheit lebe inmitten eines „Datenindustriekomplexes, in dem unsere eigenen Informationen mit militärischer Effizienz gegen uns gerichtet sind“, so Tim Cook.

Aber Europa war bisher bei der Regulierung von großen technologischen Entwicklungen ebenfalls nicht sonderlich erfolgreich. Macht es Ihnen Angst, dass die Richtung größtenteils von den Konzernen vorgegeben wird?

Auf jeden Fall. Die wichtige Frage ist: Können sich diese großen Unternehmen so verhalten, dass sie der Gesellschaft nützen und nicht nur ihren eigenen Profitinteressen dienen?

Wir beobachten – zumindest in Amerika – dass sie üblicherweise zu Gunsten des Profits entscheiden. Aber langsam wachen die Leute auf und stellen fest, dass diese Tech-Riesen nicht nur mehr Geld verlangen als wenn sie kleiner wären… Sie verhalten sich einfach nicht gut.

Was bedeutet das für die Regulierungsbehörden?

Das bedeutet, dass wir uns darüber im Klaren sein müssen, welche Art von Gesellschaft wir wollen. Und dann dürfen wir nicht davor zurückschrecken, die Dinge zu regulieren oder zu verhindern, die wir nicht wollen. Andernfalls könnten sich Gesellschaften entwickeln, in denen wir schlichtweg nicht leben wollen. Vor allem könnten bis dahin Dinge wie bestimmte Algorithmen oder Methoden, die von der künstlichen Intelligenz verwendet werden, tief in die Gesellschaft eingebettet und nur noch sehr schwer zu beseitigen sein.

Künstliche Intelligenz – ein Fall für das Völkerrecht

Der Gedanke, Roboter für uns arbeiten zu lassen, ist verlockend. Doch was, wenn die Maschinen irgendwann intelligenter und effektiver sind als die Menschen? Künstliche Intelligenz muss reguliert werden.

Eine Schlüsselfrage in diesem Zusammenhang ist, wie wir mit Daten und Datenschutz umgehen. Sollten die Regulierungsbehörden auf eine Erhöhung der Transparenz bei Daten und Algorithmen drängen? 

Ja, aber es gibt immer zwei Seiten einer Medaille. Man will ja auch nach wie vor einen Anreiz für Innovationen geben. Normalerweise tut man das, indem man Patente auf Algorithmen zulässt, so dass etwa 20 Jahre lang niemand diesen Algorithmus verwenden kann – es sei denn, der Patentinhaber lizenziert ihn an Dritte. Andererseits wollen wir aber auch, dass die Algorithmen – ähnlich wie z.B. wirkungsvolle Medikamente – öffentlich zugänglich werden. Es muss also einen Mittelweg, einen Kompromiss geben.

Gleichzeitig könnte mehr Transparenz auch den Markt für Neueinsteiger öffnen und es ihnen ermöglichen, sich gegen die Tech-Giganten zu behaupten. Sie selbst haben die ökonomische Theorie des Lock-in-Effekts entwickelt, die besagt, dass es mit dem wachsenden Angebot eines Technologieunternehmens für die Kunden immer schwieriger wird, zwischen den Dienstleistungsanbietern zu wechseln. Das kann man bei Google und auch bei Facebook beobachten. Wie werden diese Firmen sich Ihrer Meinung nach aufstellen? Und: Werden sie in den nächsten Jahrzehnten weiter wachsen?

Sie werden weiter wachsen und in den nächsten ein, zwei oder fünf Jahren weitere Nutzer gewinnen. Aber ich würde nicht sagen: „in den nächsten Jahrzehnten“. Denn die Technologie ändert sich, und andere Unternehmen werden verschiedene, neue Wege finden, sie zu nutzen. Die Menschen brauchen und wollen Veränderungen. Und das bedeutet, dass heute selbst ein großes Unternehmen wie Microsoft teilweise ausgeschlossen werden kann. Der Lock-in-Effekt hält also nicht ewig an.

"European Champions": Deutschland und Frankreich geben nicht auf

Nach der Ablehnung der Fusion von Alstom und Siemens arbeiten Frankreich und Deutschland nun an einer Überprüfung der EU-Wettbewerbsregeln.

Sie arbeiten am Santa Fe Institute, einem führenden Zentrum im Bereich der Komplexitätsforschung. Dieser Forschungszweig betrachtet die Welt als ein interagierendes System von diversen Akteuren und Prozessen. Damit sollen soziale und wirtschaftliche Prozesse erklärt und vorhergesagt werden – zum Beispiel durch die sogenannte agentenbasierte Modellierung, eine Art Computersimulation realer Entwicklungen. Ist das ein Hype oder wird sich der Trend Ihrer Meinung nach weiter fortsetzen?

Ich würde sagen, er wird weiter expandieren. Wir entdecken, dass wir gewisse Ideen und Annahmen mit Computermodellen und Computeralgorithmen testen können. Sie könnten zum Beispiel testen, was im Falle eines absoluten Finanzcrashs passieren würde. Sie würden nicht versuchen wollen, das im wirklichen Leben irgendwo zu testen – aber Sie können es auf einem Computer testen.

In der Wissenschaft im Allgemeinen hatten wir bisher zwei verschiedene Werkzeuge: Einerseits Mathematik, wo man die Auswirkungen bestimmter Annahmen, die man getroffen hat, logisch betrachten kann und so erklärt, wie die Dinge funktionieren. Zweitens gibt es Experimente: Man baut ein Laborexperiment auf und kann sich dann ansehen, wie etwas funktioniert.

Jetzt haben wir ein drittes Werkzeug; und das ist der Computer. Damit können wir uns künstliche Welten schaffen und den Computer als eine Art Labor benutzen, um zu testen, was die Auswirkungen von bestimmten Veränderungen in dieser Welt sein könnten.

Auch diese Modelle können aber fehlerhaft sein oder zu falschen Schlussfolgerungen führen. Besteht die Gefahr, dass wir zu viel Vertrauen in Daten- und Computersimulationen setzen?

Ja, definitiv. Wenn man unsinnige Annahmen macht, wird man zu unsinnigen Ergebnissen kommen. Das ist genauso wie im Labor oder in der Mathematik. Die Verwendung von Computern ist also auch eine Kunst. Wir neigen dazu, zu glauben, dass unsere Annahmen die Wahrheit sind. Aber es gibt viele Versionen der Wahrheit.

Deswegen stellen wir lediglich „Was wäre wenn…“-Fragen. Das ist wie ein Rollenspiel, wie eine Art Simulation für den Geist.

[Bearbeitet von Zoran Radosavljevic, Benjamin Fox und Samuel Stolton]

Künstliche Intelligenz und europäische Werte

Die Debatte um Künstliche Intelligenz dreht sich nicht nur um technische Fragen, sondern auch um ethnische. In der EU trägt dazu wesentlich der EWSA bei, der Anfang der Woche ein "Stakeholder-Gipfel" zum Thema durchführte.

24 EU-Staaten unterzeichnen Vereinbarung über Künstliche Intelligenz

24 EU-Länder wollen einen "europäischen Ansatz" für Künstliche Intelligenz erschaffen, um so mit amerikanischen und asiatischen Technologieriesen konkurrieren zu können.

„Es geht darum, Monopole wie das von Facebook zu brechen“

Justizministerin Barley will, dass Digitalfirmen ihre Daten mit der Allgemeinheit teilen. Die Macht von Konzernen wie Facebook und Amazon will sie beschneiden. Ein Interview.

Subscribe to our newsletters

Subscribe

Wissen was in Europas Hauptstädten passiert - abonnieren Sie jetzt unseren neuen 10 Uhr Newsletter.