3.04.2019
Digitalisierung

Wissenschaftsjournalist Ranga Yogeshwar über die Gefahren Künstlicher Intelligenz

Autonomes Fahren, neuartige Prothesen, Hilfe bei der Mitarbeiterauswahl: Künstliche Intelligenz ermöglicht vieles. Wissenschaftsjournalist Ranga Yogeshwar war für eine ARD-Dokumentation weltweit unterwegs. Er plädiert für eine Diskussion über Chancen und Risiken.
Ranga Yogeshwar
"Fahren wir irgendwann blind?": Ranga Yogeshwar.

Welche Vor- oder Nachteile sehen Sie bei der Nutzung von Künstlicher Intelligenz (KI)?

Yogeshwar: Es gibt zweifelsohne Erfolge, doch manchmal sind die Visionen auch überzogen. Beim Thema Mobilität gibt es die Illusion, dass in wenigen Jahren vollautonome Fahrzeuge durch unsere Städte fahren. Inzwischen bin ich mir sehr sicher, dass das nicht der Fall sein wird. Wir sind während unserer Dreharbeiten in vielen autonomen Testfahrzeugen gefahren und sie hatten alle irgendwann ein Problem. Heutige Prototypen sind durchaus in der Lage, mithilfe verschiedener Sensoren genau zu wissen, wo das Fahrzeug ist, oder Objekte in ihrem Umfeld zu erkennen. Diese Systeme scheitern aber, wenn es um das echte Fahrverständnis geht. Wenn ein Autofahrer in einem Wohngebiet plötzlich einen Ball auf die Straße rollen sieht, weiß er, dass wahrscheinlich gleich ein Kind kommt. Das autonome System weiß das nicht. Es gibt jedoch Umfelder, die viel einfacher sind. Auf einer Autobahn bei annähernd konstanter Geschwindigkeit, ohne Gegenverkehr oder Menschen auf der Straße, werden Autos in absehbarer Zukunft autonom fahren. Aber an der Komplexität einer Stadt scheitert die KI. Wenn wir beim Fahren einer selten vorkommenden Situation begegnen, können wir Menschen darauf reagieren. Ein nichttrainiertes System bleibt im besten Fall einfach stehen.

Woran liegt das?

Yogeshwar: KI ist extrem gut, wenn sie in der abstrakten Welt des Digitalen operiert. Sie ist in der Lage, den Menschen beim Schach zu schlagen. Sie kann Bilder oder ein Muster viel besser erkennen als wir Menschen. Aber in dem Moment, wo es in die Realität geht, sieht es völlig anders aus. Obwohl heute KI-Systeme den Menschen bei einem komplexen Spiel wie Schach schlagen, ist der intelligenteste Roboter, den es heute gibt, nicht in der Lage, den Esstisch abzuräumen.

Welche Debatten brauchen wir in der Gesellschaft?

Yogeshwar: Eine spannende Frage ist, wie ein autonomes Fahrzeug in einer Dilemma-Situation entscheiden soll: Links ist ein älterer Mensch, rechts ein Kind. Einer von beiden muss dran glauben – wer?

In den verschiedenen Kulturen gibt es Unterschiede in der ethischen Behandlung bestimmter Probleme.

Soll man Kinder oder Ältere eher schonen? Spielt der Status eine wichtige Rolle? Ist es wichtig, ob die Person bei Rot über die Ampel gegangen ist? Wenn wir von Ethik reden, müssen wir also auch nach dem jeweiligen Umfeld fragen. Die Ethik, die für uns Westeuropäer gilt, ist vielleicht gar nicht so zutreffend für Asiaten oder US-Amerikaner.

Wie kann man das lösen?

Yogeshwar: Wir sind zum Glück noch weit weg von der realen Umsetzung. Aber das zeigt uns zwei Sachen: Müssen wir an irgendeiner Stelle eine globale Debatte über Prioritäten führen? Wer soll geschädigt, wer verschont werden? Und jetzt kommt noch eine Frage dazu: Ist Sicherheit womöglich käuflich? Werden wir zum Beispiel akzeptieren, dass wir mit Geld einen Vorteil erkaufen? Oder gibt es einen globalen Konsens, dass Kinder beispielsweise immer verschont werden sollen?

Wie weit sind diese Themen schon in der Gesellschaft angekommen?

Yogeshwar: Noch nicht sehr weit. Mit unserer Dokumentation und meiner bisherigen Arbeit wollen wir diese wichtige Debatte in Gang bringen. Hier werden Weichen für unsere Zukunft gestellt.

Ich bin tief überzeugt davon, dass wir als Gesellschaft gemeinsam über diese Zukunft entscheiden sollten.

Wir können nicht akzeptieren, dass es Staaten, Organisationen oder Unternehmen gibt, die aufgrund der Komplexität vorschnell die Weichen stellen und Entscheidungen fällen, noch bevor wir als Gesellschaft die Brisanz dieser Entwicklung erkennen. Wir brauchen unabhängige Stellen, die nicht versuchen, die Ethik so hinzubiegen, dass das eigene Geschäftsmodell funktioniert.

Wie wahrscheinlich ist es, dass sich der Mensch irgendwann von einer Künstlichen Intelligenz bevormunden lässt?

Yogeshwar: Wir müssen darauf achten, dass wir nicht unsere Verantwortlichkeit und Freiheit verlieren. Auch besteht die Gefahr, dass wir uns schleichend den Kriterien einer Maschine anpassen. Eine Maschine arbeitet mit Daten und rechnet mit Wahrscheinlichkeiten. Das sind keine menschlichen Kategorien. Der Mensch liebt es, Ausnahmen zu machen. Es fängt aber schon heute an. Wenn unser Navigationssystem uns sagt "bitte links abbiegen", dann tun wir das. Haben wir eine kritische Haltung gegenüber dem System oder fahren wir irgendwann blind?

ShareFacebookTwitterShare

Weitere Artikel zum Thema:

Automatisierung

Staubsaugerroboter
Wussten Sie schon, dass selbst Staubsauger-Roboter mit moralischen Entscheidungen konfrontiert sind? Und dass es mittlerweile tatsächlich welche gibt, die Marienkäfer verschonen, aber Spinnen einsaugen? Über diese kuriosen und andere wesentlich ernstere Fragen rund um das Thema künstliche Intelligenz sprachen wir mit Maschinenethikerin Catrin Misselhorn.
Sonntagsblatt