Michael Funk ist Wissenschaftler, Essayist und Musiker. Der Professor für "Ethik der Technologien" an der Fakultät für Informatik der Universität Wien forscht im Grenzbereich zwischen Philosophie und Computer Sciences. Im Podcast "Ethik Digital" spricht er mit Chefredakteurin Rieke C. Harmsen darüber, warum er gerne Science-Fiction schaut und was diese mit der Digitalisierung unserer Welt zu tun haben. 

 

Herr Funk, Sie selbst beschreiben sich auf Ihrer Webseite als Wissenschaftler, Essayist und Musiker. Und Sie sind Technikphilosoph an der Universität Wien. Haben Sie eine Faszination für Science-Fiction, dass Sie sich dem Thema Roboter gewidmet haben?

Funk: Natürlich habe ich eine große Faszination für Science-Fiction. Wer hat denn keinen Spaß an Robotern? Vor allem wenn es diese wunderbaren Filme gibt wie Kubricks "Odyssee im Weltraum" oder die "Matrix"-Trilogie. Ich bin 1985 geboren, und für mich war diese Serie sehr prägend. Mich interessiert die Fiktion in der Realität, also was in unserer Welt passiert. Ich habe an der TU Dresden Philosophie studiert und habe eine allgemeine Neugierde, die ich gar nicht richtig kanalisieren konnte. Ich musste dann zu meiner Ernüchterung feststellen, dass doch manches, was ich als Erwartung an Roboter hatte, in der Realität eigentlich überhaupt nicht stattgefunden hat.

Wie meinen Sie das?

Funk: Isaac Asimov hat sehr berühmte Robotergesetze formuliert und diese in sehr faszinierende Kurzgeschichten verpackt. Ich dachte hingegen früher, diese Gesetze hat sich irgend so eine Fachgruppe von Informatikern ausgedacht. Asimov hat diese Texte in den 1940er Jahren geschrieben, also noch bevor Alan Turing seinen berühmten Aufsatz "Ob Maschinen denken können" veröffentlicht hat. Der ist von 1950, da war der Begriff "Künstliche Intelligenz" oder "Artificial Intelligence" noch gar nicht richtig greifbar. Dieser kam dann erst 1956 auf der berühmten Dartmouth Conference in den USA auf. Asimov war unglaublich visionär und hat ganz einfache Sätze formuliert: Dass ein Roboter die Menschheit nicht verletzen soll. Dass er Befehlen von Menschen gehorchen kann. Ganz stark ging es um die Frage nach Verantwortung. Und das Thema zieht sich ja bis heute durch.

Können wir bei autonomen Systemen noch von Verantwortung sprechen?

Funk: In der Technikphilosophie, die wir hier an der Uni Wien machen, sprechen wir in der Philosophie und in der Informatik von Systemverantwortung. Im "I Robot"-Film von 2004 verselbständigen sich die Maschinen so sehr, dass es für die Menschen brenzlig wird. Die Maschinen erreichen eine so hohe Autonomie, dass sie mit der Menschheit in einen Wettstreit treten. Was wir hier in der Realität haben, ist natürlich etwas ganz anderes. 

Nehmen wir die autonomen Systeme wie Alexa oder Siri, also Apps, Computerprogramme, Bots, die verbal mit Menschen sprechen. Was da als Sprache erscheint, ist Informationsverarbeitung. Mit Verantwortlichkeit hat das nichts zu tun. Wir müssen also zunächst zwischen den Dimensionen von Autonomie unterscheiden. Eigentlich haben die Verantwortung aber diejenigen, die die Maschinen entwickeln, herstellen und benutzen. 

Aus diesen Robotergesetzen resultieren viele Diskussionen. Was bedeutet es, wenn eine Maschine die Menschheit nicht gefährden darf? Wie ist denn die Menschheit zu definieren? Da gibt es ein hohes Risiko, dass da ein "Guillotine"-Argument drinsteckt. Wir sagen, der großen Mehrheit der Menschen soll es besser gehen, dafür werden aber einzelne Menschen geopfert. Das ist natürlich problematisch. 

 

Roboter-Ethik: Wir müssen die Regeln auch leben

Derzeit wird in der Wirtschaft viel über die Einführung von ethischen Codizes gesprochen. Wie regulieren wir denn die Aktivitäten von Robotern?

Funk: Das ist ein komplexes und verwirrendes Feld. Wir sind auf einem guten Weg. In der EU gibt es eine "High Level Expert Group on Artificial Intelligence", die "Ethics Guidelines for Trustworthy AI" verabschiedet haben, also Ethikrichtlinien für eine vertrauenswürdige KI. Das ist wirklich ein guter Weg. Ich bin mit dem Guidelines nicht ganz zufrieden, aber bei aller Kritik: Wir müssen uns klar machen, dass ein Staatenbund über Ländergrenzen hinweg versucht, hier regulatorisch einzugreifen und das zu kodifizieren, was wir dürfen und sollen.

Der Wille, die Fähigkeit, also Verantwortung ist das Eine. Aber diese Regeln auch wirklich zu leben und zu beherzigen, ist eine Übungssache. Sonst kommen wir zu einem Ethics-Washing – so ähnlich wie Greenwashing –, wo wir das eine verkünden, aber etwas anderes machen.

Die moralische Lebenspraxis gehört dazu - und das ist nicht das Gleiche wie ein Kodex. Das müssen wir uns immer wieder vor Augen führen, damit dann nicht dieser Denkfehler zustande kommt, wo man sagt, wir haben doch diese tollen Richtlinien und Gesetze, und damit ist das jetzt erledigt. Jeder hat die Verantwortung, sich des eigenen Verstandes zu bedienen und die Regeln auch zu hinterfragen. Ich glaube, dass das ganz wichtig ist, solche Guidelines zu hinterfragen.

Warum gibt sich die Industrie so viel Mühe, humanoide Roboter zu entwickeln?

Funk: Bei humanoiden Robotern meinen wir meistens Geräte, die durch ihre materielle Ausstattung oder Funktionalität menschenähnlich gestaltet sind. Das ist eine sogenannte Anthropomorphisierung. Das kann ein Greifarm sein, der menschenähnlich greift. Im Unterschied zu Menschen kann die Maschine natürlich ganz andere Bewegungen machen. Ich kann meinen Ellebogen physiologisch nur bis zu einem bestimmten Punkt strecken, und eine Maschine hat hier mehr Bewegungsrichtungen. Hier sprechen wir von Freiheitsgraden, das ist ein ganz technischer Begriff. 

Und dann gibt es den Begriff des Androiden, also eines humanoiden Roboters, der Menschen imitieren soll. Berühmtes Beispiel sind die Terminator Filme mit Schwarzenegger. Da ist dann Metall drunter und obendrüber die Haut. Diese Vermenschlichung fasziniert uns. Das ist der berühmte Spiegel: Wer sind wir? Können wir uns durch Nachbauen begreifen? 

 

KI und Supercomputer - eine Zeitenwende im Blick

Die Entwicklung der Technologie ist rasant. Ist diese Idee einer Superintelligenz realistisch?

Funk: Sie meinen, kann es ein System geben, dass nicht nur die Intelligenz einzelner Menschen übersteigt, sondern der ganzen Menschheit? Das halte ich für Science Fiction. Aber es ist sicher eine Triebfeder für Ingenieurinnen und Ingenieure, zu sagen, wie weit kommen wir in der Entwicklung und können wir Dinge schaffen zum Wohle der Menschheit? Hier kommt auch das Thema Technikfolgenabschätzung zum Tragen. Ich möchte als Ethiker bitte immer unbedingt auch mal die Anwendungsziele für eine Erfindung kennen. Warum will ich das, wofür brauche ich das? 

Wo sehen Sie die größte Gefahr?

Funk: Wir erleben eine "Zeitenwende". Mit dem Krieg ist die Sicherheitsarchitektur wieder in den Blick geraten. Und zum anderen geht es um eine ökologischen Digitalisierung oder eine digitale Ökologie. Wir müssen überlegen, wofür wir unsere Forschungsgelder ausgeben. Die Zukunft der Demokratie und die Mitbestimmung hängen damit zusammen. Dazu gehört die Gestaltung von ökologischen Städten und die Entwicklung von Smart Cities. 

In der Techindustrie werden ständig neue Wellen an Produkten rausgehauen, wo wir überlegen sollten, sind die wirklich resilient im technischen Sinne, also hält ein Produkt möglichst lange? Geplante Obsoleszenz heißt die künstliche Verkürzung von Lebenszyklen, die in die Software eingebaut wird. Das ist ein ganz zentraler Punkt. Wir müssen als Menschen partizipativ am Design mitgestalten und mitentscheiden. Und zwar bei der Technologieentwicklung selbst. 

Ein Roboter, den wir gemeinsam entwickeln?

Für partizipatorisches Design gibt es verschiedene Laboratorien, wo das versucht und erforscht wird, Warum bringen wir das nicht in die Breite? Wir sollten unsere Kinder nicht wie Roboter behandeln. Da fängt doch Nachhaltigkeit und Inklusion. Es ist nicht sonderlich inklusiv, wenn wir Kindern klar macht, dass sie nur Konsument*innen sind. 

Was möchten Sie erreichen?

Menschen sind Wesen, die Fehler machen. Aus Fehlern werden wir klug. Und eine Fehlerkultur ist ein wichtiger Beitrag für Nachhaltigkeit.

Wir sollten darüber nachdenken können, wo Fehler und wo Widersprüche erlaubt und zugelassen und gewünscht sind. Wo Menschen nicht in eine technokratische Mausefalle hineingedrängt werden und wir alles bewerten und rastern.

Menschen sind hoch analog. Ständig gibt es fließende Übergänge in Gedanken, in Gefühlen, auch in dem, was man lernen will und wie man sich entwickelt. Wir brauchen eine gelebte humane Ethik. Wir sollten immer auch an die Lebenskunst denken. Also nicht nur sagen, es geht um digitale Kompetenzen, wir müssen lernen, wie die Computer funktionieren. Wir brauchen eine Medienmündigkeit und müssen kritisch über die Entwicklungen nachdenken. 

Michael Funk

Michael Funk war an der Uni Dresden und forscht jetzt an der Universität Wien im Grenzbereich zwischen Philosophie und Computer Sciences zu Technikethik mit Schwerpunkt Robotik und Künstliche Intelligenz, Philosophische Grundlagen der Informatik, Methodik, Praxis und Theorie der Transdisziplinarität sowie
Musikästhetik. Er hat zwei Publikationen zum Thema herausgegeben:

  1. Roboter- und KI-Ethik - eine methodische Einführung. Grundlagen der Technikethik I
    Hier das Buch über Buch7 bestellen und soziale Projekte fördern.
     
  2. Angewandte Ethik und Technikbewertung: Ein methodischer Grundriss. Grundlagen der Technikethik II.Hier das Buch über Buch7 bestellen und soziale Projekte fördern.

 

Michael Funk: Webseite und Informationen bei der Uni Wien. Hier geht es zur privaten Webseite von Michael Funk.

Podcast Ethik Digital

Der Podcast #EthikDigital von Rieke C. Harmsen und Christine Ulrich kann bei diesen Kanälen abonniert werden:
 

Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

 

Youtube-Playliste mit allen Videos von #EthikDigital

https://www.youtube.com/playlist?list=PLb68o3_9IKtDgE9eWxDI5RU5aHRZbw85F