14.11.2020
Künstliche Intelligenz

Der Philosoph Zachary Goldberg berät Technologiefirmen zum Thema künstliche Intelligenz

Künstliche Intelligenz ist im Alltag längst auf dem Vormarsch. Wird sie bald den menschlichen Geist überflügeln? Der Regensburger Philosoph Zachary Goldberg berät Technologie-Firmen und stellt Entwicklern kritische Fragen.
Künstliche Intelligenz (KI)

Die ARD zeigte vor kurzem den Science-Fiction-Film "Exit". Das Werk von Sebastian Marka (Regie) ging zwar schlecht aus, war aber bemerkenswert in anderer Hinsicht: Der philosophische Thriller thematisierte die Frage "Woher wissen wir, dass wir existieren?".

Ein Film der Fragen stellt

Die Handlung spielt im Jahr 2047, und ein deutsches Start-up hat die Erfindung des Jahrhunderts gemacht: Menschen leben als virtuelle Gestalten in einer absolut realistischen Cloud weiter, genannt "Infinitalk". Dieses "Gespräch mit der Unendlichkeit" ermöglicht Begegnungen mit Verstorbenen, so als hätte es den Tod von Oma und Opa nie gegeben. Die Großeltern leben einfach virtuell weiter.

Ihrer Zeit gar nicht viel voraus sind die Fragen, die "Exit" aufwirft. Wie echt sind die Menschen, die uns heute schon in den sozialen Medien begegnen? Wie tot oder untot ist jemand, der dort herumgeistert? Und welche Qualität hätte demnach ein ewiges Leben als digitale Kopie? Oder anders herum gefragt: Was ist das Leben, wenn nicht Geburt, Liebe und Tod?

Ein Experte für diese Fragen

Für den habilitierten Philosophen Zachary Goldberg (41) sind das moralphilosophische Fragen, die ihn tagtäglich beschäftigen. Er arbeitet für die Londoner Consulting-Firma "Trilateral Research".

Sie analysiert die gesamtgesellschaftlichen Folgen von Künstlicher Intelligenz (KI) und liefert Gutachten für Technologie-Unternehmen. Künstliche Intelligenz, so eine der Thesen des Films, verhilft Technologie-Firmen zu einem Monopol auf die Realität. Goldberg sieht das kritisch und hält dagegen: "Was passiert, wenn die Kopie nicht wie der echte Mensch war? Hat man ein schlechtes Gewissen, wenn man die Kopie löscht, oder wenn man nicht mehr mit der Kopie von der Oma telefonieren möchte?".

Liefert eine Analyse Antworten?

Für die Philosophie ist Künstliche Intelligenz weder eine apokalyptische Untergangsszenerie noch erfüllt sie Erlösungshoffnungen. Ob eine Technologie richtig oder falsch ist, gut oder schlecht, verlangt eine eingehende Analyse. Zum Beispiel bei der Frage, ob Pflegeroboter eingesetzt werden sollten oder nicht. Die robotischen Hilfen sollen den Pflegenotstand einer alternden Gesellschaft verhindern.

In Japan wurden sie bereits eingesetzt und waren schnell akzeptiert, schildert Goldberg. "Viele Patienten äußerten, die Roboter seien gut für sie, weil sie sich nicht schämen mussten, wenn sie nicht mehr alleine auf die Toilette gehen oder essen konnten." Von manchen wurden die Roboter sogar als "sympathischer" angesehen, weil sie nicht ungeduldig oder schlecht gelaunt waren wegen Arbeitsüberlastung.

Sind Menschen abhängig von Menschlichkeit?

Zu Beginn der Pandemie im Frühjahr wurde deutlich, wie sehr Menschen von Berührung, Nähe und Kontakt zur Außenwelt abhängig sind. Sterbenskranke konnten in Heimen von ihren Angehörigen nicht besucht werden - mit verheerenden Folgen.

Das Pflegepersonal auf den Stationen blieb der einzige menschliche Kontakt. Die Pflegenden leisteten nicht nur in dieser Situation Übermenschliches. "Deshalb sollte eine Technologie im Normalfall die Menschen nicht ersetzen, sondern ihnen nur helfen", sagt Goldberg. Das Pflegepersonal könnte wieder mehr die Beziehung zu den Kranken in den Blick nehmen. "Auch das wäre ein Beitrag zur Humanisierung der Welt", meint Goldberg.

Das Trolley-Dilemma

Ist es in Ordnung, einen Menschen zu opfern, um mehrere Menschen zu retten? Auch diese Frage wird seit Jahrzehnten in Philosophie und Ethik anhand eines bekannten moralischen Gedankenexperiments diskutiert: das Trolley-Dilemma. Eine Straßenbahn - auf Englisch "Trolley" - fährt ungebremst auf fünf im Gleis arbeitende Menschen zu. Der Weichensteller könnte die Straßenbahn auf ein Nebengleis umleiten, auf dem nur ein Mensch arbeitet. Soll er den Hebel umlegen?

In der realistischen Situation des autonomen Fahrens könnte auch links ein kleines Kind stehen, rechts eine ältere Person: Wie kann das selbst fahrende Auto programmiert werden, diese Entscheidung zu treffen?

"Die Philosophie kennt die Antwort dafür noch nicht", sagt Goldberg. "Vielleicht würden wir sagen, das Kind sollte gerettet werden, weil das Kind noch das ganze Leben vor sich hat. Was aber ist, wenn das Kind zu einem Diktator wird? Obwohl der Mensch alt ist: Vielleicht erfindet er im nächsten Jahr eine medizinische Lösung für Krebserkrankungen?"

Solange es keine Antwort gibt, dürfe man nicht darauf vertrauen, dass Künstliche Intelligenz die richtigen Entscheidungen fällt, sagt Goldberg. Wer trägt die Verantwortung, wenn das Auto wen auch immer überfährt? Ist es der Hersteller, sind es die Programmierer, die Autofirma?

Und: Was ist, wenn VW ein autonom fahrendes Auto hat, aber mit Chips von Apple bestückt ist, die von einer dritten Firma in China produziert wurden? "Bis zu einer klaren Antwort sollte es verboten sein, solche Technologien zu produzieren. Aber leider können wir das nicht stoppen."

Philosophen in Technologie Firmen?

Technologie-Firmen wollen in der Öffentlichkeit gut dastehen. Deshalb konsultieren sie Philosophen. Andererseits wollen sie mit ihren Entwicklungen die ersten auf dem hart umkämpften Weltmarkt sein. Deshalb produzieren sie, was sie können, solange die Politik es ihnen nicht verbietet.

In solchen Fällen argumentiert Goldberg den Firmen gegenüber mit der Philosophin Hannah Arendt, die über den Eichmann-Prozess berichtete. Obwohl der SS-Mann Eichmann für den Tod von Millionen Menschen verantwortlich war, berief er sich auf ein Moralgesetz: Er habe das "Wort des Führers" befolgt.

"Hannah Arendt schlussfolgert daraus: Das Böse kann banal sein - wegen Gedankenlosigkeit. Wir denken nicht genug darüber nach, was die Frage wirklich ist." Wenn Hannah Arendt Recht hat, dann ist öffentliche Reflexion gefragt - "auch wenn wir nicht immer genau wissen, was die Antwort ist". Solche Gedanken versucht Goldberg den Programmierern und Entwicklern von Künstlicher Intelligenz mitzugeben. Denn sie entscheiden, welche Algorithmen, also welche Rechenvorschriften in den Maschinen zum Tragen kommen. 

Zachary Goldberg

Zachary Goldberg (41) ist gebürtiger US-Amerikaner und hat in den USA in Moralphilosophie promoviert.

Er hatte für drei Jahre eine Post-Doktorandenstelle am Lehrstuhl für Praktische Philosophie an der Universität Regensburg inne. 2019 habilitierte er sich an der LMU in München, auch am Lehrstuhl für Praktische Philosophie und Ethik, mit einem Stipendium der Deutschen Forschungsgemeinschaft über "Das Böse".

Er thematisiert darin die Frage, was der Unterschied ist zwischen bösartigen und schlechten Handlungen, wer die Verantwortung für das Böse trägt und wie eine Gesellschaft mit dem historischen Bösen zurechtkommen kann.

Seit seiner Habilitation arbeitet er als Senior Research Analyst bei "Trilateral Research" mit Hauptsitz in London. Zweck der Firma ist ethische Forschung mit Nachhaltigkeit und Wirkung auf die Gesellschaft. Goldberg lebt mit seiner Familie in Regensburg.

ShareFacebookTwitterShare

Weitere Artikel zum Thema:

Weihnachten 2020

Weihnachten 2020
Auch wenn im Jahr 2020 vieles anders ist, finden Adventszeit und Weihnachten statt - wenn auch im Zuge der Corona-Krise in veränderter Form. Der Newsticker Advent und Weihnachten informiert über Aktionen, Events und Gottesdienste in Bayern.