Kerstin Schlögl-Flierl ist Moraltheologin an der Universität Augsburg und gehört zum Center for Responsible Technologies (CReAITech) verschiedener Universitäten, die interdisziplinär zu KI forschen. Zudem ist sie Mitautorin der Stellungnahme "Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz" des Deutschen Ethikrates, die 2023 erschien.
Frau Schlögl-Flierl, es gibt inzwischen eine ganze Reihe von KI-Tools und Produkte, die sich dem Leben nach dem Tod und dem digitalen Weiterleben widmen. Diese Industrie des "Digital Afterlife" wächst rasant. Ich könnte also zum Beispiel mit meiner Oma sprechen oder mit Avataren, die verstorbene Angehörige simulieren. Würden Sie diese Technologie gerne nutzen?
Kerstin Schlögl-Flierl: Für mich zielt diese Frage in zwei Richtungen: Möchte ich selbst ein Avatar werden - und für welchen Zweck? Und die andere Seite fragt: Wer ist daran interessiert, mit Verstorbenen zu sprechen? Ich sehe schon einen großen Vorteil darin, dass wir etwa mit Holocaust-Zeitzeugen ein Gespräch führen können. Die Frage der Erinnerungskultur stellt sich da ganz neu. Ich würde immer nach dem Ziel dieser Anwendungen fragen: Wenn ich eine junge Generation damit an ein Thema heranführen kann, ist das ein gutes Ziel. Wenn aber der Trauerprozess damit in die Länge gezogen wird, dann sollte das geprüft werden.
Wo sehen Sie die Chancen und Herausforderungen der KI-gestützten Erinnerungskultur?
Es geht darum, menschliche Erinnerungen als Daten in KI einzuspeisen und dann einen Deathbot zu erschaffen, der Gespräche mit der verstorbenen Person simuliert. Derzeit erleben wir eine Simulation der Verstorbenen als Chatbots, dann kommen Avatare als nächste Stufe. Aber faktisch ist es eine Software, mit der wir Gespräche führen. Unsere Erinnerung endet irgendwann. In der Erinnerungskultur sagen wir, jemand ist erst dann tot, wenn sich keiner mehr an ihn erinnert. So funktioniert auch unsere Friedhofskultur. Die Frage ist, wer diese Deathbots nutzt.
Meine größte Sorge ist, dass sich die Gesprächskultur verändert. Denn bei einem Bot wird es keine großen Widersprüche, keine Gegenrede, keine Auseinandersetzung geben. Und dann frage ich mich, wie sich die Mensch-Mensch-Kommunikation verändert, wenn die Bot-Kommunikation doch so einfach ist. Eine KI ist 24 Stunden und sieben Tage die Woche bereit und kann immer antworten. Aber manchmal ist es gut, wenn wir in der menschlichen Kommunikation Widerstand und Emotionen erfahren. Das fällt dann weg – und das wird auch die zwischenmenschliche Kommunikation ändern.
Ist die Emotionalität und Vielschichtigkeit eines Menschen überhaupt über eine Maschine abbildbar?
Die Informatiker*innen, die daran arbeiten, sagen, dass Empathie und Emotionen simuliert werden können. Da wird noch einiges geschehen. Aber es bleibt eine Simulation und Kopie. Es ist nicht das Original. Aber das wird schnell vergessen, wenn die Simulation perfekt ist. Ich glaube, dass unsere alten Kategorien von Kopie und Original uns helfen können, darüber nachzudenken, was wir wollen. Denn: Diese virtuelle Person wird in einem bestimmten Zustand programmiert und wird sich nicht weiterentwickeln.
Über soziale Medien und mit Influencer*innen entstehen jetzt schon viele parasoziale Beziehungen im Netz. Was bedeutet das für die Erinnerungskultur?
Das wird die Frage sein. Es wird einen qualitativen Unterschied geben, wenn die KI spontan reagieren kann. Das wird sehr natürlich wirken. Und dann ist die Frage, ob das der Erinnerungskultur hilft, ob etwa die Erinnerung an den Holocaust dadurch wachgehalten und lebendig gemacht werden kann. Als Fotografien zum ersten Mal verstorbene Personen gezeigt haben, reagierten die Menschen da auch sehr erschrocken. Diese Nähe an der Realität kann aber auch positive Effekte haben.
Digital Afterlife: Eine Geldquelle für Konzerne?
Im Unterschied zur Friedhofskultur geht es bei der Digital-Aferlife-Industrie auch um viel Geld. Unternehmen wollen damit hohe Umsätze erzielen. Wie muss das reguliert werden?
Das ist eine Frage des wirtschaftsethischen Zugangs. Grundsätzlich ist die Wirtschaftsmacht der Plattformen derzeit ein Problem. Es sind wenige große Konzerne, die die Entwicklungen vorantreiben. Aber wie bei den meisten wirtschaftlichen Errungenschaften wird es so sein, dass diese Tools irgendwann auch leistbar sind für die sozioökonomisch nicht so gut ausgestatteten Menschen. Und natürlich müssen wir diskutieren, wenn sich nur reiche oder wohlhabende Menschen einen solchen Death-Chatbot leisten können.
Andere Kritiker der Industrie fordern, dass die gesamte Afterlife-Industrie reguliert werden sollte wie in der Medizin, weil vor allem psychologisch sensible Themen darin vorkommen. Wie sehen Sie das?
Tatsächlich ist der Markt bei diesen KI-Anwendungen derzeit kaum reguliert. Es gibt Sektoren wie die Medizin, wo es klare Regulierungen gibt, und es gibt Sektoren wie die Bildung, wo es Standards gibt, an denen sich ein Produkt orientiert. Es ist also naheliegend, ein Regulierungsumfeld zu finden, an dem man sich bei der Afterlife-Industrie orientieren kann. Ich bin da zwiegespalten: Ist ein Deathbot wirklich ein Medizinprodukt? Da sollten wir auch die Erfahrungsberichte auswerten, die das ausprobiert haben. Ich kann verstehen, dass man das fordert, aber ich hinterfrage, ob das der richtige Weg ist, das so zu regulieren.
Wie steht es um die Würde und der Autonomie der Verstorbenen? Also wie gehen wir damit um, dass wir diese Geräte mit Material füllen, das die Verstorbenen gar nicht dort sehen wollen oder wozu sie gar kein Einverständnis gegeben haben?
Ich finde es wichtig, sich der Daten zu versichern und zu überlegen, welche Daten verwendet werden. Bei einem Deathbot müssen die Daten freigegeben werden von der Person, die die Daten zur Verfügung stellt, das ist also eine bewusste Entscheidung. Aber das Thema der Daten und Sicherheit wird viel diskutiert. Es gibt eine coole Serie bei Netflix, die diese Frage durchspielt: Eine junge Frau ist schwanger, ihr Ehemann stirbt, sie kommuniziert mit dem Laptop ihres Mannes – und stellt am Schluss fest, dass dieser gar nicht widerspricht und kein Gegenüber ist.

Podcast "Ethik Digital" abonnieren
Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de
Audio-Podcast
Der Audio-Podcast kann bei diesen Kanälen abonniert werden:
Youtube-Playliste mit allen Videos von #EthikDigital
Hier geht's zu den Videos des Podcasts Ethik Digital.
Digital Weiterleben: Eine theologische Frage
Warum wollen die Menschen überhaupt digital weiterleben?
Schlögl-Flierl: Das sind die großen anthropologischen Fragen nach der Unsterblichkeit des Menschen. Als Theologin stelle ich die Frage nach der Endlichkeit natürlich ganz anders und sehe da die Frage nach der Seele. Was ist die digitale Seele? Wir sehen, dass die Realität immer weniger von der Virtualität unterschieden wird. Ich bin beim Seelenbegriff sehr vorsichtig. Im Christentum sprechen wir immer von unserer Seele-Leib-Beziehung. Und der Leib ist in der KI-Diskussion immer die Differenz: Die leibliche Existenz ist menschlich.
Und damit unterscheidet sich der Mensch von der KI? Weil die Kopie eben nie das Leibliche hat?
Schlögl-Flierl: Wir werden sehen, was die Zukunft bringt. Ich merke, dass wir viele Science-Fiction-Vorstellungen im Kopf haben. Wir werden sehen, was davon wirklich umsetzbar ist. Beim Deutschen Ethikrat hatten wir viele Anhörungen mit Technik- und Neurowissenschaftler*innen. Es war dann oft ernüchternd, zu sehen, welche Erwartungen es gibt, und was davon überhaupt machbar oder erfüllbar ist.
Dies ist die gekürzte und redigierte Version des Podcasts "Ethik Digital". Die gesamte Folge können Sie hier anhören.
Kommentare
Diskutiere jetzt mit und verfasse einen Kommentar.
Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.
Anmelden