Peter G. Kirchschläger leitet das Institut für Sozialethik an der Theologischen Fakultät der Universität Luzern. Er berät Organisationen wie die UN und die EU in ethischen Fragen und forscht insbesondere zur Ethik der Digitalisierung. Im Podcast "Ethik Digital" spricht er mit Rieke C. Harmsen und Christine Ulrich darüber, warum er Maschinen keine Intelligenz zutraut und was wir tun müssen, um in der digitalen Transformation unsere Freiheit zu bewahren. Zudem erklärt er, warum die Menschenrechte den ethischen Bezugsrahmen für Corporate Social Responsibility liefern sollten.

Herr Kirchschläger, wie kommt man als Theologe dazu, sich mit Robotern und KI zu beschäftigen?

Peter Kirchschläger: In der Theologie und in der Philosophie interessiere ich mich vor allem für die Ethik, und es wurde für mich schon früh deutlich, dass die Fragen rund um sogenannte Künstliche Intelligenz und Roboter eine hohe Relevanz haben für unser Zusammenleben. Das Thema hat mich nie losgelassen, und ich beschäftige mich jetzt seit bald zwei Jahrzehnten damit.

"Gewisse Bereiche sind für Maschinen gar nicht zugänglich, etwa emotionale und soziale Intelligenz."

Sie bezweifeln, dass der Begriff "Künstliche Intelligenz" auf hochentwickelte, von Algorithmen getriebene Maschinen passt. Intelligenz, sagen Sie, komme eher dem Menschen zu. Was schlagen Sie alternativ vor? Und warum ist es wichtig, da sensibel mit der Sprache zu sein?

Wir müssen auch bei der Verwendung von Begriffen eine ethische Relevanz mitdenken. Das wirkt sich darauf aus, was wir unter ihnen verstehen, welche Erwartung wir an Maschinen haben und was wir ihnen zutrauen. Ich sehe es auch als Aufgabe der Ethik zu überprüfen, ob Begriffe wie ,Künstliche Intelligenz‘ und ,digitale Transformation‘ wirklich das treffen, was sie bezeichnen wollen. Das, was Maschinen erkennen können, betrifft nur gewisse Intelligenzbereiche. In einigen überragen sie die Menschen massiv, sicherlich auch in Zukunft – doch das ist nicht alles, was wir sonst unter menschlicher Intelligenz verstehen. Gewisse Bereiche sind für Maschinen gar nicht zugänglich, etwa emotionale und soziale Intelligenz: Die können Maschinen zwar fast schon perfekt nachahmen. Aber es ist nicht authentisch! Einem Pflegeroboter können Sie antrainieren, dass er weinen soll, wenn die Patientin weint. Aber es würde niemand vernunftbasiert behaupten, dass das echte Emotionen sind, die er empfindet. Ich könnte demselben Roboter auch beibringen: Wenn eine Person weint, dann gib ihr eine Ohrfeige – und er wird diesen Befehl genau gleich perfekt umsetzen. Nachahmung ist möglich, auch bei Emotionen. Aber es bleibt eine Nachahmung.

"Die erste Zeile eines Programmiercodes stammt immer vom Menschen. Und diese Fremdbestimmung kann eine Maschine nie loswerden, sie kann nicht als frei gedacht werden."

Denken Sie, das bleibt in Zukunft so, dass Maschinen keine eigenen Emotionen entwickeln?

Ich würde sagen, das wird so bleiben. Selbst wenn wir jetzt die Rechenfähigkeit von Maschinen massiv erhöhen können, werden sie keine emotionale, mentale und soziale Intelligenz entwickeln. Auch Moralfähigkeit bleibt für Maschinen unerreichbar, vor allem weil sie nicht frei sind. Maschinen bleiben in letzter Konsequenz in der Fremdbestimmung durch Menschen gefangen. Die erste Zeile eines Programmiercodes stammt immer vom Menschen. Und diese Fremdbestimmung kann eine Maschine nie loswerden, sie kann nicht als frei gedacht werden. Sie unterscheidet nicht selbst zwischen ethisch richtig und falsch, gut und schlecht – nur wir können ihr das beibringen. Sie kann sich auch nicht selbst die ethische Qualität von Regeln erschließen. Einem selbstfahrenden Auto kann ich beibringen, dass es bitte keine Menschen überfahren soll. Ich könnte demselben Fahrzeug aber auch beibringen: Ich möchte möglichst schnell von A nach B, also überfahre alles, was mir in den Weg kommt. Das Fahrzeug würde genau gleich konsequent diese Regel anwenden und entsprechend handeln, ohne dass es merkt, dass das etwas ethisch Falsches ist.

"Wir sind die, die das gestalten und die in letzter Konsequenz in der Verantwortung bleiben."

Wo überragt die Intelligenz der Maschinen die menschliche?

Ich denke etwa an den Umgang mit großen Datenmengen, an Rechenfähigkeit, also logische Deduktion – all das, was sich mathematisch abbilden lässt. Auch bei der Erinnerungsfähigkeit: Ich könnte nicht sagen, was vor 100 Jahren am heutigen Tag passiert ist. Eine Maschine teilt Ihnen das in Sekundenbruchteilen mit. Und künftig wird ihre Rechenleistung wohl noch substanziell zunehmen. Wenn man also überlegt: Okay, da ist nicht wirklich Intelligenz im Spiel, sondern worum es immer geht bei Maschinensystemen, sind Daten, Daten, Daten. Es geht um Datengenerierung, Datenauswertung, Datenverarbeitung, Datenanalyse. Deswegen würde ich als Alternative ,datenbasierte Systeme‘ vorschlagen, weil das trifft, was sie können. Es weckt keine falschen Erwartungen und vermeidet, dass wir Dinge in sie hineindenken, die sie nicht können. Und es lässt uns stärker wahrnehmen: Wir sind die, die das gestalten und die in letzter Konsequenz in der Verantwortung bleiben.

Der Begriff datenbasierte Systeme klingt so allgemein – jeder billige Computer fällt darunter. Wir könnten wir uns daran gewöhnen?

An den Begriff kann man sich gewöhnen, da wir das mit der Abkürzung DS auch sprachlich hinkriegen. Natürlich gibt es Unterschiede. Ein einfacher Computer ist auch ein datenbasiertes System, aber bis zu einem gewissen Grad nicht selbstlernend. Wenn er selbstlernend ist, muss man das aussprechen.

Dass ich als Mensch moralfähig bin, setzt voraus, dass ich frei entscheiden kann. Das kann die Maschine nicht. Wenn man den Eindruck hat, sie "entscheidet", tut sie das eigentlich nicht?

Genau. Wir Menschen sind fähig, für uns selber ethische Regeln zu erkennen und als verbindlich zu erachten. Ein selbstfahrendes Fahrzeug befolgt die Regel, weil es eine Regel ist. Aber ihm ist die ethische Qualität nicht zugänglich, und es kann keine ethisch legitime Regel erkennen. Es erkennt nicht mal den Unterschied zwischen einer normalen und einer ethischen Regel. Besonders im Fall von Fehlverhalten oder Unfällen merken wir, wie relevant das ist. Zwar wird beim automatisierten Fahren das Unfallrisiko sinken, weil selbstfahrende Fahrzeuge selten betrunken, unglücklich, verliebt, übermüdet oder durch SMS-Schreiben abgelenkt fahren. Doch falls etwas passieren sollte, ist es aus ethischer Sicht schwierig zu vermitteln, dass man dann sagt: Okay, ich hänge das Fahrzeug mal ein paar Tage als Strafe nicht an den Strom, oder ich zerstöre es. Da merkt man die Grenzen: Dort braucht es Menschen, die zur Verantwortung gezogen werden können.

"Die Menschenrechte sind ein Minimalstandard."

Regeln zu setzen hängt stark von einzelnen Gesellschaften ab. Sie sähen das Thema KI gerne bei den Menschenrechten verankert. Warum?

Die Menschenrechte sind ein Minimalstandard. Sie schützen nichts anderes als das, was wir brauchen, um physisch überleben zu können, und Elemente und Bereiche der menschlichen Existenz, die wir brauchen, um ein menschenwürdiges Leben zu führen. Beim Überlebensnotwendigen zählt etwa das Menschenrecht auf Nahrung dazu und beim für ein menschenwürdiges Leben Notwendigen beispielsweise das Recht auf Bildung oder das Recht auf politische Mitbestimmung. Entschuldigen Sie das Beispiel: Es stirbt niemand unmittelbar daran, wenn er keine Bildung genießen kann. Aber für ein menschenwürdiges Leben ist ein Zugang zu Bildung essenziell. Genauso sterben wir nicht automatisch, wenn wir in einer Diktatur leben. Aber für ein menschenwürdiges Leben ist es wesentlich, dass wir Menschen in politische Ämter wählen dürfen. Ich würde sagen: Es überfordert auch Technologien nicht, sich an diesen Minimalstandard zu halten. Das ist kein höheres Ethos, wo die Gefahr besteht, dass wir die Technologien überfordern oder aufgrund von weltanschaulichen oder kulturellen Unterschieden keinen gemeinsamen Weg finden. Die Menschenrechte sind das, was wir weltweit wirklich erwarten können müssen – auch weil gerade dieser Minimalstandard uns überhaupt technologischen Fortschritt erlaubt. Die Menschen, die forschen und entwickeln, brauchen dafür den Schutz der Menschenrechte, denn nur so können sie frei ihre Meinung äußern und haben freien Zugang zu Informationen. Nur so können sie auch ,out of the box‘,außerhalb vom bisher Vorstellbaren, denken und haben die Freiheit, Autoritäten und bislang gültige Wahrheiten zu hinterfragen. Und schließlich sind Menschenrechte sehr praxisorientiert: Es gibt nichts Praktischeres als das physische Überleben und das konkrete menschenwürdige Leben – also sind die Menschenrechte sehr fassbar und gut umsetzbar.

"Meine Kritik richtet sich gegen das Geschäftsmodell, das darauf basiert, dass Menschen dazu motiviert werden, wütend aufeinander loszugehen."

Schon bei der einfachsten Kommunikation werden die Menschenrechte oft mit Füßen getreten – wie kann Ihr Ansatz für die weltweite digitale Transformation greifen?

Das Globale erhöht die Dringlichkeit, etwas zu unternehmen. Mit einem Klick kann ich Millionen Menschen mit rassistischer Hetzrede oder Aufrufen zu Gewalt erreichen. Zur Frage, ob sich die Menschenrechte durchsetzen lassen, würde ich grundsätzlich sagen: Die Schwierigkeit bei der Realisierung ist kein Argument gegen die Geltung. Wenn etwas ethisch begründbar gelten soll und wir es aber noch nicht geschafft haben, das durchzusetzen, dann haben wir da Handlungsbedarf. Es ist ein Skandal, dass wir einen Minimalstandard wie die Menschenrechte noch nicht weltweit durchgesetzt haben. Und das erhöht die Dringlichkeit, das zu ändern, auch im Kontext des Digitalen. Die Online-Akteur*innen, insbesondere die Technologiekonzerne, hätten sehr wohl technische Instrumente, Hassrede zu unterbinden. Meine Kritik richtet sich gegen das Geschäftsmodell, das darauf basiert, dass Menschen dazu motiviert werden, wütend aufeinander loszugehen, weil sie das länger auf den Social-Media-Plattformen hält und die Konzerne damit Geld verdienen. Zum Beispiel die jüngste Whistleblowerin von Facebook hat deutlich werden lassen, dass Facebook sehr wohl weiß um diese Problematik, aber es dennoch weiter befeuert, um noch mehr Geld zu verdienen.

Wo, glauben Sie, sind die Hebel – eine stärkere Regulierung?

Es bräuchte eine stärkere Regulierung dahingehend, dass man sehr gezielt und präzise konsequent umgesetzt eingreift – analog zum Offline-Bereich. Wenn wir es gezielt und präzise machen und nicht flächendeckend ungenau und schwammig, dann kann es auch innovationsfördernd sein. Die US-Luftfahrtindustrie ist ein Beispiel: Sie ist deswegen so schnell und stark gewachsen, weil es eine sehr präzise Regulierung gab, die knallhart durchgesetzt wurde. Deswegen haben Menschen angefangen, darauf zu vertrauen, dass man in ein Objekt wie ein Flugzeug einsteigen kann, weil man wusste, da gibt es eine Regulierungsbehörde, die jegliche Verstöße sanktioniert. In diesem Fall war Regulierung auch Wirtschaftsförderung. Ich wehre mich dagegen, sie immer als innovationsfeindlich zu betrachten, was in der Sache nicht stimmt. Und ich schlage vor, dass man menschenrechtsbasierte datenbasierte Systeme schafft, also darauf achtet, dass die Rohstoffschürfung, die Entwicklungsschritte sowie die Verwendung in Übereinstimmung mit den Menschenrechten geschehen.

"Wir Menschen verhalten uns anders, wenn wir überwacht sind, und das sind wir momentan eigentlich dauernd."

Wie steht es um das Menschenrecht auf Datenschutz?

Im Zuge der digitalen Transformation bleiben wir darauf angewiesen, Daten nutzen zu können. Ich würde nur dazu einladen, dass wir zweckgebundene Datenverwendung vorschreiben. Das wäre im Einklang mit dem Menschenrecht auf Datenschutz und dem Menschenrecht auf Privatsphäre. Zum Beispiel meiner Hausärztin teile ich meine persönlichsten Daten mit und vertraue darauf, dass sie diese nicht an den Meistbietenden weiterverkaufen kann, sondern dass sie mir auf dieser Datenbasis hilft, mein Problem zu lösen. Gleichzeitig kann ich noch informiert Zustimmung geben dazu, dass meine Daten auch für definierte Forschungszwecke eingesetzt werden können. Im Internet darf es nicht so bleiben, wie es ist – dass meine Daten einfach an die Meistbietenden verhökert werden. Eine Lösung kann auch nicht sein, dass wir am wirtschaftlichen Profit beteiligt werden. Die ethische Perspektive ist, dass wir die Menschenrechte nicht veräußern können sollen. Das Sklavereiverbot beispielsweise beinhaltet auch, dass ich mich nicht freiwillig aus wirtschaftlicher Not versklaven können soll. Entsprechend sollten wir auch nicht unsere Daten weiterverkaufen dürfen. Wir sollten davor geschützt werden, weil die Menschenrechte auf Privatsphäre und Datenschutz freiheitsrelevant sind. Wir Menschen verhalten uns anders, wenn wir überwacht sind, und das sind wir momentan eigentlich dauernd.

"Im digitalen Bereich kann ich faktisch alles auf den Markt werfen. Damit wird Menschen und der Umwelt geschadet, und wir schauen zu."

Sind die Menschenrechte nicht zu allgemein, um auch relativ spezielle Fälle abzudecken – ethisch und rechtlich?

Die Menschenrechte geben ethische Orientierung, Regulierungsmaßnahmen können sich auf sie abstützen, und ich würde sagen, sie reichen auch rechtlich aus. Zum Beispiel rassistische Hetzrede: Da haben wir das Recht auf Meinungsfreiheit und zugleich das Recht auf Nichtdiskriminierung. Es ist nicht so, dass plötzlich der Konflikt aufpoppt, weil ein weiteres Recht daherkommt, sondern von Anfang an sind die beiden gemeinsam zu denken, da sie sich auch gegenseitig begrenzen. Ich weiß also von Anfang an, dass meine Meinungsfreiheit eine Grenze hat im Menschenrecht auf Nichtdiskriminierung. So kann ich eigentlich sehr genau regeln, dass rassistische Hetze im Internet nicht zulässig ist. Da ist auch ein spezifischer Eingriff legitim. Was jetzt noch fehlt, sind konkrete Maßnahmen – und da könnten menschenrechtsbasierte datenbasierte Systeme helfen. Zusätzlich schlage ich vor, dass wir eine internationale Datenbasierte-Systeme-Agentur schaffen, kurz DSA. Diese braucht es bei den Vereinten Nationen. Dazu noch eine Analogie: Wir haben in der Kerntechnik geforscht und die Atombombe gebaut, wir haben sie mehrmals abgeworfen und gemerkt, wir müssen das in den Griff bekommen. Also haben wir die Internationale Atomenergiebehörde geschaffen und mit Kompetenzen ausgestattet. Zwar ist das Konstrukt nicht perfekt und hat auch seine geopolitischen Implikationen, aber es hat dabei geholfen, dass wir Schlimmeres verhindern konnten. Ähnlich würde eine DSA etwa regeln, was zugelassen werden darf. Wenn ich im Pharmabereich ein Medikament auf den Markt bringen möchte, gibt es legitimerweise Zulassungsschritte, die dafür sorgen, dass nichts verkauft wird, was Menschen oder der Umwelt schadet. Das beschleunigt Innovation nicht, aber es macht sie sicherer. Im digitalen Bereich kann ich faktisch alles auf den Markt werfen. Damit wird Menschen und der Umwelt geschadet, und wir schauen zu. Darum brauchen wir diese Agentur, um uns vor uns selbst zu schützen.

Sind wir in der EU auf einem guten Weg? Ist es noch eine ferne Vision mit der Agentur?

Ich denke, wir sind insofern auf einem guten Weg, als dass es mehr und mehr Problembewusstsein gibt. Außerdem kommt langsam der Mut auf, etwas gegen die fünf großen Technologiekonzerne zu unternehmen. Ich vertraue auch auf die Kraft des besseren Arguments, dass wir wirklich eine DSA bekommen. Die wirtschaftliche und politische Macht der fünf großen Konzerne können wir aktuell gar nicht groß genug einschätzen und auch nicht ihre Bereitschaft, alles dafür zu tun, um Regulierung abzuwehren. Facebook, Google, Amazon, Apple und Microsoft geben zusammen jährlich über 30 Millionen Dollar allein in der EU dafür aus, um Politiker*innen daran zu erinnern, ihr Geschäftsmodell nicht anzugreifen. Das ist Weltspitze im Bereich von Lobbying. Man darf ihre Druckmittel nicht unterschätzen, etwa wenn ein Suchmaschinenkonzern dem Politiker sagt, man findet Sie dann leider nicht mehr auf Seite eins, sondern auf Seite zehn der Trefferliste. Für einen Fehler halte ich es auch, dass wir bei internationalen Verhandlungen zu zukünftigen Rahmenbedingungen für datenbasierte Systeme und digitale Transformation die Konzerne mitreden lassen in dem Missverständnis, dass wir ihre technischen Kompetenzen brauchen. Entschuldigen Sie das Bild: Wir würden ja auch nicht die Mafia an den Tisch einladen, um den Drogenhandel besser in den Griff zu bekommen. An den Universitäten und Hochschulen gibt es genug technisch kompetente Leute für Lösungen.

Sie finden, wir Bürger müssen stärkere Leitplanken setzen und sagen: So wollen wir das haben, und es ist euer Job, das zu machen?

Absolut, und das klingt für den digitalen Bereich überraschend, weil wir es dort bisher anders gemacht haben. Aber eigentlich ist es überraschend, dass wir dort bisher nur zugeschaut haben. Wir haben Dinge laufen lassen, die sich in keinster Art und Weise mit einem liberalen Rechtsstaat vereinbaren lassen. Wir haben uns fast schon daran gewöhnt, dass man uns unsere Daten klaut. Dabei sind das eigentlich dauernd Menschenrechtsverletzungen, die wir nicht zu dulden haben. Für diese Rechte haben wir als Menschheit jahrhundertelang gekämpft. Und jetzt gilt es, auch im Zuge der digitalen Transformation und datenbasierter Systeme dafür Sorge zu tragen, gerade auch weil sie in Bezug auf Pluralität eine schützende und fördernde Funktion haben. Sie erlauben uns, selbstbestimmt zu entscheiden, wie wir leben wollen und wie wir uns verstehen, etwa religiös oder nichtreligiös. Solche Freiheiten sind erst durch die Menschenrechte garantiert. Und die sind nicht einfach da, sondern wir müssen zu ihnen Sorge tragen. Darum halte ich sie auch in diesem Transformationskontext für orientierungsstiftend.

Was tun Sie konkret auf dem Weg zu dieser Agentur?

Zunächst habe ich versucht, mit dieser Idee zum wissenschaftlichen Diskurs beizutragen, das war ein mehrjähriges Forschungsprojekt. Nun bin ich dabei, mit verschiedenen Personen, Institutionen und Organisationen auszuloten, wie das in eine Realisierung kommen könnte: menschenrechtsbasierte datenbasierte Systeme und die DSA.

"Ich würde dem ,homo digitalis‘ einen ,homo dignitatis‘ entgegenhalten, einen Menschen als Träger*in von Menschenwürde."

Die Menschenrechte dienen auch als Bezugspunkt, um den Menschen von der Maschine zu unterscheiden. Wird man irgendwann von einem ,homo digitalis‘ sprechen, der Chips implantiert hat?

Ich würde dem ,homo digitalis‘ einen ,homo dignitatis‘ entgegenhalten, einen Menschen als Träger*in von Menschenwürde. Damit wird deutlich, dass selbst bei massiver Durchdringung unserer menschlichen Existenz durch Maschinen wir immer noch etwas anderes sind als diese. Wir können entscheiden, was die Maschine tun darf und ob wir sie überhaupt wollen. Wir entscheiden, uns von den Maschinen zu distanzieren und zu differenzieren. Natürlich kann durch die intensive Interaktion mit ihnen der Eindruck entstehen, dass wir damit verschmelzen. Ich halte diese Vorstellung für falsch, weil ich denke, wir bleiben Subjekt und die Maschinen Objekt. Auch wenn diese uns positiv unterstützen können: Wir können bei unserer Meinungsbildung sehr gut auf datenbasierte Systeme zurückgreifen, um unsere Entscheidungen vernünftiger zu fällen. Wenn wir die Klimazerstörung in den Griff bekommen wollen, ist es ratsam, uns auch auf datenbasierte Systeme zu stützen, die etwa Szenarien berechnen können. Aber der Mensch sollte die letztentscheidende Rolle spielen.

Glauben Sie, dass wir schnell genug sind mit der Ethik?

Wir sollten schauen, ob wir nicht die verschiedenen Tempi etwas annähern können. Bei einigen demokratischen Prozessen können wir versuchen, das Tempo ohne Qualitätsverluste zu steigern, aber wir müssen auch diskutieren, wie wir Innovationsprozesse entschleunigen. Wir sollten Ethik und Technologien von Anfang an in eine Interaktion bringen, weil sie sich gegenseitig bereichern können. So können wir auch vermeiden, dass eine Innovation mit vielen Talenten und vielen Ressourcen entwickelt wird und am Ende gar nicht auf den Markt gebracht werden kann. Gescheiter ist es, man spricht von Anfang an mit Ethiker*innen. Davon profitiert die Technologieentwicklung, wenn sie frühzeitig erkennt, ob es ein ethisches Problem zu meistern gibt oder eine ethische Chance, die man fördern kann.

"Wichtig ist, dass Institutionen, Organisationen und Unternehmen dafür sorgen, dass Ethikgremien wirklich unabhängig arbeiten."

In der Ethik gibt es ganz unterschiedliche Ansätze, etwa einen utilitaristischen oder einen verantwortungsethischen. Davon hängt doch bei einer Bewertung und Beratung durch Ethiker*innen viel ab, oder?

Ja, und die Ethik muss diese Pluralität achten und auch entsprechend methodisch vorgehen. Das schaffen wir am besten, wenn wir jeweils rational begründen, wieso wir uns an einem bestimmten ethischen Modell orientieren. Wir können nicht voraussetzen, dass sich alle Gesprächsteilnehmer*innen einig sind, welches in einer Situation der ethisch richtige Weg ist, sondern müssen unseren Ansatz und die Theorie, mit der wir arbeiten, rational begründen. In Ethikgremien bildet sich Pluralität in einem positiven argumentativen Streit ab wie in anderen Wissenschaften auch, da wird gestritten und um Positionen gerungen. Dabei gilt es darauf zu vertrauen, dass sich das beste Argument durchsetzt. Wichtig ist, dass Institutionen, Organisationen und Unternehmen dafür sorgen, dass Ethikgremien wirklich unabhängig arbeiten und auch schwierige Entscheidungen treffen können – ein guter Weg muss nicht der lukrativste sein. Ja, es macht einen Unterschied, ob ich eine Frage utilitaristisch beurteile oder etwa menschenrechtsethisch. Aber ich sehe wiederum auch den menschenrechtsethischen Ansatz als Grundlage, die gerade diese Pluralität der Ethik erst ermöglicht: dass wir frei sind, selber zu entscheiden, was wir für uns selbst als verbindlich erkennen. Das ist eine Autonomie, eine Selbstgesetzgebung, die durch die Menschenrechte geschützt ist. Diese ist zum Beispiel durch einen utilitaristischen Ansatz nicht geschützt, weil im Dienste der Maximierung des Glücks einer Gruppe auch die Selbstbestimmung eines einzelnen Menschen verletzt werden darf. Dass der Utilitarismus attraktiv ist für technologiebasierte Innovationsprozesse hängt damit zusammen, dass er vom Argumentationsmuster stark der Gewinnmaximierung ähnlich ist.

Was liegt Ihnen noch besonders am Herzen?

Dass wir aus dieser Wahrnehmung herauskommen, digitale Transformation und datenbasierte Systeme wären etwas, was einfach passiert wie vom Himmel gefallen, und wir Menschen müssten das so dulden. Wir müssen aus dieser Indifferenz herauskommen und unsere Gestaltungsverantwortung als Menschen konsequenter wahrnehmen, indem wir die Schrauben drehen, die wir drehen können, um so sicherzustellen, dass wir eine menschenwürdige Zukunft haben und die Erde eine nachhaltige Zukunft hat.

 

Der Text ist eine gekürzte Version des Video-Podcasts.

Peter G. Kirchschläger

Peter G. Kirchschläger ist Professor für Theologische Ethik und Leiter des Instituts für Sozialethik ISE an der Theologischen Fakultät der Universität Luzern. Kirchschläger ist beratender Experte in ethischen Fragen für Organisationen wie die UN, die UNESCO oder die EU und den Europarat. Er leitet den neuen Masterstudiengang „Ethik“ an der Uni Luzern (www.unilu.ch/master-ethik) ­– mit einer Spezialisierungsoption u.a. in „Ethik der digitalen Transformation“. 

Podcast Ethik Digital abonnieren

Der Podcast #EthikDigital von Rieke C. Harmsen und Christine Ulrich kann bei diesen Kanälen abonniert werden:
 

Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

 

Youtube-Playliste mit allen Videos von #EthikDigital

https://www.youtube.com/playlist?list=PLb68o3_9IKtDgE9eWxDI5RU5aHRZbw85F