Der Einsatz von Künstlicher Intelligenz und Algorithmen beeinflusst unsere Gesellschaft. Wirtschaftsethiker Matthias Uhl erklärt im Podcast Ethik Digital, warum Technik ethisch nicht neutral ist, sondern unser Moralverhalten beeinflusst.

Herr Uhl, Sie erforschen das Verhältnis von Menschen und Maschinen – was treibt sie zu diesem Thema?

Uhl: Ich bin von der Ausbildung empirischer Sozialforscher und komme aus der sogenannten Verhaltensökonomik, wo wir uns anschauen, wie Menschen in wirtschaftlich relevanten Kontexten tatsächlich entscheiden, häufig im Unterschied zu den eher theoretischen Modellen. Da spielt die Psychologie eine Rolle und hat Einzug genommen in die Verhaltensökonomik. Soziales Handeln ist relativ gut erforscht, also etwa die Frage, welche Rolle der Einfluss von Freunden auf uns hat. Und mich hat interessiert, wie diese Erkenntnisse aus zwischenmenschlichen Kontexten auf KI und hybride Konstellationen übertragen werden können.

Sie haben sich in Ihrer Forschung sehr früh mit KI und Chatbots beschäftigt...

Uhl: Eigentlich habe ich mich über die Technikethik oder Maschinenethik angenähert, an der TU München zum Thema autonomes Fahren. Man hat zu Beginn die Geschwindigkeit dieser Entwicklung überschätzt, und dachte, in fünf bis zehn Jahren fahren wir alle autonom. Und da stellten sich sehr schnell relevante ethische Fragen. Insbesondere die Interaktion zwischen Mensch und Technik fand ich damals interessant, und ja, dann waren wir früh dran mit unserer Studie.

Eine ihrer Studien beschäftigt sich mit der Frage, wie und ob die Menschen dem Rat von KI-Empfehlungen folgen. Worum geht es da?

Uhl: Wir schauen in diesen Experimenten oder Forschungsumgebungen, was geschieht, wenn bestimmte Aspekte einer Situation verändert werden oder welchen Einfluss das auf Verhalten oder moralische Intuitionen hat. Bei dieser Studie haben wir ein moralisches Dilemma betrachtet, also eine Situation, in der man zwischen zwei Übeln wählen kann. Wir haben untersucht, was passiert, wenn Menschen, die sich entscheiden sollen, vor ihrer Entscheidung eine Empfehlung von einem Chatbot bekommen oder von einem anderen Menschen.

Das hielten wir für eine wichtige Frage, denn in den Richtlinien, die jetzt von der EU verabschiedet werden, geht es etwa darum, dass Menschen ein Recht haben sollten zu erfahren, ob sie mit einem Menschen oder einer Maschine interagieren – also etwa die Frage, spreche ich bei einem Kundenservice mit einem Chatbot oder mit einem Menschen.

Uns beschäftigte die Frage, ob das die Menschen überhaupt schert, also macht es für die Menschen einen Unterschied oder nicht. Wird der Rat eines Menschen anders bewertet als der einer Maschine? Hat das einen Einfluss auf die Entscheidung? Denn wir wissen, wie das bei epistemischen Kontexten läuft, also Wissensfragen. Wenn ich den Chatbot frage, was ist die Hauptstadt von Frankreich und er sagt, Paris, dann glaube ich das in der Regel. Von einem Taschenrechner weiß ich, dass er besser rechnen kann als ich. Aber Vertraue ich Maschinen in moralischen Fragen?

Und die Antwort ist: Das scheint so zu sein. Auf der Verhaltensebene ist die Entscheidung der EU also relativ egal. Offenbar sind wir im bestimmten Fragen so orientierungslos, dass wir jedwede Art von Ratschlag annehmen.

Das Gefährliche daran ist, das dies relativ unreflektiert passiert, also dass die Teilnehmenden denken, sie entscheiden sich aus eigener Intuition oder sie hätten ohnehin so entschieden. Und wir haben in den Studien gezeigt, dass dies nachweislich nicht so ist, sondern sie sind stark beeinflusst worden.

Kann man Maschinen moralische Kompetenz beibringen? Oder müssen die Nutzer lernen, vorsichtiger zu sein?

Uhl: Das ist die große Frage. Auch wenn wir überwiegend empirisch arbeiten, wird verständlicherweise oft die Frage gestellt, welche Schlussfolgerung wir nun daraus ziehen sollten. Und das ist eine separate Diskussion, die wir stärker in der Gesellschaft führen müssen – und nicht nur unter Experten.

Auch die Firmen können etwas beitragen. Die Entwickler von ChatGPT haben dafür gesorgt, dass der Bot auf bestimmte Fragen keine Antwort verweigert, weil man nicht will, dass die Leute beeinflusst werden. Aber das ist schwierig, weil es immer Fragen gibt, die nicht als sensibel erkannt werden oder sehr stark vom Kontext abhängen. Pauschal zu sagen, Chatbots geben keine Antwort auf moralische Fragen ist technisch sehr schwer umzusetzen, weil es dafür ein kohärentes Weltbild bräuchte, was der Chatbot nicht hat.

Ich halte es deshalb für vielversprechender, am User anzusetzen und diesen dafür zu sensibilisieren, dass Chatbots in einigen Bereichen keine Kompetenz haben. Weil sie ihre Antworten immer nur auf  Statistiken hin generieren. Ich halte es für sehr sinnvoll, die digitale Kompetenz auf Nutzerseite möglichst früh an den Schulen zu etablieren.

Können Sie ein Beispiel für ein solches moralisches Dilemma geben?

Uhl: Es gab einen Fall, der durch die Presse ging, bei dem ein User in Dänemark sich über das Thema Umweltschutz informiert hat und er den Bot fragte, was er am effektivsten tun kann, um den Planeten zu entlasten. Und weil dieser keine moralische Instanz ist, sagt der Bot: Selbstmord wäre das Effektivste. Wenn diese Person dass dann vielleicht macht, weil sie gerade in einem psychisch labilen Zustand ist, haben wir eine dramatische Situation. Und das kann man weiterdenken: Es ist vorstellbar, das Teenager einen Bot fragen, ob es in einer bestimmten Situation noch Sinn ergibt, eine Beziehung aufrecht zu erhalten oder bestimmte Medikamente zu schlucken.

Menschen müssen also einerseits der KI ihr Vertrauen schenken und andererseits ein gesundes Misstrauen aufbauen. Überfordert das die Menschen nicht kognitiv?

Uhl: Ich denke, Kinder sind da oft aufnahmefähiger als Erwachsene. Schon bei meinen eigenen Kindern habe ich das Gefühl, dass die in einigen Fällen eine natürliche Distanz zur Technik haben. Vielleicht läuft das wie beim Lernen von Sprachen, wo sich Erwachsene wahnsinnig schwer tun und Kinder kriegen die neue Sprache schnell rein. Und ich glaube schon, dass man den Unterschied zwischen einer Wissensfrage und moralischen Fragen den Menschen beibringen kann.

Wir sollten uns mit Expertinnen zusammentun und fragen, wie können wir das beibringen und wie können wir uns dieser Frage intensiver stellen. An den Schulen gibt es da schon eine gewisse Sensibilität, es gibt Schulleiter, die mich schon fragen, wie man dieses Wissen in die Lehrpläne integrieren könnte? Natürlich ist die Orientierungslosigkeit für uns alle groß, weil sich die Entwicklungen so überschlagen.

Matthias Uhl

Zur Person - Matthias Uhl

  • 2017 - 2021 Leiter einer Nachwuchsforschungsgruppe "Ethik der Digitalisierung" an der TU München
  • 2021 - 2024 Forschungsprofessor für Gesellschaftliche Implikationen und ethische Aspekte der KI, TH Ingolstadt
  • seit September 2024 Professor für Wirtschafts- und Sozialethik an der Uni Hohenheim, Stuttgart

Links zu den Studien

 

Podcast "Ethik Digital" abonnieren

Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

Audio-Podcast

Der Audio-Podcast kann bei diesen Kanälen abonniert werden:

Youtube-Playliste mit allen Videos von #EthikDigital

Hier geht's zu den Videos des Podcasts Ethik Digital.

Bei einer anderen Studie widmeten Sie sich der Medizinethik und kommen zu ganz anderen Ergebnissen. Wie kommt das?

Uhl: Bei diesem Projekt, das vom Bayerischen Institut für Digitale Transformation gefördert wird, beschäftigen wir uns mit der Interaktion von Radiologen oder Pathologen mit KI-Diagnostik. In den bildgebenden Verfahren gibt es eine immer größere Fülle von Bildmaterial, das interpretiert werden kann, und hier gibt es natürlich die Frage, wie die Technik hier unterstützen kann. Bei der Tumordiagnose geht es etwa darum, den Schweregrad von Tumoren zu identifizieren, und hier kann KI viel tun. Andererseits soll die ärztliche Intuition und das Wissen auch in der Schleife gehalten werden.
Unsere These war, dass künftig die Ärzte relativ unreflektiert die Empfehlung der Maschinen übernehmen würden. Und das sehen wir gar nicht. Vielmehr vertrauen die Ärzte zu stark ihrer eigenen Intuition und ignorieren die Empfehlung der Maschine.

Die Psychologen sprechen von "egozentrischer Diskontierung". Das bedeutet, dass ich nicht hinreichend berücksichtige, was ich eigentlich annehmen sollte. Das führt zu interessanten ethischen Fragen, denn das bedeutet, dass häufiger Fehldiagnosen zustande kommen, weil der Ratschlag der Maschine nicht berücksichtigt wird. Haben wir dann aber die moralische Pflicht, den Menschen aus der Schleife zu holen, wenn er nachweislich eine Fehlerquelle ist? Wer trägt dann die Verantwortung, wenn etwas schiefgeht? Es gehe hier also um Abwägungen, die sehr schwierig sind – und hier müssen wir in einer gesellschaftlichen Debatte entscheiden, was denn wichtiger ist.

Müssen wir vielleicht anfangen, diese moralischen Fragen doch auch operationalisierbar zu machen? Denn wir kommen von der Technologie nicht weg.

Uhl: Ich bin geneigt, Ihnen zuzustimmen. Es gibt aber eine ganze Reihe von Ethikern, die sagen, genau das ist das Problem, wenn wir die Dinge allzu messbar machen, das tötet jeden Gedanken von Moral. (…) Aber ich glaube, dass wir nicht umhinkommen werden, stärker bestimmte Kriterien und Prinzipien zu operationalisieren, wie etwas Fairnesskriterien. Das ist schmerzhaft. Ethik explizit zu machen, ist nicht so einfach, das kann auch unangenehm werden. Aber dann wird man die Entscheidung eben auch zur Debatte stellen.

Vielen Dank für das Gespräch.

Das ist eine gekürzte und redigierte Fassung des Podcast-Gespräches.

Kommentare

Diskutiere jetzt mit und verfasse einen Kommentar.

Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.

Anmelden