Arne Manzeschke ist Professor für Ethik und Anthropologie, Leiter der Fachstelle für Ethik und Anthropologie im Gesundheitswesen der Evangelisch-Lutherischen Kirche in Bayern und Leiter des Instituts für Pflegeforschung, Gerontologie und Ethik (IPGE) an der Uni in Nürnberg. Im Podcast Ethik Digital spricht er über Robotik, Ethik und digitale Ethik im Gesundheitswesen. Der Podcast wurde live in der Stadtakademie aufgezeichnet.

Wir befinden uns im Jahr 2030, da hinten kommt ein Pflegeroboter um die Ecke gekurvt und unterstützt uns. Ist das eine schöne Vorstellung für Sie und ein realistisches Szenario?

Arne Manzeschke: Ob das eine schöne Vorstellung ist, liegt im Auge der Betrachter. Die Frage ist eher, wem das hilft und was wir unter Pflegeroboter verstehen. Mit dem Begriff bin ich vorsichtig, weil viele Assoziationen in die Irre führen. Ich spreche lieber von robotischen Systemen, denn ein (Pflege)Roboter erweckt leicht die Assoziation, dass dieses Gerät aussieht wie ein Mensch und wie dieser das ganze Spektrum pflegerischer Aufgaben übernimmt.

Unterstützen die robotischen Systeme die Pflegekräfte, die sich nicht mehr darum kümmern müssen, neue Wäsche aus dem Lager zu holen oder die Medikamente zu verteilen? Oder helfen die Geräte den Pflegebedürftigen, indem sie Wasser oder ein Gespräch anbieten? Was sollen diese Geräte können?  Wir sind an dem Punkt, an dem wir darüber entscheiden, womit wir es in Zukunft zu tun haben wollen. Wir entscheiden über unser Versorgungssystem.

Hier gehen die Argumente auseinander, einige sagen, Roboter dürfen auf keinen Fall die Zwischenmenschlichkeit ersetzen, andere sagen, es gibt zu wenig Pflegende, wir brauchen dringend Roboter.

Die Frage ist doch, wo wollen wir denn hin? Wollen wir einen einfühlsamen Roboter? Was soll er alles tun können? Soll er jeden Wunsch erfüllen oder auch widerständig sein und ein Gegenwort äußern?

Sind wir denn überhaupt noch in der Lage, die robotischen Systeme zu gestalten oder ist der ökonomische Druck längst so hoch, dass wir gar keine Wahl mehr haben?

Selbst wenn der ökonomische Druck hoch ist, müssen wir über die Konstruktion und Gestaltung entscheiden. Soll das Gerät aussehen wie ein Mensch, soll es duzen oder siezen, eher kumpelhaft auftreten oder eher wie ein Butler? Wo wollen wir diese Geräte einsetzen? Gerade weil der ökonomische Druck hoch ist, müssen wir umso genauer definieren, was wir wirklich brauchen.

Sie haben den Einsatz eines Pflegeroboters wissenschaftlich begleitet. Dabei ging es auch um ethische Fragestellungen. Wie sah das konkret aus?

Wir haben etwa das Projekt von Navel Robotik von Anfang an wissenschaftlich begleitet und dabei ethische Fragen diskutiert. Inzwischen ist das Gerät viel weiter und kann Dialoge führen, es wird in mehreren Altenheimen getestet. Da werden die Möglichkeiten, die diese Roboter haben, erprobt. Ethisch bedeutsam ist, wie sich durch den Roboter das Verhältnis zwischen den Menschen verändert bzw. wie Menschen sich selbst in der Begegnung mit dem Roboter verstehen. Sollen Roboter das können, was Menschen können, oder liefern sie andere hilfreiche Optionen?"

Werden denn ethische Fragen bei der Entwicklung mitgedacht? Ist es nicht eher so, dass viele Firmen Ethikwashing betreiben – auch im Gesundheitswesen?

Bei Forschungsprojekten, die etwa von einem Bundesministerium gefördert werden, gibt es die Verpflichtung, sich mit ethischen Fragen zu beschäftigen. Das steht in den Forschungsunterlagen und in der Ausschreibung, und in dem Projekt muss auch darauf geantwortet werden, sonst fließen die Fördergelder nicht. Wenn es um reine Industrieprodukte geht, sieht es unter Umständen ganz anders aus.

Im Gesundheitswesen kommen wir um ethische Fragen nicht herum: Wie helfen wir dem Menschen, wie wenden wir Schaden von ihm ab? Viele diakonische Einrichtungen beschäftigen sich gerade mit der digitalen Transformation, dazu gehören dann auch Roboter, und auch die denken diese ethischen Fragen von Anfang an mit.

 

Digitale Ethik in Krankenhäusern

In den Krankenhäusern gibt es einen enormen ökonomischen Druck, werden dort robotische Geräte schneller eingesetzt?

Ein Operations-Roboter ist nicht zum Nulltarif zu haben, sprich, das Krankenhaus muss sich sehr gut überlegen, wofür es das Geld einsetzt, auch müssen sie sich fragen, ob es überhaupt die Räume dafür gibt. Dann gibt es einen Fachkräftemangel, der in den Krankenhäusern sehr stark zu spüren ist, der auch einen Druck erzeugt. Denn wenn ich das Personal nicht habe, um eine Station aufrecht zu erhalten, dann nutzt mir auch ein OP-Roboter nichts. Die Einrichtungen müssen also immer mehrdimensional denken.

In der Studie "Digitale Gesundheit 2025" der Bundesregierung wird gefordert, den Datenschatz des Gesundheitswesens künftig besser zu nutzen – wie umstritten ist das aus ethischer Sicht?

Hier geht es überwiegend um personenbezogene Daten. Diese können mit einem entsprechenden Datenmanagement anonymisiert werden und genutzt werden, um Vergleichsstudien zu machen oder eine KI zu trainieren. Daten sind ein Schatz, mit dem nicht nur Geld verdient, sondern auch die Versorgung verbessert werden könnte. Das ist ein richtiger Punkt. Und in Deutschland und in der EU wird überlegt, wie regulieren wir den Umgang mit diesen Daten. Zu sagen, wir wollen mit diesen Daten gar nichts machen oder gar nichts zu tun haben, ist nicht sinnvoll, da würden wir viele Möglichkeiten und viel Wissen verschenken. Fragwürdig ist allerdings, wenn Menschen ihre Daten zur Verfügung stellen und andere ungefragt damit Geschäfte machen.

Arne Manzeschke Podcast Ethik Digital
Arne Manzeschke im Podcast Ethik Digital

Künstliche Intelligenz im Gesundheitswesen

 

Wird die KI künftig die Entscheidungen der Ärzte übernehmen?

Der Algorithmus oder die KI entscheidet nicht, sondern liefert Rechenergebnisse. Wir müssen uns fragen, was wir Menschen damit machen. Künftig kann der Arzt auf der Basis einer größeren Datenmenge die Wahrscheinlichkeit für eine Therapieoption ziemlich genau errechnen. Und dann muss der Arzt sein Erfahrungswissen einbringen und eine Entscheidung oder Empfehlung aussprechen. Aber es wird schon so sein, dass es zunehmend schwieriger werden dürfte, eine Entscheidung nicht ausschließlich an der KI auszurichten, denn das hat rechtliche Folgen. Wer von einer Standardempfehlung abweicht, wird das begründen müssen, und wenn es schief geht und Regressansprüche geltend gemacht werden, wird man das teuer zahlen müssen.

Dennoch soll der Mensch die Letztverantwortung haben.

Als Ethiker versuchen wir, Verantwortung aufzugliedern. Der Arzt kann keine Verantwortung dafür tragen, dass in dem Algorithmus vielleicht ein Fehler drin ist. Ärzte werden sich aber mehr und mehr auf die Systeme verlassen, sollten sie aber auch verstehen. Ich vergleiche das mit einem Piloten, der sich auf den Autopiloten verlässt, aber in der Lage sein muss, das Flugzeug ohne Unterstützung dieses Systems sicher wieder zu landen.

Wichtig ist die Frage, wie die Ausbildung von Ärztinnen und Ärzten sich verändert. Sie müssen künftig in der Lage sein, die Plausibilität einer KI-Empfehlungen zu prüfen und trotzdem eigene Entscheidungen zu treffen.

Wie muss sich die Forschung zur digitalen Ethik im Gesundheitswesen verändern?

Wir müssen integrierter forschen, also viel stärker die verschiedenen Perspektiven zusammenbringen, und die technische Entwicklung mit den Menschen verbinden, die mit diesen Maschinen umgehen. Und wir brauchen Lernprozesse und Bildung, damit Menschen intelligent mit diesen Maschinen umgehen können.

Die Einführung der elektronischen Patientenakte stößt bei Datenschützern auf Kritik. Ist diese Kritik berechtigt?

Ich halte das zum Teil für eine Doppelmoral. Die meisten Bürger gehen mit ihren Daten im Netz äußerst freigebig um, klicken Cookies weg oder bestätigen AGBs, ohne sie zu lesen. Und auf der anderen Seite wird aus den Daten fast schon eine Geheimwissenschaft gemacht. Das halte ich für wenig zielführend.

Es gibt einige Länder, die mit der elektronischen Gesundheitsakte durchaus gute Erfahrungen gemacht haben. Wir sollten den Schritt in die digitale Transformation wagen. Ich würde mir mehr Aufklärungskampagnen wünschen, damit die Menschen verstehen, worauf sie sich einlassen und dass sie mit einer gewissen Gelassenheit und Souveränität mit ihren Daten umgehen und wichtige Daten für die Wissenschaft freigeben.

Viel problematischer sind die vielen Portale im Netz zum Thema Gesundheit, verbunden mit dem Phänomen, dass viele Leute sich selber diagnostizieren und selber therapieren. Das hat vielerorts ganz problematische Züge der Quacksalberei angenommen. Hier müssen wir genauer hinschauen und Bildungsprozesse auf den Weg bringen. Die Menschen müssen wissen, was kann ich über mich erfahren, und wo suche ich mir Unterstützung von Experten.

 

Dieser Artikel ist eine redigierte und gekürzte Version des Live-Gesprächs mit Arne Manzeschke in der Evangelischen Stadtakademie München.

Jetzt den Podcast "Ethik Digital" abonnieren

Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen und Christine Ulrich gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

Audio-Podcast

Der Audio-Podcast kann bei diesen Kanälen abonniert werden:

Youtube-Playliste mit allen Videos von #EthikDigital

Hier geht's zu den Videos des Podcasts Ethik Digital.

Kommentare

Diskutiere jetzt mit und verfasse einen Kommentar.

Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.

Anmelden