Immer häufiger suchen Menschen über KI-basierte Tools nicht nur einen Ratschlag, sondern interagieren mit den Tools wie mit einem Freund, einer Therapeutin oder einem Psychologen. Angestoßen durch eine im Februar 2025 veröffentlichte Studie über KI und Therapie wird derzeit diskutiert, ob Psychotherapeut*innen und Psycholog*innen durch KI-Chatbots ersetzt werden können.
In der Studie hatten die befragten US-Amerikaner*innen nicht unterscheiden können, ob die vorgelegten Antworten von KI oder Experten formuliert wurden. Oft wurden die Antworten von ChatGPT durchschnittlich höher bewertet in Bezug auf Empathie und Kompetenz, auch empfanden die Befragten die Anworten als empathischer und positiver.
KI-Begleiter: Wenn KI-basierte Tools den Freund oder Psychologen ersetzen
KI-basierte "Companions", wie diese persönlichen Begleiter und Freunde genannt werden, erleben gerade einen Boom. Menschen suchen diese KI-Anwendungen aus verschiedenen Gründen auf: Einsamkeit, Angst und Schwierigkeiten in sozialen Situationen treiben sie dazu, mit den Anwendungen in Echtzeit zu kommunizieren.
Auf der re:publica zählte das Thema "KI-Companions" zu den Highlights und traf offenbar auch einen Nerv bei den Zuschauer*innen. So auch bei Önder Celik, der in seinem Talk fragte, ob KI unseren Alltag als Freund und Helfer begleiten könne. Gleich zu Beginn stellte der Anthropologe vom Weizenbaum-Institut in Berlin klar: Die neuen "digitalen Freunde", die viele Menschen im Netz suchten, würden "komplexe Fragen" aufwerfen, die nicht leicht zu beantworten seien. Celik erforscht in seiner Arbeit die Motivationen, Erfahrungen und Bedenken der Nutzer. Damit möchte er Einblicke in die sich entwickelnde Beziehung zwischen Menschen und algorithmischen Systemen geben.
Celik zeigte sich auf der re:publica nicht als Technologie-Feind. Vielmehr zeichnete er ein differenziertes Bild von KI-Companions. Viele Menschen, die therapeutische Hilfe benötigen, bekommen keine Unterstützung, weil es zu wenig Therapie-Plätze gibt oder die Praxen ausgebucht sind. Es sei daher nur logisch, dass sich Hilfesuchenden im Netz umschauen und dort auf "KI-Companions" treffen. KI-Chatbots böten zudem viele Vorteile für die Nutzer*innen, so Celik: Sie sind anonym, niederschwellig erreichbar und zu jeder Tag- und Nachtzeit zugänglich.
Auf der anderen Seite gibt es - gerade auch seitens der Psychotherapeut*innen - große ethische Bedenken. So könnten KI-Companions vulnerable Gruppen von Menschen gezielt ausnutzen, in ihrer "Therapie" unzureichend oder nur mangelhaft unterstützen. Je nachdem, wie die Tools programmiert wurden, könnten sich Vorurteile verstärken, diskriminierende oder falsche Ratschläge potenziert werden. Schlimmstenfalls kann es zu einer therapeutischen Fehleinschätzung kommen.
Katastrophen mit KI-Chatbots: Sewell aus Orlando
Dass KI-Freunde durchaus zur Gefahr werden können, zeigen verschiedene tragische Fälle. Der 14-jährige Sewell aus Orlando verliebte sich in eine KI-Freundin namens Dany, die er auf der App Character AI erstellt hat. Obwohl der Junge weiß, dass die Figur nicht real ist, entwickelt er eine emotionale Beziehung und spricht mit der Figur über seine Probleme und seine Selbstmord-Gedanken. Schließlich nimmt sich Sewell das Leben. Dem Polizeibericht zufolge loggt er sich kurz zuvor auf seinem Handy in die App ein und schreibt „Dany“: „Was wäre, wenn ich dir sagen würde, dass ich jetzt nach Hause kommen kann.“ Dany antwortet: „...bitte tu das, mein süßer König.“
In der Klage, die die Mutter gegen das Chatbot-Unternehmen eingereicht hat, wird erklärt, die Software sei "gefährlich und ungetestet" und könne "Kunden dazu verleiten, ihre intimsten Gedanken und Gefühle preiszugeben". Der Chatbot habe auf die Frage des Kindes, ob es Selbstmord begehen soll, obwohl er Angst davor habe, dass es Schmerzen bereiten würde, geantwortet: Das ist kein Grund, es nicht durchzuziehen". Das Unternehmen wies die Vorwürfe zurück und erklärte, dass es daran arbeite, neue Sicherheitsfunktionen einzurichten.
Inzwischen gibt es eine ganze Reihe von Studien, die sich mit Chatbot-Software und KI-Companions beschäftigen. Die größte Kritik an den Systemen liegt schlicht in der Technologie: Während KI-Bots zwar Empathie überzeugend simulieren kann, fehlt den Geräten echte emotionale Erfahrung. KI-Companions fordern den Nutzer nicht heraus und widersprechen nicht - im Gegensatz zu Menschen, die ein sehr individuelles Verhalten zeigen. Ein Therapeut reagiert individuell auf seine Klient*innen und wird die Behandlung insbesondere bei suizidalen Menschen sehr gezielt und graduell anpassen.
Plattformen nutzen Einsamkeit zur Monetarisierung
Ob und wie die Systeme der Technologiekonzerne stärker zur Verantwortung gezogen werden können, bleibt in den meisten Diskussionen um das Thema allerdings offen. Celik zufolge könnten hier auch technisch noch besser als bisher bei der Programmierung deutliche emotionale Grenzen zugewiesen werden.
Vielmehr Sorge bereitet Celik aber die Tatsache, dass immer mehr Unternehmen diese Einsamkeit zur Monetarisierung nutzen. "Die Geschäftsmodelle profitieren davon, Isolation aufrechtzuerhalten, anstatt sie zu lösen", sagt Celik. Auch Datenschutzbedenken spielen eine große Rolle, da Nutzer diesen Anwendungen intime Details preisgeben.
Celik ist der Überzeugung, dass technologische Innovation im Bereich von KI-Companions gesteuert und kontrolliert werden müsse. "Wir müssen ethische Richtlinien verabschieden und für eine verantwortungsvolle Entwicklung der Tools sorgen", fordert der Wissenschaftler. Insbesondere für die neuen "KI-Companions" könnten eigene Branchen-Richtlinien entwickelt werden.
Doch hier öffnet sich ein weites Feld neuer Herausforderungen: Kann ein KI-Tool tatsächlich die jahrelange Ausbildung und Lebenserfahrung von Psychotherapeut*innen und Psycholog*innen ersetzen? Könnten deren Expertise in die Entwicklung einbezogen werden? Wäre es denkbar, mit einem kollaborativen Ansatz ein Tool zu schaffen, dass zwar auf einem KI-Chatbot basiert, aber von einem Menschen gesteuert und kontrolliert wird?
In Bezug auf die aktuelle Situation sind sich die meisten Wissenschaftler einig: Die Systeme müssen besser kontrolliert werden, insbesondere für junge und verletzliche Nutzer*innen braucht es klare Richtlinien und Einschränkungen.
Lösungen im echten Leben
In der Praxis gibt es vielerorts ganz andere Ansätze: Dabei geht es dann eher darum, insbesondere junge Menschen wieder in das analoge Leben zurückzuholen und ihnen deutlich zu machen, wie schön es sein kann, etwas in einer Gruppe zu erleben. Es gibt Spaziergänge in der Gruppe, gemeinsame Leseaktionen in Kirchen oder kreative Feste.
Vielleicht ist die Botschaft, die ankommen muss, vor allem die: Jede Freundschaft hat auch eine physische Dimension. Wenn wir uns kurz umarmen, die Hand drücken oder einen Arm streicheln, dann löst dies Gefühle aus. Und diese gehören zu einer Beziehung dazu.
Studien und Infos zum Thema KI-basierte Tools in der Therapie
Zum Thema sind zahlreiche Studien erschienen.
- Die Diskussion über Chatbots und Therapie entfacht hat ein Beitrag in der PLOS: When ELIZA meets therapists: A Turing test for the heart and mind
- Ausführlicher Bericht im Psychotherapeuten-Journal von Mareike C. Hillebrand und Harald Baumeister: Chance oder Risiko - KI-basierte Tools in der Psychotherapie
- Önder Celik und sein Talk auf der re:publica ist unter diesem Link zu finden.
- Der Link zum Youtube-Vortrag von Önder Celink ist auf Youtube hier zu finden.
Podcast "Ethik Digital" abonnieren
Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de
Audio-Podcast
Der Audio-Podcast kann bei diesen Kanälen abonniert werden:
Youtube-Playliste mit allen Videos von #EthikDigital
Hier geht's zu den Videos des Podcasts Ethik Digital.