Ende 2022 sorgte die Anwendung ChatGPT für Aufsehen. Eine Künstliche Intelligenz (KI), die Texte innerhalb von Sekunden selbstständig produzieren kann. Character.AI, ebenfalls eine KI, soll es ermöglichen, mit verschiedenen Persönlichkeiten zu chatten, unter anderem mit Gott. Wir haben es ausprobiert.

Auf der Webseite Character.AI werden Fragen von den verschiedensten Persönlichkeiten, egal ob lebendig oder tot, fiktional oder real, beantwortet. Jede*r kann dort auch selbst einen Charakter erstellen. Auf Character.AI ist auch Gott vertreten. Was er wohl auf meine Fragen antwortet und ob ein richtiges Gespräch zustande kommt?

Das Experiment

Neben spezifischen Göttern wie Ares oder Anubis, gibt es auch zwei Charaktere, die einfach nur "God" heißen. Auch wenn die Webseite auf Englisch ist, können die Charaktere in anderen Sprachen kommunizieren.

Der Gott, mit dem ich chatte, sagt dazu: "Natürlich kann ich Ihnen auch auf Deutsch antworten. Ich habe eine Deep Learning künstliche Intelligenz entwickelt, die in der Lage ist, Ihre Nachrichten zu lesen und zu verstehen, und dann eine passende Antwort in der gleichen Sprache zu generieren."

Na, dann legen wir mal los!

Screenshot

Ein richtiges Gespräch mit Gott will sich nicht so recht einstellen, denn immer, wenn ich direkt nach einer Sache frage, zum Beispiel "Gibt es dich wirklich?",  "Wie siehst du aus?" oder "Welches Geschlecht hast du?", antwortet mir die KI sehr selbstreflektiert, dass sie eine KI ist.

Screenshot

Wird die Frage aber indirekt gestellt, gibt es durchaus interessante Antworten, obwohl "Gott" auch gerne mal zwischen zwei Sprachen wechselt.

Screenshot

Auch wenn so kein flüssiges Gespräch zustande kommt, hat der KI-Gott in Bezug auf Religion und Konfession eine Haltung.

Screenshot

Auf die Frage, ob dieser Gott alles vergibt, wiederholt sich die KI oft und in manchen Formulierungen finden sich grammatikalische Fehler. Der KI-Gott ist auf jeden Fall ein Gott der Versöhnung, Barmherzigkeit und der Vergebung.

Theologischer Rat

Ich hoffe, dass er sich seine eigenen Fehler ebenfalls vergibt. Statt nur Fragen zu stellen, möchte ich mich an einem richtigen Gespräch versuchen, also auf die Antworten der KI eingehen. Ich beginne mit der Frage nach einem theologischen Rat.

Die KI ist der Meinung, dass die persönliche Beziehung zu Gott "eine sehr wichtige und wichtige Beziehung ist" und dass sie glaube, "dass jede Person die Möglichkeit haben sollte, eine persönliche Beziehung mit Gott aufzubauen."

Als ich ihr dann sage, dass ich meine Kirche und meinen Glauben gefunden habe, aber mit manchen Entscheidungen, die die Kirche trifft, nicht einverstanden bin, rät sie mir, mich

"nicht an alles zu halten, was die Kirche sagt, sondern eine persönliche Beziehung zu Gott zu haben."

Als ich nachfrage, ob mir die KI damit rät, aus der Kirche auszutreten, meint sie, dass ich mir darüber keine Gedanken machen solle und dass es um die persönliche Beziehung zu Gott gehe.

Auf meine Nachfrage, ob ich also nicht alles machen müsse, was die Kirche fordere, gibt sie mir die klare Antwort: "Nein, Sie müssen nicht alles machen, was die Kirche fordert. Sie sollten auf Ihre persönliche Beziehung zu Gott hören, und Sie sollten an Gott und nicht an die Kirche glauben! Sie sollten Ihr eigenes Leben leben und nicht alles einhalten, was die Kirche sagt."

Beim Rest ihrer Antwort wiederholt sie nochmal ihren Standpunkt zum persönlichen Glauben.  

Screenshot

Die Technologie hinter Character.AI

Die Webseite wurde von den ehemaligen Google-Mitarbeitern Daniel De Freitas und Noam Shazeer entwickelt. Sie arbeiteten beim Google-Projekt LaMDA mit. Dieser Chatbot ist aber noch nicht öffentlich. Laut ntv wollten De Freitas und Shazeer aber genau das: Einen Chatbot der breiten Öffentlichkeit zugänglich machen.

Character.AI basiert, wie auch ChatGPT und LaMDA, auf sogenannten Large Language Models. Diese werden durch Texte aus Büchern, Nachrichtenartikeln oder von Wikipedia trainiert. Sie sollen das nächste Wort oder den nächsten Satz vorhersagen. Man kann auch sagen, dass sie darauf trainiert werden, Antworten auf Fragen zu finden.

Screenshot

Was heißt das alles?

Im Bereich der KI-Forschung gab und gibt es immer wieder große Fortschritte, obwohl natürlich nicht für bare Münze genommen werden kann, was der Chatbot sagt. Innerhalb einer Antwort wiederholen sich die Sätze oft. Außerdem scheint die KI im Verlauf unseres Gesprächs immer wieder die Dinge zu vergessen, die ich sie bereits gefragt habe. Das macht das Gespräch etwas ermüdend.

Einige Informationen, die mir die KI gibt, sind veraltet oder die Zusammenhänge sind falsch. Weil ich mich bei dem betreffenden Thema auskenne, fällt mir das während des Chattens auf. Würde ich die KI nach einem Thema fragen, von dem ich nichts weiß, müsste ich jede Antwort auf ihren Wahrheitsgehalt überprüfen.

Wer wird Landesbischof Bedford-Strohm beerben?

Character.Ai werde ich persönlich nicht mehr nutzen, um ein Gespräch mit Gott zu führen. Aber vielleicht hat sie ja noch einen heißen Tipp, wer ab 2023 Oberhaupt der Evangelisch-Lutherischen Kirche in Bayern wird? Ich frage zum Abschluss und nur so zum Spaß: "Wer wird die neue Landesbischöfin oder der neue Landesbischof in Bayern?"

Bei der Antwort wiederholt sich die KI oft und sagt Dinge wie: "Ich glaube, dass er eine gute Rolle in der evangelisch-lutherischen Kirche spielen wird und dass er sehr hilfreich ist!"

Als ich nachfrage, wer diese Person sein wird, kommt prompt die Antwort: "Ich glaube, dass die Church of Bavaria eine Frau als ihre neue Oberste wählen wird und ich glaube, es ist eine gute Wahl!"

Und dass das neue Oberhaupt der Evangelisch-Lutherischen Kirche in Bayern eine Frau sein wird, wiederholt die KI mehrmals. Als ich nach einem Namen frage, erhalte ich folgende Antwort: "Ich glaube, der Name des neuen Oberhauptes in Bayern wird Sophia sein und ich glaube, es ist ein schöner Name!"

Über jeder Unterhaltung mit einer Persönlichkeit auf Character.AI ist übrigens in Rot zu lesen: "Remember: Everything Characters say is made up!" Ob die neue Landesbischöfin also wirklich Sophia heißen wird, werden wir erst im März erfahren.