"Ich möchte Menschen mit KI besser machen"

Mann am Computer mir Kreuz auf Bildschirm
Getty Images/iStockphoto/Melpomenem
Künstliche Intelligenz kommt auch in der Seelsorge immer mehr zum Einsatz. Wie sie Menschen dienen kann, erklärt der Entwickler und Theologe Spiro Mavrias im Interview.
Seelsorge im digitalen Wandel
"Ich möchte Menschen mit KI besser machen"
Künstliche Intelligenz nimmt auch in der Seelsorge eine immer größere Rolle ein. Wo ihre Grenzen liegen und wie sie angehenden Profis beim Training helfen kann, darüber hat evangelisch.de mit dem KI-Experten Spiro Mavrias von der Zürcher Landeskirche gesprochen. Er hat einen Seelsorge-Bot entwickelt, mit dem Fachpersonen realistische Gesprächssituationen üben können.

evangelisch.de: Wie hat KI die Seelsorge verändert?

Spiro Mavrias: Wenn man etwa auf Reddit schaut, erzählen sehr viele Menschen von ihren Erfahrungen mit KI in sehr persönlichen Gesprächen. Ein Beispiel ist das Subreddit r/therapyGPT (Anm. d. Red.: Reddit ist ein Forum, auf dem sich Menschen zu verschiedenen Themen, den sogenannten Subreddits austauschen können), dort tauschen sich rund 25.000 Menschen darüber aus, wie sie ChatGPT für seelsorgerliche, therapeutische oder Life-Coaching-Gespräche nutzen. Die Berichte sind größtenteils positiv, auch wenn es natürlich kritische Stimmen gibt.

Wo siehst du die Chancen von KI in der Seelsorge?

Spiro Mavrias: Zunächst einmal sehen wir: Menschen nutzen diese Tools bereits. Auch Pfarrerinnen und Pfarrer greifen teilweise darauf zurück. Die Frage ist also nicht mehr, ob, sondern wie wir KI sinnvoll einsetzen können.

In der Wissenschaft gibt es zugespitzt gesagt zwei Hauptpositionen dazu. Die eine sagt: Wir sollten ausprobieren, ob KI etwa als eine Art erste Anlaufstelle dienen kann, ähnlich einer Triage. Vielleicht könnte sie etwa die Telefonseelsorge unterstützen und erkennen, wann ein menschlicher Ansprechpartner übernehmen sollte.

Ich selbst sehe derzeit eher einen anderen Ansatz. Ich möchte Menschen mit KI "besser" machen. Gemeint ist damit nicht ein Cyborg-Gedanke, sondern bessere Ausbildung. Deshalb habe ich einen Seelsorge-Trainingsbot entwickelt. Damit können Seelsorgende Gesprächssituationen üben, etwa schwierige Gespräche in der Palliativmedizin.

"Anwesenheit, Gebet, stille Nähe: das kann eine KI natürlich nicht ersetzen"

Denn Seelsorge besteht nicht nur aus Sprache. Sie hat auch mit Präsenz zu tun. In meinem Vikariat habe ich zum Beispiel eine Palliativstation betreut. Manchmal konnte man mit Menschen gar nicht mehr viel sprechen. Dann ging es eher um Anwesenheit, ein Gebet, eine stille Nähe. Das kann eine KI natürlich nicht ersetzen.

Ist Seelsorge nicht ein Bereich, der total menschlich bleiben sollte? 

Mavrias: Das hängt davon ab, was man als Ziel betrachtet. Wenn es erst einmal darum geht, dass sich jemand nach einem Gespräch entlasteter oder etwas besser fühlt, dann sehen wir schon: KI kann eine Wirkung haben. Es gibt dazu erste Meta-Analysen, die bei Chatbot-Interventionen kleine bis moderate positive Effekte zeigen. Aber man sollte vorsichtig sein, das direkt mit Psychotherapie oder Medikamenten gleichzusetzen.

Bemerkenswert ist trotzdem, dass ein frei zugängliches Tool überhaupt solche Effekte erreichen kann. Gleichzeitig darf man nicht vergessen: KI versteht nichts von Leid, Trauer oder Angst. Sie berechnet lediglich Wahrscheinlichkeiten. Sie kann über Emotionen sprechen, erlebt sie aber nicht selbst. Deshalb finde ich es wichtig, dass Seelsorge grundsätzlich in menschlicher Verantwortung bleibt.

Außerdem gibt es Risiken, etwa wenn Menschen sehr starke emotionale Bindungen zu KI-Bots entwickeln oder bestehende psychische Erkrankungen dadurch verstärkt werden. Trotzdem zeigt sich auch: Viele Menschen nutzen solche Systeme, weil sie keinen Zugang zu Therapie haben, etwa aus finanziellen Gründen oder wegen langer Wartezeiten. Die Realität ist also: KI ist bereits Teil dieses Feldes.

"Viele sagten: Genau so ein Trainingstool brauchen wir"

Was war die Idee hinter deinem Chatbot?

Mavrias: Die Idee entstand während meiner Ausbildung. Als junger Seelsorger sitzt man plötzlich vor Menschen, die großes Leid erlebt haben, und fragt sich hinterher oft: Hätte ich etwas anders sagen können? Natürlich gibt es in der Ausbildung Rollenspiele. Aber ich kenne diese Situation: Man sitzt später im Bus nach Hause und denkt über das Gespräch nach und würde es gern noch einmal üben. Also habe ich gefragt: Könnte KI hier helfen? Denn Rollenspiele gehören zu den Dingen, die KI ziemlich gut kann. Ich habe deshalb einen sehr einfachen Prototyp gebaut. Und der kam überraschend gut an. Viele sagten: Genau so ein Trainingstool brauchen wir.

Daraufhin habe ich das Projekt weiterentwickelt und auch einen wissenschaftlichen Artikel darüber geschrieben, der Ende Juni 2026 erscheint. Der Chatbot steht derzeit kostenlos zur Verfügung, damit Menschen ausprobieren können, ob er in Ausbildung und Supervision hilfreich ist.

Kannst du einen Beispiel-Fall geben?

Mavrias: Es gibt zwei Möglichkeiten. Entweder bringt man selbst eine Situation ein. Zum Beispiel: Eine 16-jährige Fußballspielerin liegt nach einem Autounfall im Krankenhaus und wird wahrscheinlich nie wieder spielen können. Der Bot entwickelt daraus eine Gesprächssituation. Oder man bekommt einen zufälligen Fall. Dabei berücksichtigen wir viele Parameter: Alter, Religiosität, Familienkonstellationen, Migrationserfahrung und vieles mehr. So entstehen sehr unterschiedliche Szenarien. 

"Interessanterweise hören Bots sehr genau auf Wortwahl und Gesprächsstruktur"

Das Gespräch läuft dann wie ein Rollenspiel. Wenn es endet, entweder weil die Szene vorbei ist oder man ein Codewort sagt, analysiert der Bot das Gespräch. Er zeigt zum Beispiel, was gut gelungen ist, welche wichtigen Punkte überhört wurden, wo man vielleicht zu schnell reagiert hat.

Interessanterweise hören Bots sehr genau auf Wortwahl und Gesprächsstruktur. Manche Rückmeldungen sind deshalb tatsächlich hilfreich für das Training. Es gibt außerdem eine zweite Variante, bei der man mit dem Bot sprechen statt schreiben kann. Das ist deutlich intensiver, weil man nicht so viel Zeit zum Nachdenken hat.

Was würdest du Seelsorgenden im Umgang mit KI raten?

Mavrias: Ein interessanter Ansatz kam von einer Pfarrerin, mit der ich gesprochen habe. Sie beginnt Gespräche manchmal mit der Frage: "Haben Sie darüber schon mit ChatGPT gesprochen?" Das öffnet oft eine Tür zum Gespräch, weil Menschen erzählen, was sie dort bereits gesucht oder gefunden haben. Grundsätzlich würde ich sagen: Seelsorgende sollten KI als Realität wahrnehmen. Viele Menschen nutzen sie bereits, wenn sie über ihre Probleme nachdenken.

Gleichzeitig braucht es einen kritischen Blick. KI-Systeme sind auf Daten trainiert, die auch Vorurteile enthalten können, etwa Rassismus oder Sexismus. Deshalb sollte man ihre Antworten nicht unkritisch übernehmen.

Mein Rat wäre also: offen bleiben, ausprobieren, aber kritisch bleiben. KI muss nichts ersetzen, sie kann etwas ergänzen. In der Seelsorge geht es letztlich um eine Art "Doppelhändigkeit": das Beste aus neuen Technologien nutzen, ohne das Menschliche aufzugeben.