evangelisch.de: Frau Tietz, Künstliche Intelligenz hält in immer mehr Lebensbereiche Einzug. Wenn Sie an die Seelsorge denken: Welche Chancen und welche Sorgen verbinden Sie persönlich mit dieser Entwicklung?
Christiane Tietz: Künstliche Intelligenz ist zunächst einmal rund um die Uhr erreichbar und hat unbeschränkt Zeit. Das Gespräch mit einem Chatbot kann auch niedrigschwelliger sein als das Anliegen, dass ein Mensch sich Zeit für mich nimmt. Sprachbarrieren können durch KI-gestützte Übersetzung überwunden werden. Außerdem können Seelsorgende entlastet werden, wenn KI bestimmte Dinge übernehmen kann.
Aber KI gibt nur vor, die für Seelsorge wichtigen Emotionen und Empathie zu besitzen. Ein Chatbot kann so tun, als ob er mitempfindet. Aber da ist niemand, der mich versteht. Da ist keiner, der meine Erfahrung von Begrenztheit und Sterblichkeit, von Schuld und Versagen, von Liebe und Glück kennt. Wenn ein Chatbot immer unbeschränkt Zeit für mich hat, wird es schwer zu akzeptieren, dass ein Mensch das nicht hat oder mal müde ist oder unaufmerksam. Ich befürchte, dass die Erwartungen an menschliche Seelsorge unrealistisch werden.
Und noch etwas: KI arbeitet mit Algorithmen, das heißt, mit der Erkennung von Mustern in Daten und deren Wahrscheinlichkeiten. Individuelle Erfahrungen oder Anliegen, die den Mustern nicht entsprechen, können von KI nicht eingeordnet werden. Wo haben sie Platz? Ein letzter Punkt: Wie können Datenschutz und Vertraulichkeit verlässlich sichergestellt werden?
Der sogenannte ELIZA-Effekt zeigt, dass Menschen selbst einfachen Programmen Gefühle und Verständnis zuschreiben. Was sagt uns das über das tiefe Bedürfnis nach Resonanz?
Christiane Tietz: Menschen wollen sich mitteilen. Menschliche Sprache ist, so hat es schon der Kirchenvater Augustin betont, dazu da, sich mit anderen Menschen zu verständigen. Überall, wo Sprache ist, besteht der Wunsch nach Verständigung und Verstanden werden. Wir sprechen ja nicht nur, um Informationen weiterzugeben, sondern um unser Innerstes auszudrücken. Wir sprechen miteinander, um Beziehung zueinander aufzubauen. Insofern ist naheliegend, dass dies auch dort geschieht, wo wir mit einem Chatbot oder einem KI-System "sprechen". Wir haben dann das Gefühl, dass auf der anderen Seite nicht nur "etwas", sondern "jemand" ist und wir nicht allein.
Manche würden sagen: Wir werden doch bald schon gar nicht mehr merken, ob uns ein Mensch gegenübersteht oder ein KI-System. Aber die entscheidende Frage ist aus meiner Sicht nicht, was KI kann und was KI nicht kann. Hier geht es vielmehr darum, wie wir uns selbst als Menschen verstehen wollen und wie wir leben wollen. Selbst wenn wir keinen Unterschied mehr merken würden zwischen einer KI-Seelsorge und einem Gespräch in der menschlichen Telefonseelsorge: Wollen wir so leben, dass uns vorgegaukelt wird, wir hätten einen anderen Menschen vor uns? Oder ist uns weiter wichtig, dass wir Menschen begegnen? Für mich leitet sich daraus die ethische Pflicht ab, bei der Verwendung von KI jeweils kenntlich zu machen, dass wir KI vor uns haben. Denn genau das Wissen darum, dass ein anderer Mensch mit mir empathisch ist, ist heilsam für unsere Seele.
Seelsorge ist stark vom Vertrauen in die Beziehung getragen. Glauben Sie, dass eine Maschine ein solches Vertrauen überhaupt tragen oder wecken kann - oder braucht es hier zwingend ein menschliches Gegenüber?
Christiane Tietz: Bei einer Maschine kann man von Sicherheit sprechen. Man kann sicher sein, dass die Maschine sich kausal gesteuert verhält und Informationen korrekt verarbeitet. Und eine KI kann durch empathisch wirkende Antworten, durch Verfügbarkeit und Diskretion durchaus ein Gefühl von Sicherheit vermitteln. Aber Vertrauen ist etwas anderes. Wann vertraut man einem Menschen? Vertrauen ist die Gewissheit: der andere missbraucht seine Freiheit mir gegenüber nicht. Vertrauen gründet auf der Erfahrung, dass der Andere treu und verlässlich ist, obwohl er frei und spontan handelt. Das gibt es bei einer Maschine nicht. Insofern verdient eine Maschine auch kein Vertrauen.
"Vertrauen gründet auf der Erfahrung, dass der Andere treu und verlässlich ist, obwohl er frei und spontan handelt. Das gibt es bei einer Maschine nicht"
Warum bleibt ein menschliches Gegenüber unverzichtbar? Seelsorge lebt von der Fähigkeit, nicht nur Worte zu hören, sondern Zwischentöne, Stimmungen und unausgesprochene Fragen wahrzunehmen. Seelsorge ist oft mehr als Gespräch – sie ist ein Raum für das gemeinsame Suchen, für Gebet, für Gott. Dazu braucht es ein menschliches Herz. KI kann in der Seelsorge unterstützend wirken – als Einstieg in einen Austausch oder als Begleiter in der Nacht. Aber das tiefe Vertrauen, welches die Seelsorge trägt, entsteht dort, wo ein Mensch einem anderen Menschen begegnet. Nicht perfekt, aber echt. Es macht doch einen Unterschied, ob eine Maschine zu mir "sagt": "Ich verstehe dich", oder ein Mensch, der eigene Erfahrungen gemacht hat. Die Maschine kann mich nicht "verstehen", weil da kein "Ich" ist, das mich verstehen könnte.
In den USA hat die Familie eines Jugendlichen OpenAI verklagt, weil ihr Sohn sich nach Gesprächen mit einem KI-Chatbot das Leben nahm. Wie blicken Sie auf diesen Fall – und welche ethischen Fragen wirft er für die Seelsorge auf?
Christiane Tietz: Dieser Fall ist zutiefst erschütternd – und er wirft eine Reihe komplexer ethischer Fragen auf, die weit über Technik hinausreichen. Die Klage der Eltern gegen OpenAI basiert auf dem Vorwurf, dass der Chatbot ChatGPT ihren Sohn nicht nur in seiner suizidalen Verzweiflung bestärkt habe, sondern ihm sogar konkrete Anleitungen zur Selbsttötung gegeben habe. OpenAI hat daraufhin angekündigt, die Schutzmechanismen zu verbessern, insbesondere bei längeren Gesprächen und bei der Nutzung durch Minderjährige.
Erschütternd ist der Fall, weil man daran sieht, dass KI kein moralisches Empfinden hat. Ein Seelsorger hätte die Bedrohung gespürt und versucht, die Selbsttötung des Jugendlichen zu verhindern. Die KI steht dem Tod des Jugendlichen unberührt gegenüber. Schon länger wird die Frage diskutiert, wo die rechtliche und die ethische Verantwortung für das liegt, was ein KI-System "tut". Diese Frage muss unbedingt weiter geklärt werden.
Da Jugendliche besonders empfänglich für digitale Nähe sind, stellt sich die Frage nach strengeren Altersgrenzen und nach Bildung und Aufklärung für die Nutzung von KI. Wie kann sichergestellt werden, dass KI nicht zur Verstärkung destruktiver Gedanken beiträgt? Open AI hat das Problem erkannt. Aber ist nicht auch denkbar, dass KI in die Hände von Menschen gerät, die Destruktives, Negatives, Schädliches vorantreiben wollen?
"Ein Seelsorger hätte die Bedrohung gespürt und versucht, die Selbsttötung des Jugendlichen zu verhindern. Die KI steht dem Tod des Jugendlichen unberührt gegenüber"
Wenn Menschen KI-Seelsorge in Anspruch nehmen, welche Verantwortung trägt die Kirche, diese Entwicklungen zu begleiten oder vielleicht auch kritisch zu kommentieren?
Christiane Tietz: Die Kirche darf nicht zulassen, dass Seelsorge zu einem maschinellen Dienst verkommt. Sie muss deutlich machen: echte Seelsorge ist Beziehung. KI kann ein Werkzeug sein – aber kein Ersatz für das menschliche Gegenüber, das zuhört, mitfühlt und betet. Die Kirche sollte für eine Kennzeichnungspflicht eintreten, damit Menschen wissen, womit sie es zu tun haben. Sie sollte die Frage danach wachhalten, wer Verantwortung trägt, wenn KI Schaden anrichtet. Wir müssen besonders verletzliche Gruppe wie Kinder und Jugendliche sowie psychisch belastete Menschen schützen.
Insofern ist es wichtig, Leitlinien dafür zu entwickeln, wo und wie KI in der Seelsorge eingesetzt werden darf und wo und wie nicht. Pilotprojekte für eine erfahrungsbasierte Entwicklung solcher Leitlinien sind hilfreich. Als Korrektiv zur Erfahrung brauchen wir theologische Orientierung: Wir müssen immer wieder thematisieren, was es eigentlich mit unserem Menschenbild macht, wenn wir denken, dass Menschen durch Maschinen, die besonders schnell und gut Probleme lösen können, ersetzt werden können. Wir reduzieren dann den Menschen auf seine kognitive Intelligenz und Problemlösungsfähigkeit.
Ich sehe außerdem eine Gefahr darin, dass die Allgegenwart und Nähe von KI mit der Allgegenwart und Nähe Gottes verwechselt wird. Die KI ist immer da und suggeriert eben Verständnis und Nähe. Aber das ist etwas anderes als das Vertrauen in Gottes Nähe: "Herr, du erforschest mich und kennst mich. Ich sitze oder stehe auf, so weißt du es; du verstehst meine Gedanken von ferne. Ich gehe oder liege, so bist du um mich und siehst alle meine Wege." (Psalm 139,1-3) Bei der KI gibt es eben kein "Du", das mich kennt und versteht.
Könnte KI dabei helfen, Menschen zu erreichen, die aus Scham oder Unsicherheit sonst nie den Weg in ein seelsorgliches Gespräch finden würden?
Christiane Tietz: Ja – genau darin liegt eine der vielversprechendsten Chancen von KI in der Seelsorge. Denn viele Menschen tragen Fragen, Sorgen oder Schuldgefühle mit sich herum, die sie aus Angst, Scham oder Unsicherheit nie laut aussprechen würden. KI kann hier ein Einstieg sein. Insofern können wir KI als Werkzeug, als Unterstützung sehen, um Menschen zu erreichen. Aber wie gesagt, echte seelsorgliche Begleitung braucht Beziehung, Mitgefühl und geistliche Tiefe. Wenn KI echte Not erkennt, dann muss sie auf menschliche Hilfe verweisen, auf Notfallseelsorge, Telefonseelsorge oder lokale Angebote.
Sollte die theologische Ausbildung darauf vorbereiten, dass Pfarrerinnen und Pfarrer künftig auch mit KI-gestützten Tools in Berührung kommen - und wenn ja, in welcher Weise?
Christiane Tietz: Unbedingt – die theologische Ausbildung sollte sich aktiv und reflektiert mit KI auseinandersetzen. Denn Pfarrerinnen und Pfarrer werden künftig nicht nur mit KI-gestützten Tools arbeiten, sondern auch mit Menschen sprechen, die durch KI geprägt sind: in ihrer Kommunikation, ihrem Denken, ihrem Glauben. Theologiestudierende brauchen ein Verständnis von KI, von ihren Chancen und Risiken und von Beispielen aus der pfarramtlichen Praxis. Dazu gehört nicht nur Seelsorge, sondern auch Liturgie und Predigt oder Religionspädagogik. Auch sollten Theologiestudierende die skizzierten theologischen und ethischen Fragen reflektieren.
Viele befürchten, dass KI zu einer Entmenschlichung führt. Könnte eine theologische Perspektive helfen, Grenzen zu ziehen zwischen hilfreicher technischer Unterstützung und der unverzichtbaren Menschlichkeit von Seelsorge?
Christiane Tietz: Eine theologische Perspektive ist nicht nur hilfreich, sondern geradezu notwendig, um die Grenze zwischen technischer Effizienz und menschlicher Tiefe in der Seelsorge zu erkennen und zu wahren. Zum Menschen gehört aus theologischer Sicht seine Würde, aber auch seine Fehlerhaftigkeit. KI kennt das nicht. Wenn ich mich in meiner Schwäche einem anderen Menschen zu erkennen gebe, dann lebt diese Offenheit davon, dass auch der andere Mensch Schwäche kennt. Die Mitmenschlichkeit des Anderen lässt sich weder berechnen noch aus Algorithmen ableiten. Sie ist deshalb so beglückend, weil sie sich unverfügbar und frei einstellt. In dieser geschenkten Nähe eines anderen Menschen, eines Du, begegnet mir die Nähe Gottes.
Zum Schluss gefragt: Wenn Sie in einem Satz zusammenfassen müssten, wie die Kirche grundsätzlich auf KI in der Seelsorge blicken sollte: Was wäre Ihnen am wichtigsten?
Christiane Tietz: Die Kirche sollte KI als hilfreiches Werkzeug begreifen, das unterstützend wirken, aber niemals das geistlich-menschliche Gegenüber ersetzen kann, das das Herz jeder Seelsorge bildet.