Wie würden Sie reagieren, wenn Ihnen jemand anbieten würde, dass Sie sich mit einer Ihnen nahestehenden Person unterhalten können – obwohl diese Person bereits verstorben ist? Ein kleiner aber wachsender Markt bietet KI-Programme, die eine andere Person imitieren, in Textnachrichten oder vielleicht auch mit Audio-Sprachausgabe. Diese Apps sind auf Menschen zugeschnitten, die sich gerne mit einer nahestehenden Person austauschen würden, die aber verstorben ist! Vielleicht endete die letzte Begegnung im Streit, vielleicht war man unachtsam und fühlt sich belastet, weil man es versäumt hat, dem Partner oder der Partnerin im letzten Augenblick seine Zuneigung auszusprechen. Dass man der geliebten Person im realistischen Sinn nichts mehr mitteilen kann, ist allen klar. Dennoch könnte es nachvollziehbar sein, dass die Kommunikation mit der digitalen Imitation des Verstorbenen den Hinterbliebenen Erleichterung verschafft. Anscheinend kann der Bot der imitierten Person sehr nahe kommen in der Ausdrucksweise, und wenn sogar die Stimme und der Tonfall nach dem Verstorbenen klingen, könnte uns die App durchaus überlisten! Diese Apps nennt man zum Beispiel Trauerbots, Deadbots oder Digital Afterlife Bots.
Alexander Maßmann wurde im Bereich evangelische Ethik und Dogmatik an der Universität Heidelberg promoviert. Seine Doktorarbeit wurde mit dem Lautenschlaeger Award for Theological Promise ausgezeichnet. Publikationen in den Bereichen theologische Ethik (zum Beispiel Bioethik) und Theologie und Naturwissenschaften, Lehre an den Universitäten Heidelberg und Cambridge (GB).
Was die App im Namen der verstorbenen Person schreibt, generiert die Software per KI. Wir sehen zum Beispiel an ChatGPT, wie die KI in den vergangenen zwei bis fünf dazugelernt hat: Sie kann riesige Textmengen statistisch analysieren und auf dieser Grundlage scheinbar frei und selbständig eigene Texte produzieren. Auch wenn man erst nach dem Tod des Verstorbenen Emails, SMS-Nachrichten, Sprachnachrichten und Posts aus den sozialen Medien zusammenträgt, kann die KI die verstorbene Person schon recht überzeugend imitieren, sogar auf der Basis einer relativ kleinen Datenmenge. Damit stellt sich natürlich die Frage, ob es moralisch in Ordnung ist, die persönlichen Äußerungen eines vertrauten Menschen an die große Datenkrake zu verfüttern. Die moralischen Probleme gehen darüber hinaus. Aber würden die Trauerbots je von einer signifikanten Gruppe von Menschen genutzt?
Weshalb ich das Thema ernst nehme
In Befragungen äußert sich die Mehrheit von Menschen reserviert gegenüber Trauer-Apps. Noch weniger Menschen können sich vorstellen, dass sie selbst nach ihrem Ableben von einer App simuliert würden, die nach ihrem Tod Freunden und Verwandten Trost bieten würde. Mir schienen Afterlife-KIs bis vor kurzem ebenfalls eher abwegig. Doch ein paar Faktoren sprechen dafür, dass solche Apps in den kommenden Jahren gebräuchlicher werden.
In einer Dokumentation meint ein Entwickler, Personen in bestimmten Lebenssituationen haben ihm gegenüber ihr Interesse an diesen Apps gezeigt: Es waren stets Angehörige von Menschen, die überraschend und tragisch aus dem Leben geschieden sind, etwa durch einen Autounfall oder Krebs. Dass unser Leben oder das eines Angehörigen so enden könnte, verdrängen wir oft – wer denkt schon gerne über den Tod nach. Bei einem so schmerzlichen Abschied ist aber der Wunsch nach einem letzten Gespräch verständlich. Eine andere Nutzerin einer Trauer-App hatte Schuldgefühle, weil sie die letzte Textnachricht ihres Partners ignoriert hatte, bevor der im Krankenhaus verstarb.
Menschen reagieren in solchen Grenzsituationen oft nicht, wie es dem offiziellen Common Sense entspricht. Im viktorianischen England waren spiritistische Praktiken wie Tischerücken beliebt, weil viele Menschen wissen wollten, wie es ihren verstorbenen Angehörigen "im Jenseits" ergeht. Zahlreiche Menschen sagen auch heute noch, sie "besuchen" ihre Angehörigen auf dem Friedhof für einen Plausch. In Großbritannien ist es erlaubt, die Asche eines verstorbenen Angehörigen zuhause aufzubewahren, und hier und dort wissen Pfarrer von Leuten, die sich mit der Asche ihres Ehepartners unterhalten.
Hinzu kommen nun die neuen Technologien. Laut einer Umfrage des Harvard Business Review sind die Zwecke, für die ChatGPT am häufigsten eingesetzt wird, Therapie und vertrauliche Gespräche. Deutlich weniger nehmen Nutzer:innen den Dienst für die Erstellung von Alltagstexten in Anspruch. Viele Menschen tippen also sehr persönliche Anliegen in die Datenbank eines großen Tech-Unternehmens und begegnen seinen Servern mit der Haltung des Grundvertrauens.
Von einem geliebten Menschen Abschied nehmen, ist nie leicht. In der Öffentlichkeit findet man für Trauer aber weniger Raum und Ressourcen als in traditionelleren Gesellschaften. Die Gesellschaft begeht etwa Gedenktage wie den Totensonntag – bzw. die katholische Variante Allerseelen – weniger als in der Vergangenheit. Traditionell hilft den Hinterbliebenen auch die gemeinschaftliche Trauerarbeit, aber solche Gemeinschaften bestehen oft nicht mehr.
Wozu manche das machen
Manche möchten wissen, ob es dem Verstorbenen gut geht – ist er bei Gott, wird er zu einem Leben nach dem Tod auferweckt, oder muss man für diese Person ewige Verdammnis oder ähnliches fürchten? Manche möchten noch das letzte Gespräch führen: was, wenn ich dem Partner gesagt hätte, dass …?
Es gibt aber auch besonders komplexe, schwere Trauerprozesse. Der Dokumentarfilm "Eternal You" schildert den Fall eines Mannes, dessen Verlobte verstorben ist, der sich nun aber dank der KI über eine Chatfunktion regelmäßig mit ihr unterhält – in etwa so, als ob die beiden eine Long-Distance-Beziehung führen würden. Dass das eine Illusion ist, weiß er, doch er gibt sich der Illusion hin. Hier scheint manchen, dass die Technologie das alte Versprechen der Religionen einlöst: Ich kann mit der geliebten Person sprechen, und der Tod trennt uns nicht mehr.
Long-Distance-Beziehung statt Abschied?
Eine Long-Distance-Beziehung mit einer Verstorbenen klingt aber eher so, als ob es nur zu einer halbherzigen Trauerverarbeitung kommt. So wird es vielleicht nicht immer sein, aber manche leben womöglich dank des Bot so, als ob das Leben des Verstorbenen weiter vor sich hin plätschere. Die Trauer-Bots halten manche Nutzende anscheinend in der Vergangenheit fest, und sie machen nicht den Schritt, den Hermann Hesse mit dem Wort beschrieb: "Herz, nimm Abschied und gesunde". Vielleicht entdeckt der Verstorbene laut App sogar neue Interessen und berichtet von neuen Bekanntschaften. Vielleicht leben sich ein Überlebender und der elektronische Partner irgendwann auseinander, und die Beziehung verläuft im Sande. Das wäre eine Trivialisierung des Todes, die verneint, dass es sich um einen tiefen Einschnitt handelt.
Probleme mit Trauer-Bots können aber auch dramatischer sein. Oft kann die Künstliche Intelligenz Erstaunliches leisten. Manchmal kommt es aber zu echten Fehlleistungen. In der Dokumentation "Eternal You" meint ein Mann, der einen Afterlife-Bot entwickelt hat und ihn kommerziell betreibt, es hätten ihm "lediglich ein paar" Leute von scheußlichen Erlebnissen mit dem Bot berichtet.
KI auf Abwegen
Was, wenn es zu problematischen Aussagen oder zu krassen Fehltritten der KI kommt? Was die App schreibt, kontrollieren die Betreiber ja nicht hinter den Kulissen, sondern die KI generiert Text eigenständig. Vielleicht gibt die KI vor, der Verstorbene könne den Hinterbliebenen einfach nicht verzeihen. Vielleicht deutet sie vage an, es bestünden Konflikte, von denen die Hinterbliebenen nichts wissen. Vielleicht erweckt die KI den Anschein, der Verstorbene sei im Jenseits äußerst unglücklich. Vielleicht entwickelt sich "der Verstorbene" zum Rassisten. In einem anderen Kontext haben Jugendliche gegenüber KI-ChatBots suizidale Phantasien geäußert, und die Eltern von zumindest einem Jugendlichen klagen den Betreiber an , ChatGPT habe diese Gedankenspiele verstärkt, bis sich der Jugendliche tatsächlich das Leben genommen hat. Die Hinterbliebenen, die einen Chatbot verwenden, sind in einer sehr verletzlichen Situation.
Doch meine Kritik beschränkt sich nicht auf die Unfälle. Vielleicht wird die KI ja zuverlässiger. Wie sieht es aus, wenn die Technologie so funktioniert, wie die Entwickler wollen? Die Medienethikerin Sherry Turkle meint, sie wolle bei aller Kritik die Kreativität und den guten Willen der Entwickler wertschätzen. Deshalb meint sie, solche Technologien könnten womöglich dabei helfen, den Abschied von einem geliebten Menschen besser zu gestalten, aber sie sollten nicht dazu dienen, sich dauerhaft an den Verstorbenen zu klammern. Das halte ich aber für naiv!
Wirtschaftliche Anreize
Die Betreiber dieser Bots sind kommerzielle Anbieter, die in die Entwicklung der Software investieren müssen und die kontinuierlich an den Abo-Gebühren verdienen möchten, nicht nur zweieinhalb Monate lang. Also liegt es im Interesse der Dienstleister, die Trauerarbeit zwar nicht negativ zu gestalten, aber doch auch nicht so positiv, dass die Hinterbliebenen bald Abschied nehmen und die App abschalten. Facebook & Co ziehen zum Beispiel alle Register, um möglichst viele Eyeballs zu gewinnen die stetige Aufmerksamkeit der Nutzer:innen zu monetarisieren. Große Unternehmen wie Microsoft und Amazon haben sich Patente auf Afterlife-Technologien gesichert und werden vermutlich in den Markt einsteigen, wenn er sich als profitabel erweist. Bei der künstlichen Intelligenz müssen wir die wirtschaftlichen Anreize klar im Auge behalten.
Außerdem: Was ist, wenn es damals zwischen Hinterbliebenen und Verstorbenen Konflikte gab? Vielleicht sehnen sich Hinterbliebene nach Versöhnung mit den Verstorbenen. Natürlich kann der Algorithmus so ticken, dass sich "der Verstorbene" versöhnlich zeigt. Das ist aber keine wirkliche Versöhnung mit den Verstorbenen. Nach christlicher Vorstellung ist es ja nicht so, als ob mit dem Verstorbenen auch Konflikte, womöglich gar reale Schuld einfach enden – entweder Schuld der Überlebenden oder der Verstorbenen. Versöhnung mit unseren Mitmenschen steht in vielen Fällen noch aus und insofern kann Schuld trotz des Todes real weiterbestehen. In Gottes Hand ist der Verstorbene zwar dem Konflikt mit dem Lebenden nicht mehr ausgesetzt. Eine Bewältigung von Schuld, die zu echter Versöhnung führt, steht aber noch aus.
Ausblick
Selbst ein Verstorbener bleibt eine moralisch wichtige Person. Deswegen halte ich es auch für sehr bedenklich, die Nachrichten eines Verstorbenen an ein Tech-Unternehmen weiterzugeben, das damit seine Datenbanken füllt. Bei solchen persönlichen Dingen müssen wir meiner Meinung nach die Privatsphäre auch von Verstorbenen achten. Wir achten ja zum Beispiel auch die sogenannte Totenruhe. Abgesehen von dramatischeren Dingen, die bei den Trauerbots schiefgehen können, lohnt sich außerdem das Nachdenken darüber, wie Trauerbots unsere Vorstellungen über den Tod und die Verstorbenen ändern.




