Der Mensch im Kreislauf der Zeichen

Der Mensch im Kreislauf der Zeichen.
Human-in-the-Loop als seelsorgliche Haltung zwischen Entlastung und Resonanz.

von Achim Blackstein

 

Abstract

Die zunehmende Integration von Künstlicher Intelligenz (KI) in die seelsorgliche Praxis verspricht Entlastung, birgt jedoch die Gefahr einer schleichenden Depersonalisierung. Der vorliegende Beitrag untersucht das technikethische Konzept des Human-in-the-Loop und transformiert es in eine seelsorgliche und spirituelle Haltung. Anhand von Konzepten der Resonanz, Sprachfähigkeit und systemischen Präsenz wird aufgezeigt, dass die menschliche Verantwortung nicht erst bei der Endkontrolle von KI-Texten beginnt, sondern den gesamten Prozess der Sinnstiftung durchzieht. Der Artikel mündet in fünf ethischen Leitlinien, die den digitalen Raum als Ort verantworteter menschlicher Begegnung gegen die Logik der bloßen Plausibilität verteidigen.

Keywords: Digitale Seelsorge, Künstliche Intelligenz, Human-in-the-Loop, Medienethik, Resonanz, Pastoralpsychologie

The increasing integration of Artificial Intelligence into pastoral care promises efficiency but carries the risk of a subtle depersonalization of the encounter. This article examines the technical-ethical concept of "Human-in-the-Loop" and transforms it into a specific pastoral and spiritual posture. Drawing on concepts of resonance, linguistic agency, and systemic presence, it argues that human responsibility does not begin with the final review of AI-generated texts but permeates the entire process of meaning-making. The article culminates in five ethical guidelines that defend the digital space as a place of responsible, irreplaceable human encounter against the logic of mere statistical plausibility.

Keywords: Online Chaplaincy, Artificial Intelligence, Human-in-the-Loop, Media Ethics, Resonance, Pastoral Psychology

 

Einleitung: Wer spricht hier eigentlich?

Die Nachricht kommt spät am Abend. Keine langen Sätze, eher tastend formuliert. Jemand schreibt von Müdigkeit, von einer inneren Leere, von dem Gefühl, dass das eigene Leben sich verschoben hat - nicht dramatisch, aber intensiv und mit hohem Leidensdruck.

Die Seelsorgerin liest die Zeilen mehrmals. Sie kennt solche Nachrichten. Sie weiß, wie viel zwischen diesen wenigen Worten liegen kann. Um sich zu orientieren, öffnet sie ein KI gestütztes Werkzeug wie ChatGPT oder Gemini. Sie bittet um eine kurze Strukturierung der Anfrage, um mögliche Gesprächsimpulse, um eine Sprache, die behutsam ist und nichts vorschnell festlegt. Das Modell arbeitet und formuliert eine Antwort. Was sie liest, ist gut formuliert. Sehr gut sogar. Die Antwort spricht von Übergängen, von Erschöpfung, von der Frage nach Sinn in Lebensphasen des Umbruchs. Sie klingt verständnisvoll, empathisch, ruhig und professionell. Die Seelsorgerin merkt, wie sie innerlich nickt. Einige Sätze hätte sie selbst ähnlich geschrieben. Manche sogar genau wie die KI. Darum übernimmt sie einzelne Formulierungen, verändert Kleinigkeiten, passt den Schreibstil hier und da an, fügt einen eigenen Gedanken hinzu, liest noch einmal Korrektur, spürt in sich hinein und schickt die Antwort schließlich ab. Dann hält sie noch einmal inne. Nicht aus Misstrauen, eher aus einem vagen Unbehagen. Was war das gerade? War das jetzt tatsächlich ihre Sprache? Ist ihre Deutung aus der Beziehung zu den Texten dieses Menschen entstanden oder aus der Logik eines Systems, das gut darin ist, stimmige Antworten zu formulieren?

Formal ist alles richtig gelaufen: Die Seelsorgerin hat bei der Übergabe der Anfrage an die KI die Regeln der Anonymisierung beachtet. Sie hat die Antwort der KI geprüft, gewichtet und überarbeitet. Sie ist die verantwortliche menschliche Person geblieben. Und doch bleibt eine Frage offen. Was heißt es eigentlich, in der Seelsorge ein Human-in-the-Loop zu sein, ein Mensch im Kreislauf KI-gestützter seelsorglicher Praxis? Was bedeutet das nicht technisch, sondern seelsorglich?

Human-in-the-Loop meint in der Seelsorge mehr als eine technische Kontrollfunktion. Es geht nicht um die letzte Freigabe eines Textes, sondern um die Frage, wie menschliche Verantwortung im gesamten Prozess der Deutung, der Sprache und der Beziehung präsent bleibt. Entscheidend ist, ob der Mensch im Kreislauf der KI-gestützten Praxis tatsächlich anwesend bleibt oder ob Verantwortung unmerklich immer mehr an die Logik des Systems übergeht. Darum stellt sich die Frage, was es konkret heißt, Human-in-the-Loop zu sein, wo die Grenzen dieser Rolle liegen und welche Orientierung für eine verantwortete digitale Seelsorge nötig ist.

Was Human-in-the-Loop in der Seelsorge nicht ist

Der Rede von Human-in-the-Loop (HITL) begegnet man in aktuellen Debatten über Künstliche Intelligenz oft als beruhigende Formel. Gemeint ist damit, dass ein Mensch in KI-gestützte Prozesse eingebunden bleibt, Ergebnisse prüft, freigibt oder korrigiert und so als letzte verantwortliche menschliche Instanz fungiert. „Das Ziel von HITL besteht darin, KI-Systemen die Effizienz von Automatisierung zu ermöglichen, ohne dabei auf die Präzision, die Nuancen und das ethische Urteilsvermögen menschlicher Aufsicht zu verzichten“ (Stryker 2022). Ein Human-in-the-Loop steht für Kontrolle, Verantwortung sowie Sicherheit (Floridi 2019). Übertragen auf die Seelsorge entsteht dabei leicht der Eindruck, es genüge, wenn am Ende eines technischen Prozesses ein Mensch, ähnlich einer lektorierenden Person, entscheidet, was verwendet oder weitergegeben wird.

Genau dieses Verständnis greift jedoch zu kurz, denn Human-in-the-Loop bedeutet in der Seelsorge nicht, lediglich einen letzten Schritt zu beaufsichtigen und die Aktion oder den Text letztlich freizugeben. Seelsorgliche Verantwortung lässt sich nicht auf einen formalen Akt der Freigabe reduzieren. Sie entsteht nicht erst am Ende, sondern durchzieht den gesamten Prozess und zwar von der ersten Wahrnehmung der Not oder des Problems bis zum abschließenden Gruß. Wer seelsorglich handelt, trägt Verantwortung für die Haltung, die Sprache, für die Deutung und für die Beziehung, in der Seelsorge geschieht. Diese Verantwortung kann nicht nachträglich übernommen oder behauptet werden, wenn die inhaltliche Arbeit bereits weitgehend von einem System vorstrukturiert oder gar erledigt wurde. Seelsorgliche Prozesse bestehen nicht nur aus Ergebnissen, sondern aus einem gemeinsamen Weg zwischen zwei Menschen, in dem Deutungen und Verstehen sich tastend entwickeln und Beziehung im wechselseitigen Vollzug entsteht.

Ebenso wenig meint Human-in-the-Loop, dass Verantwortung automatisch beim Menschen verbleibt, solange er irgendwie am Prozess beteiligt ist. Beteiligung ist nicht gleich Verantwortung. In der Forschung zur Mensch-Maschine-Interaktion ist dieses Phänomen als „Automation Bias“ bekannt (Parasuraman & Riley 1997): Menschen neigen dazu, automatisierten Vorschlägen besonders dann zu folgen, wenn deren Ergebnisse konsistent und plausibel erscheinen (Deutscher Ethikrat 2023). Hinzu kommt, dass KI-Systeme nicht neutral sind. Sie reproduzieren Muster aus ihren Trainingsdaten, darunter auch gesellschaftliche Vorannahmen und implizite Diskriminierungen (vgl. Mittelstadt et al. 2016). Wo solche Vorprägungen unreflektiert übernommen werden, verstärken sich algorithmische Verzerrung und menschliche Urteilsentlastung, also die Bereitschaft, die eigene Prüfung zu verkürzen, gegenseitig. Der Human-in-the-Loop wird dann nicht zur Korrekturinstanz, sondern zum stillen Verstärker problematischer Deutungen. In digitalen Kontexten kann es so geschehen, dass Deutungen und Gesprächsimpulse faktisch vom System geliefert werden, während der Mensch sie lediglich auswählt. Die Verantwortung bleibt formal beim Menschen, verschiebt sich aber inhaltlich auf die Logik des Algorithmus. Thorsten Moos (2021) beschreibt diese Dynamik im Kontext eines „digitalen Animismus“ als eine Form der Desubjektivierung: Während der Technologie fälschlicherweise Subjektqualitäten zugeschrieben werden, büßt der Mensch in der Interaktion seine faktische Urteilssouveränität ein. Zugleich erzeugen die flüssigen und überzeugenden Antworten der KI leicht die Illusion, man habe die Situation selbst durchdrungen. Der Mensch übernimmt die Deutung des Systems und erlebt sie als eigene Einsicht. So entsteht ein sich selbst verstärkender Dunning-Kruger-Kreislauf (Dunning 2011) zwischen Mensch und KI, in dem scheinbare Kompetenz wächst, während die eigene Urteilskraft schleichend verkümmert (Blackstein 2025).

Ein weiteres Missverständnis besteht darin, Human-in-the-Loop mit rein technischer Kompetenz gleichzusetzen. Wer ein System gut bedienen kann, ist nicht automatisch in der Lage, dessen Vorschläge seelsorglich einzuordnen. Gute Bedienbarkeit und überzeugende Sprache erschaffen ein trügerisches Vertrauen. In der Seelsorge verstärkt sich dieser Effekt, weil sprachliche Plausibilität leicht mit existenzieller Angemessenheit verwechselt wird. Hier droht ein Verlust an „Kongruenz“, die Carl Rogers als Basis jeder hilfreichen Beziehung definiert hat (Rogers 1951). Damit gemeint ist eine personale Echtheit, in der ein Mensch nicht eine Rolle spielt oder eine Technik ausführt, sondern mit seiner eigenen (körperlichen) Erfahrung, Haltung und Wahrnehmung gegenwärtig ist.  Eine KI-generierte Antwort mag empathisch klingen, aber sie ist nicht mehr Ausdruck einer personalen Echtheit, sondern das Ergebnis einer statistischen Wahrscheinlichkeitsberechnung.

Human-in-the-Loop ist daher auch nicht identisch mit bloßer Fehlerkontrolle. Die größte Herausforderung liegt nicht in offensichtlichen Fehlleistungen der KI (sog. „Halluzinationen“), sondern in gut formulierten Deutungen, die sich nahtlos in bekannte seelsorgliche Sprachmuster einfügen. Das Konzept Human-in-the-Loop verliert seinen Sinn, wenn Deutungen nicht mehr als Vorschläge wahrgenommen werden, sondern als die naheliegendsten Antworten ohne weitere Reflexion aufgenommen werden. Verantwortung wird dann nicht offen abgegeben, sondern still an die technischen Systeme verlagert.

Seelsorge ist kein neutraler Prozess. Sie greift in Selbstdeutungen ein, eröffnet Sinnhorizonte und beeinflusst Lebensentscheidungen (Klessmann 2013: 17.350). Wer spricht, handelt. Wer deutet, übernimmt Verantwortung für die Wirklichkeit, die durch diese Deutung entsteht, auch wenn die Deutung fehlerhaft sein sollte (Klessmann 2008/2015: 40f.). Human-in-the-Loop kann deshalb nicht bedeuten, technische Prozesse lediglich zu überwachen. Es meint die bewusste Wahrnehmung der eigenen Deutungsmacht, der eigenen Fehlerhaftigkeit und die Bereitschaft, diese nicht an Systeme zu delegieren, auch wenn diese entlasten und unterstützen.

So verstanden, markiert Human-in-the-Loop zunächst eine Grenze gegenüber der Vorstellung, seelsorgliche Verantwortung lasse sich technisch absichern, und eine Grenze gegenüber der Versuchung, „stimmige“ Antworten mit verantworteter Seelsorge zu verwechseln. Erst wenn diese Grenze klar gezogen ist, kann gefragt werden, wie Human-in-the-Loop als positive seelsorgliche Haltung gelebt werden kann.

Human-in-the-Loop als seelsorgliche Haltung

Wenn Human-in-the-Loop in der Seelsorge mehr sein soll als eine bloße Abgrenzung gegenüber der Technik, muss es als Haltung verstanden werden. Es geht nicht um eine zusätzliche Checkliste, sondern um eine Weise, seelsorglich präsent zu sein. Diese Haltung entscheidet sich darin, wie mit den Vorschlägen einer KI umgegangen wird und ob sie als Abkürzung zur Lösung oder als Reibungsfläche für die eigene Urteilskraft dienen.

Seelsorge lebt von der Bereitschaft, sich auf Ungewissheit einzulassen. Diese Haltung entspricht dem, was in der klientenzentrierten Tradition als aktives Zuhören beschrieben wird (Rogers 1951). Gemeint ist damit keine Handlungsmethode, sondern eine Weise des Daseins, in der der Seelsorgende nicht vorschnell deutet oder antwortet, sondern sich vom Gegenüber ansprechen lässt und dessen innere Welt möglichst unverstellt wahrnimmt. KI-Systeme können solche Formen des Zuhörens sprachlich simulieren, indem sie empathische Formulierungen erzeugen oder Aussagen paraphrasieren. Sie können jedoch nicht hören im existenziellen Sinn. Ihnen fehlt die leibliche Resonanz, die eigene Betroffenheit und die Verantwortung für das, was im Raum zwischen zwei Menschen geschieht.

Diese Haltung weiß um die Grenzen des eigenen Verstehens und hält Deutungen bewusst offen. Diese Offenheit gerät jedoch unter den Druck von Systemen, die auf „Anschlussfähigkeit“ und „Stimmigkeit“ optimiert sind. KI-Modelle fungieren oft als „stochastische Papageien“ (Bender et al. 2021), die Sprache zwar perfekt imitieren, aber keinen realen Bezug zum Schmerz des Gegenübers haben. Sie erzeugen Vorschläge, die zwar plausibel klingen, aber keine existenzielle Tiefe besitzen.

Human-in-the-Loop als Haltung zeigt sich im Innehalten. In dem Moment, in dem eine KI-Antwort bereits vorliegt, glatt formuliert und scheinbar passend, entscheidet sich die Qualität der Seelsorge. Hier geht es um Resonanz (Rosa 2016): Seelsorge ist ein Resonanzgeschehen, bei dem sich Seelsorgende vom Gegenüber „anklingen“ lassen. Eine KI kann diesen Klang nicht hören; sie berechnet lediglich die statistisch wahrscheinlichste Reaktion darauf. Die Haltung des Human-in-the-Loop besteht darin, die KI-Vorschläge am eigenen „Resonanzkörper“ zu prüfen: Schwingt diese Antwort mit dem mit, was ich über den Menschen und seine Not weiß? Oder ist sie nur ein wohlklingendes Rauschen?

In der Seelsorge wird Präsenz als Kernaufgabe verstanden (Klessmann 1996/2013: 25.100). Seelsorge ist ein dynamisches Beziehungsgeschehen, das von der unmittelbaren Wahrnehmung lebt. Die KI darf hier nicht zum „heimlichen Dritten“ werden, der die Begegnung blockiert oder die Aufmerksamkeit vom Ratsuchenden weg hin zur technischen Optimierung lenkt, auch nicht in Form einer Einladung zum kognitiven Offloading (Gilbert 2015). Verantwortung bedeutet hier, dem Ratsuchenden nicht die fertige Sprache des Systems überzustülpen, sondern das eigene, oft mühsame Ringen um Worte als Teil der spirituellen Begleitung ernst zu nehmen. Nur so zeigt sich Authentizität und Kongruenz (Rogers 1951). Human-in-the-Loop wird so zu einer geistlichen und psychologischen Übung: der Versuchung zu widerstehen, die notwendige Unsicherheit eines Gesprächs durch die perfekte „Glätte“ einer KI-Formulierung zu beruhigen und das Ringen zu vermeiden.

Zu dieser Haltung gehört auch die bewusste Wahrnehmung der eigenen Sprache. Wenn wir KI-Formulierungen unkritisch übernehmen, riskieren wir eine Entfremdung von unserer eigenen Stimme. Die eigene Sprache darf tastend, brüchig oder unvollkommen sein. Gerade in dieser Unvollkommenheit liegt oft die größte seelsorgliche Kraft, da sie dem Gegenüber signalisiert: Hier ist ein Mensch, der mitsucht, nicht ein System, das scheinbar schon alles weiß, bzw. auf alles eine Antwort hat.

Schließlich zeigt sich diese Haltung im Umgang mit der Zeit. Digitale Kommunikation erzeugt oft einen Druck zur sofortigen Verfügbarkeit. KI verstärkt diesen Effekt, indem sie Antworten in Sekundenschnelle liefert. Doch seelsorgliche Verantwortung folgt einer anderen Zeitlogik. Sie erlaubt das Schweigen, das Zögern, die Atempause und das bewusste Offenlassen von Fragen. Human-in-the-Loop bedeutet hier, die Hoheit über den Rhythmus des Gesprächs zurückzugewinnen. Die Entscheidung, wann und wie (in Tiefe und Länge) intensiv geantwortet wird, bleibt ein menschliches Urteil, das kein Algorithmus stellvertretend treffen kann.

Human-in-the-Loop ist keine technische Einschränkung, sondern eine Form von Freiheit. Es ist die Freiheit, sich nicht von der Effizienzlogik technischer Systeme treiben zu lassen, sondern die Verantwortung für die Qualität der Beziehung als Mensch wahrzunehmen.

Im Kontext von Seelsorge wird deutlich, dass der „Loop“ eine pneumatologische Dimension besitzt. Eine KI kann religiöse Metaphern rekombinieren. Und doch bleibt sie gegenüber der individuellen und spirituellen Tiefendimension taub. Spiritualität in der Krisenbegleitung ist schließlich kein Informationstransfer, sondern ein Beziehungsgeschehen, das auf der geteilten Endlichkeit basiert (vgl. Heller & Heller 2014/2018) – eine Erfahrung, die der Maschine wesensfremd ist. Ein Human-in-the-Loop garantiert hier, dass die Begleitung nicht bei einer „Coping-Optimierung“ stehen bleibt, sondern offen für das Urmenschliche und das Unverfügbare bleibt. Die Maschine kann zwar Gebete formulieren, aber sie kann nicht beten; sie kann Trostworte generieren, aber nicht (körperlich) mitleiden.

Verantwortung im geteilten digitalen Raum

Digitale Seelsorge findet in einem gemeinsamen Raum statt. Dieser Raum ist zwar nicht physisch verortet, aber er ist psychologisch und geistlich real. E-Mails, (Messenger-) Chats oder Videogespräche eröffnen einen Beziehungsraum, in dem Aufmerksamkeit geteilt wird und Vertrauen wächst. Wer diesen Raum betritt, handelt seelsorglich, unabhängig davon, ob Worte gesprochen, getippt oder bewusst zurückgehalten werden (Blackstein 2023: 35).

Human-in-the-Loop konkretisiert sich hier in der Art und Weise, wie dieser digitale Raum gestaltet wird. Er ist kein Vakuum, das durch KI-generierte Texte gefüllt werden muss, sondern ein Resonanzraum. Denn „Resonanz entsteht nicht in Geschwindigkeit, sondern in Synchronität – dort, wo Menschen und Systeme im gleichen Rhythmus schwingen“ (Brand Science Institute 2025; sowie Rosa 2025). In der Logik digitaler Plattformen herrscht oft ein Diktat der Unmittelbarkeit: Jedes Blinken signalisiert Handlungsbedarf, jede Nachricht scheint nach einer sofortigen Reaktion zu verlangen. KI-Systeme verstärken diese Beschleunigung, indem sie innerhalb von Sekunden Antwortentwürfe liefern. Doch seelsorgliche Verantwortung äußert sich oft gerade im Widerstand gegen diese Logik. Nicht jedes Signal verdient eine Antwort, und nicht jede Lücke muss sofort gefüllt werden. Manchmal besteht die eigentliche Kompetenz darin, das Unbeantwortete auszuhalten und dem Gespräch seine eigene Zeit zu lassen.

Dieses gemeinsame Aushalten ist eine zutiefst menschliche Praxis. Sie setzt eine Wahrnehmung, manchmal auch ein leises Bauchgefühl voraus, das über die reine Textanalyse hinausgeht. Es ist ein Gespür für die Situation und für die fragile Verbindung zum Gegenüber. KI-Systeme können Texte strukturieren oder Empathie simulieren, aber sie können nicht erkennen, wann ein Schweigen trägt und wann es verletzt. Dieses Unterscheidungsvermögen entsteht nicht aus Daten, sondern aus Erfahrung, Beziehung und leiblicher Resonanz. Seelsorge ringt oft um Worte. Sie sucht tastend nach Sätzen, die der Situation gerecht werden, ohne sie vorschnell festzulegen. Sprache entsteht hier nicht als fertiges Produkt, sondern als gemeinsamer Prozess. Wenn die KI diesen Prozess durch einen fertigen Textbaustein ersetzt, wird der digitale Raum zwar funktionalisiert, aber nicht wirklich bewohnt. Human-in-the-Loop bedeutet deshalb, die Verantwortung für Rhythmus, Unterbrechung und das Offenlassen von Fragen nicht an das System zu delegieren.

Seelsorge ist immer auch Arbeit innerhalb einer Begegnung. Im digitalen Raum bedeutet das: Der Mensch im Kreislauf sorgt dafür, dass die Kommunikation nicht in eine rein technische Informationsverarbeitung abgleitet. Seelsorgliche Zeit ist keine Effizienzgröße, sondern ein Beziehungsangebot. Eine verzögerte Antwort, ein Ein- und Ausatmen oder ein Wunsch nach Pause, kann ein Zeichen von Wertschätzung sein, ein Signal, dass die Nachricht des Gegenübers im Seelsorgenden Nachklang findet, bevor eine Reaktion erfolgt. Diese Form der Resonanz setzt voraus, dass der Seelsorgende nicht nur als „Editor“ von KI-Vorschlägen agiert, sondern als ein mitschwingendes Subjekt präsent bleibt.

Schließlich zeigt sich Verantwortung im digitalen Raum darin, wie Grenzen gesetzt werden. Nicht jede Tiefe lässt sich digital begleiten, und nicht jeder Impuls einer KI ist für die spezifische Beziehung angemessen. Human-in-the-Loop bedeutet, die Grenzen der eigenen Belastbarkeit und die Grenzen des Mediums wahrzunehmen. Es ist die menschliche Urteilskraft, die entscheidet, wann ein Kanalwechsel (z. B. vom Chat zum Telefonat) oder ein Abbruch der technischen Unterstützung und ein Wechsel ins Präsentische notwendig ist, um die Integrität der Seelsorge zu wahren (Engelhardt/Kühne 2025: 38-45).

So wird der digitale Raum zu einem Ort, an dem sich Human-in-the-Loop praktisch bewähren muss. Nicht als technische Überwachung von Algorithmen, sondern als bewusste Gestaltung einer Beziehung, die Raum für das Unverfügbare lässt. Wer diesen Raum verantwortet, bleibt präsent, auch wenn technische Werkzeuge genutzt werden. Die Qualität der Seelsorge entscheidet sich daran, ob die Technik der Beziehung dient oder ob die Beziehung zum Objekt der Technik wird.

 

Was Ausbildung leisten muss, damit Human-in-the-Loop bleibt

Human-in-the-Loop ist keine Selbstverständlichkeit. Er entsteht nicht automatisch dort, wo Menschen mit KI arbeiten, sondern ist eine Kompetenz, die gelernt, eingeübt und reflektiert werden muss. In der seelsorglichen Ausbildung entscheidet sich, ob Technik zur Entlastung führt oder ob Verantwortung schleichend und unbemerkt verschoben wird.

Ein erster zentraler Aspekt betrifft die Sprachsensibilität. Seelsorgliche Ausbildung hat immer schon darauf gezielt, ein Bewusstsein für die Macht der Worte zu schaffen. Worte schaffen Wirklichkeit; sie können Deutungsräume öffnen oder gewaltsam schließen (Klessmann 2008/2015: 42). Beratung lebt dabei nicht nur von Methoden, sondern auch vom individuellen Profil, Erfahrungswissen und der bewussten Präsenz der beratenden Person (Brinkmann et al. 2023). Wenn jedoch jederzeit glatt polierte Formulierungen per Klick verfügbar sind, droht die Gefahr, dass das eigene Ringen um Worte verkümmert. Ausbildung muss daher helfen, die eigene seelsorgliche Stimme zu entwickeln und gegen die ästhetische Verführung der KI zu schützen. Human-in-the-Loop zeigt sich dort, wo angehende Seelsorgende unterscheiden lernen zwischen einer Sprache, die aus der Resonanz wächst, und einer Sprache, die lediglich professionell simuliert.

Ein zweiter Schwerpunkt liegt in der Ambiguitätstoleranz, dem Umgang mit Unsicherheit. Digitale Systeme sind darauf optimiert, Antworten zu liefern und Lücken zu schließen. Seelsorgliche Praxis lebt jedoch davon, dass eben nicht alles sofort gesagt oder gelöst werden muss. Ausbildung muss Räume eröffnen, in denen Nichtwissen als Ressource erfahren wird. Wer lernt, die Stille und die Unbeantwortbarkeit auszuhalten, ist weniger anfällig für den „Automation Bias“. Als Human-in-the-Loop haben wir die Chance, die Hoheit über das „Nicht-Antworten“ zu behalten und sich nicht von der Reaktionsgeschwindigkeit der Algorithmen treiben zu lassen.

Drittens muss Ausbildung zur ethischen Urteilskraft befähigen. In der aktuellen Bildungsforschung wird dies im Rahmen des Konzepts der „Future Skills“ diskutiert. Gemeint sind Kompetenzen, die Individuen befähigen, in hochgradig komplexen und emergenten Kontexten selbstorganisiert und wertebasiert zu handeln (Ehlers 2020: 53f.; Ehlers & Eigbrecht 2024: 4). Gerade technologiegeprägte Umgebungen fordern eine solche reflexive Handlungskompetenz heraus, weil Entscheidungen nicht mehr nur fachlich, sondern auch ethisch verantwortet werden müssen. Diese Urteilskraft lässt sich nicht durch allgemeine Richtlinien ersetzen; sie muss an konkreten Fällen geschult werden. In der Supervision muss gefragt werden: Wo hat die KI meine Wahrnehmung des Gegenübers bereits vorstrukturiert? Wo hat sie mich entlastet, und wo hat sie mich entfremdet?

Schließlich betrifft die Ausbildung die professionelle Identität. Seelsorgende sind nicht deshalb verantwortlich, weil sie ein System kontrollieren, sondern weil sie eine Beziehung gestalten. Eine Ausbildung, die Human-in-the-Loop ernst nimmt, wird KI weder als Schreckgespenst noch als Heilsbringer präsentieren. Sie wird sie als Werkzeug einordnen, das zwar die Informationsverarbeitung beschleunigen kann, aber niemals die Sinnstiftung übernehmen darf. So wird die Aufgabe Human-in-the-Loop zu sein, Teil seelsorglicher Grundbildung.

Eine Ausbildung, die auf Seelsorge vorbereitet, muss die spirituelle Sprachfähigkeit als Widerstandskraft gegen eine algorithmische Standardisierung begreifen. Es besteht die Gefahr einer „spirituellen Atrophie“, wenn Lernende das mühsame Ringen um eigene, oft brüchige Worte an die KI delegieren. Ausbildung muss daher den Mut zum Übergang vom Text zum Zeugnis fördern: Die Erfahrung, dass ein „holperiges“, aber eigenes Wort spirituell wirksamer sein kann als eine hochglanzpolierte liturgische Formel aus der KI. Ziel ist eine spirituelle Urteilskraft, die erkennt, wann ein technisch perfekter Text die spirituelle Suche des Gegenübers eher verschließt als öffnet.

Ethische Leitlinien für Human-in-the-Loop in Seelsorge und Beratung

Human-in-the-Loop ist in der digitalen Seelsorge keine technische Sicherheitsvorkehrung, sondern eine ethische Praxis. Wo KI-Systeme an der Vorbereitung, Strukturierung oder Formulierung beteiligt sind, stellt sich nicht zuerst die Frage nach Effizienz, sondern nach der Authentizität der Begegnung (Klessmann 2008/2015: 38). Ethische Leitlinien können diese Verantwortung nicht ersetzen, aber sie bieten Orientierung in einem Feld, in dem sich die Grenzen zwischen menschlicher und maschineller Sprache zunehmend auflösen (Mittelstadt et al. 2016).

Die folgenden Leitlinien verstehen sich als Haltungen, die das Prinzip Human-in-the-Loop konkret und handhabbar machen:

Deutungshoheit bleibt menschliche Setzung: In der Seelsorge entsteht Sinn nicht durch technische Berechnung, sondern im Prozess der Selbstdeutung des ratsuchenden Menschen. KI-Systeme können Muster erkennen und sprachliche Vorschläge machen, aber sie können keine Bedeutung verantworten und keine existenzielle Deutung vollziehen. Seelsorgliche Sprache muss daher so gestaltet sein, dass sie den Raum für die eigene Deutung des Gegenübers öffnet, statt sie durch fertige Antworten zu ersetzen. Der Human-in-the-Loop ist nicht der Produzent von Sinn, sondern derjenige, der den Deutungsraum schützt und verantwortet.
Beziehung vor Stimmigkeit: Digitale Systeme sind auf „Anschlussfähigkeit“ optimiert. Doch eine Antwort kann sprachlich perfekt sein und dennoch an der Beziehung vorbeigehen. Die Qualität der Seelsorge misst sich nicht an der Glätte der Sprache, sondern an der Tiefe der Resonanz. Im Zweifel sollte das tastende, eigene Wort Vorrang vor dem polierten Vorschlag der KI haben.
Das Recht auf Schweigen und Verzögerung: KI-Systeme sind auf prompte Reaktion programmiert. Seelsorgliche Verantwortung bedeutet jedoch oft, den Raum des Unbeantworteten auszuhalten. Human-in-the-Loop heißt hier, die Souveränität über die Zeit zurückzugewinnen und Schweigen als legitime seelsorgliche Handlung gegen den Beschleunigungsdruck der Technik zu verteidigen.
Schutz der eigenen Sprachbiografie: Die eigene Sprache ist das Werkzeug der Beziehungsgestaltung. Wer regelmäßig KI-Formulierungen übernimmt, riskiert eine schleichende Entfremdung von der eigenen professionellen Identität. Üben und pflegen wir die Fähigkeit, vom eigenen Glauben und eigenen Erfahrungen in eigenen Worten zu sprechen.
Transparenz und Verantwortung: Entlastung durch KI ist legitim, darf aber nicht zu einer Verschiebung der Verantwortung führen. Wer sich entlasten lässt, muss reflektieren, wie diese Entlastung den Blick auf das Gegenüber verändert. Der „Loop“ bleibt nur dann menschlich, wenn die Seelsorge regelmäßig fragt: „Würde ich das auch so sagen, wenn ich kein System vor mir hätte?“

Für die Praxis bedeutet dies die Etablierung eines ethischen Filters: Es darf keine autonome Spiritualität aus der Maschine geben. Jeder algorithmisch erzeugte Impuls muss durch den Resonanzkörper einer spirituellen Fachkraft gehen. Hier stellt sich die entscheidende Prüffrage: Trägt dieses Wort auch in der Stunde des Todes? Während die KI Plausibilität berechnet, bleibt der Mensch im Loop derjenige, der Hoffnung verantwortet und von ihr ein atmendes Zeugnis gibt.

Human-in-the-Loop als bleibende Aufgabe

Human-in-the-Loop lässt sich nicht technisch implementieren. Er ist kein Schalter, den man umlegt, sondern eine fortwährende Aufgabe. In der digitalen Seelsorge entscheidet er sich nicht an der richtigen Softwarenutzung, sondern an der verantworteten Präsenz im gesamten Prozess.

Die technologische Entwicklung wird weiter voranschreiten. Systeme werden noch plausibler klingen und noch differenzierter auf Emotionen reagieren. Doch gerade hier liegt die bleibende Herausforderung: Plausibilität ist keine Wahrheit, und simulierte Empathie ist keine Zuwendung. Die zentrale Gefahr besteht nicht darin, dass die Technik versagt, sondern dass der Mensch sich unbemerkt aus dem Prozess der Sinnstiftung zurückzieht.

Seelsorge lebt davon, dass Sinn nicht „produziert“, sondern im Dialog „gefunden“ wird. Dieses Suchen ist ein zutiefst menschlicher, oft mühsamer Vorgang. Ein Human-in-the-Loop erinnert uns daran, dass wir diesen Prozess nicht abkürzen können, ohne die Seelsorge selbst zu verlieren. Der „Loop“, in dem der Mensch bleiben muss, ist kein technischer Kreislauf, sondern der Zusammenhang von Beziehung, Sprache und Verantwortung. Ihn offen zu halten bedeutet, sich dem Gegenüber auszusetzen, statt sich hinter Algorithmen zu verbergen. Diese Entscheidung kann uns kein System abnehmen. In dieser Unvertretbarkeit liegt die bleibende Stärke und Würde der Seelsorge im digitalen Zeitalter.

Letztlich erweist sich der Human-in-the-Loop als unverzichtbarer Anker einer Seelsorge, die den Menschen nicht als zu lösendes Problem, sondern als lebendige Seele und Geheimnis begreift. Wo KI-Systeme Antworten “generieren“, muss der Mensch im Loop sicherstellen, dass Raum für das bleibt, was sich nicht generieren lässt: die unverfügbare Begegnung mit sich selbst, mit dem Heiligen und absolut Sinnhaften (vgl. Frankl 1977/2009) im Angesicht einer Krise. Seelsorge im digitalen Zeitalter bewährt sich darin, die Technik als Werkzeug zu nutzen und von deren Grenzen zu wissen, ohne die Souveränität des Menschen über sich selbst und über den heiligen Raum der Stille und des Suchens zu verlieren.

 

Literatur:

Bender EM, Gebru T, McMillan-Major A, & Shmitchell S (2021) On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21): 610–623. doi.org/10.1145/3442188.3445922

Blackstein A (2023) Digitale Seelsorge. Impulse für die Praxis. Göttingen: Vandenhoeck&Ruprecht.

Blackstein A (2025) Die Illusion der Kompetenz. Wie Chatbots den Dunning-Kruger-Effekt systemisch verstärken. Ankerplatz (Zitierdatum: 16.02.2026), abrufbar unter https://www.digihaus.online/Artikel/KI-und-der-Dunning-Kruger-Effekt.

Brand Science Institute (2025) Too Fast to Think – Wie KI das Arbeiten schneller als das Denken macht und Effizienz an der Zeit scheitert. Eine empirisch-psychologische Studie über das Paradox der Beschleunigung (Zitierdatum: 16.02.2026), abrufbar unter https://www.bsi.ag/cases/146-case-studie-too-fast-to-think---das-paradox-der-ki-beschleunigung.html#:~:text=Too%20Fast%20to%20Think%20%E2%80%93%20Das%20Paradox%20der%20KI%2DBeschleunigung.

Brinkmann V, Davin H, Thiery H (2023) KI und Profession. Ein multiperspektivischer Zugang zur Frage des Einflusses der KI auf die Beratungsprofession (Zitierdatum: 16.02.2026), abrufbar unter https://dg-onlineberatung.de/wp-content/uploads/2023/08/KI-und-Profession.pdf.

Deutscher Ethikrat (2023) Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. 181-185 (Zitierdatum: 16.02.2026), abrufbar unter https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf.

Dunning D (2011) The Dunning-Kruger effect: On being ignorant of one's own ignorance. In: Olson JM & Zanna MP (Hg.), Advances in experimental social psychology, Vol. 44: 247–296. doi.org/10.1016/B978-0-12-385522-0.00005-6

Ehlers UD (2020) Future Skills. Lernen der Zukunft – Hochschule der Zukunft. Wiesbaden: Springer VS. doi.org/10.1007/978-3-658-29297-3

Ehlers UD, Eigbrecht L (Hrsg.) (2024) Creating the University of the Future. Wiesbaden: Springer VS. doi.org/10.1007/978-3-658-42948-5

Engelhardt EM, Kühne S (2025) Künstliche Intelligenz. Ein Kompass für die systemische Praxis. Göttingen: Vandenhoeck&Ruprecht.

Floridi L. (2019) Establishing the rules for building trustworthy AI. Nature Machine Intelligence 1: 261–262. doi.org/10.1038/s42256-019-0055-y

Frankl V (1977/2009) … trotzdem Ja zum Leben sagen. Ein Psychologe erlebt das Konzentrationslager. München: Kösel.

Gilbert SJ (2015) Strategic offloading of delayed intentions to the external environment. Quarterly Journal of Experimental Psychology, 68(5): 985–992.

Heller B, Heller A (2014/2018) Spiritualität und Spiritual Care. Orientierungen und Impulse. Bern: Hogrefe.

Klessmann M (1996/2013) Handbuch Krankenhausseelsorge. Göttingen: Vandenhoeck&Ruprecht.

Klessmann M (2008/2015) Seelsorge. Ein Lehrbuch. Neukirchen/Vluyn: Neukirchener Verlag.

Mittelstadt BD, Allo P, Taddeo M, Wachter S, & Floridi L (2016) The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2). doi.org/10.1177/2053951716679679

Moos T (2021) Digitaler Animismus. Theologische Bemerkungen zu einer Ethik der Digitalisierung. In Held B, van Oorschot F (Hrsg.). Digitalisierung: Neue Technik – neue Ethik: Interdisziplinäre Auseinandersetzung mit den Folgen der digitalen Transformation. Heidelberg: heiBOOKS, 2021 (FEST Forschung, Band 1): 235–256. doi.org/10.11588/heibooks.945.c12684

Parasuraman R, & Riley V (1997) Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39(2): 230–253.

Rogers CR (1951) Client-Centered Therapy: Its Current Practice, Implications and Theory. Boston: Houghton Mifflin.

Rosa H (2019/2025) Resonanz: Eine Soziologie der Weltbeziehung. Berlin: Suhrkamp.

Stryker C (2022) Was versteht man unter Human-in-the-Loop? (Zitierdatum: 16.02.2026), abrufbar unter https://www.ibm.com/de-de/think/topics/human-in-the-loop.