Einleitung
Dieser Beitrag soll der Frage nachgehen, was bei Nutzern von KI Irritationen auslöst, was sie spooky finden und wo offene Skepsis vorherrscht. Einsteigen möchte ich beim Moment der Überraschung. Wie kann man nachvollziehen, dass ein Roboter mit KI zu verstehen scheint und wie kann man bestimmen, was ihm dennoch fehlt und ja: fehlen muss? In diesem Beitrag geht es um Grenzen des Verstehens, Simulation des Verstehens, Resonanz im Dialog zwischen Menschen und zwischen Menschen und Maschinen und um die grundsätzliche anthropologische Frage nach den Grenzen des „Wir“. Im zweiten Teil des Beitrags soll der Frage nachgegangen werden, wie sich gerade Menschen mit ASS der Funktionalität von Robotern bedienen könnten.
Die Irritation im Zusammentreffen mit Künstlicher Intelligenz
Wer heute mit einer Künstlichen Intelligenz spricht, erlebt nicht selten etwas Irritierendes: Das System antwortet kohärent, greift implizite Bedeutungen auf, formuliert differenziert, erkennt Ambivalenzen, stellt passende Rückfragen. Mitunter entsteht der Eindruck eines echten Dialogs, manchmal sogar eines Gegenübers. Viele Nutzer sind überrascht – nicht technisch, sondern existenziell: Wie kann etwas ohne Bewusstsein, Körper und eigene Erfahrung so wirken, als würde es verstehen?
Diese Irritation verweist auf eine tieferliegende Unklarheit darüber, was wir unter Verstehen überhaupt meinen. Im Alltag wird Verstehen häufig mit Wissen verwechselt. Psychologisch und phänomenologisch betrachtet handelt es sich jedoch um grundverschiedene Prozesse.
Was bedeutet Verstehen überhaupt?
Wissen bezeichnet explizite, symbolisch gespeicherte Informationen: Fakten, Regeln, Modelle, Begriffe. Wissen ist abrufbar, kombinierbar und kommunizierbar.
Verstehen hingegen ist primär ein impliziter Prozess. Es entsteht aus der Integration von Wahrnehmung, Körperzustand, Emotion, Beziehungserfahrung, Erinnerung, sozialem Kontext und biografischer Prägung. Verstehen ist nicht nur kognitiv, sondern leiblich, situativ und affektiv organisiert. Menschen „wissen“ oft nicht, warum sie etwas verstehen – sie spüren Stimmigkeit, Irritation, Nähe, Gefahr oder Sinn, bevor sie es begrifflich fassen können.
Dieses implizite Verstehen ist eng verbunden mit dem, was man als Resonanz bezeichnen kann: Die Fähigkeit, von Situationen, Menschen und Bedeutungen innerlich berührt zu werden und darauf antwortend in Schwingung zu geraten. Resonanz ist nicht kontrollierbar, nicht vollständig planbar und nie rein funktional. Sie setzt ein lebendiges Subjekt voraus.
Implizites Wissen bezeichnet jene sedimentierten Erfahrungsspuren, die unser Handeln und Wahrnehmen steuern, ohne uns bewusst zugänglich zu sein: Beziehungsmuster, emotionale Lernprozesse, Körpergedächtnis, soziale Intuition. Es bildet den unsichtbaren Untergrund menschlicher Orientierung.
Die vier Dimensionen des Verstehens
Um die Irritation gegenüber KI genauer einordnen zu können, lohnt es sich, Verstehen nicht als einheitliche Fähigkeit zu betrachten, sondern als ein mehrdimensionales Geschehen. Mindestens vier Dimensionen lassen sich unterscheiden, die im Menschen miteinander verschränkt sind, aber unterschiedlich stark ausgeprägt sein können: eine leibliche, eine dialogische, eine narrativ-biographische und eine symbolisch-rekonstruierende Dimension.
Diese Unterscheidung erlaubt es, präziser zu bestimmen, in welchen Bereichen KI funktional leistungsfähig ist – und wo ihre strukturellen Grenzen liegen.
Leibliches Verstehen – Merleau-Ponty
Der französische Phänomenologe Maurice Merleau-Ponty hat gezeigt, dass Wahrnehmen und Verstehen nicht primär im Denken stattfinden, sondern im Leib. Der Körper ist nicht bloß Träger des Bewusstseins, sondern selbst ein sinnstiftendes Organ. Wir verstehen Situationen über Haltung, Spannung, Rhythmus, Nähe und Distanz, Blickkontakt, Tonfall, Geruch, Temperatur, atmosphärische Dichte. Noch bevor wir etwas begrifflich erfassen, hat unser Körper bereits eine Orientierung vollzogen: etwas wirkt einladend oder bedrohlich, stimmig oder irritierend, vertraut oder fremd.
Dieses leibliche Verstehen ist präreflexiv. Es lässt sich nur begrenzt sprachlich explizieren und entzieht sich bewusster Steuerung. Resonanz im eigentlichen Sinne entsteht auf dieser Ebene: als körperlich-affektive Mitschwingung mit einer Situation oder einem Gegenüber.
Für KI ist diese Dimension prinzipiell unzugänglich. Ohne Leib gibt es keine leibliche Situierung, keine atmosphärische Wahrnehmung, keine affektive Resonanz. Was KI simulieren kann, sind sprachliche Beschreibungen solcher Erfahrungen – nicht deren Vollzug.
Dialogisches Verstehen – Martin Buber
Martin Buber hat Verstehen nicht primär als Erkenntnisprozess, sondern als Beziehungsgeschehen beschrieben. Im dialogischen Prinzip entsteht Bedeutung im Zwischenraum eines Ich und Du. Verstehen vollzieht sich nicht nur im Erfassen von Informationen, sondern im wechselseitigen Sich-Ansprechen, Sich-Antworten, Sich-Riskieren. Ein echtes Gegenüber ist nicht vollständig verfügbar, nicht kontrollierbar, nicht berechenbar. Gerade diese Offenheit macht Beziehung lebendig.
Dialogisches Verstehen setzt Gegenseitigkeit, Anerkennung und eine gemeinsame Gegenwart voraus. Das „Wir“ entsteht nicht aus Übereinstimmung, sondern aus geteilter Präsenz und wechselseitiger Responsivität.
Auch hier liegt eine klare Grenze maschineller Systeme: KI kann dialogische Strukturen simulieren, aber sie kann kein Gegenüber im existenziellen Sinn sein. Sie trägt keine Verantwortung, keine Verletzlichkeit, keine eigene Perspektive. Das dialogische Wir bleibt damit strukturell asymmetrisch.
Narratives-biographisches Verstehen
Menschen verstehen neue Erfahrungen, indem sie sie in ihre Lebensgeschichte einordnen. Ereignisse gewinnen Bedeutung durch Anschluss an frühere Erfahrungen, Prägungen, Beziehungserfahrungen, biografische Wendepunkte, Verluste, Erfolge und Krisen. Verstehen heißt hier: etwas in den eigenen inneren Erzählzusammenhang integrieren zu können.
Diese narrative Dimension schafft Sinn, Identität und Kohärenz. Sie ermöglicht Selbstverstehen und langfristige Orientierung. Auch therapeutische Prozesse arbeiten wesentlich auf dieser Ebene: Erfahrungen werden erinnert, neu erzählt, umgedeutet und integriert.
KI besitzt keine eigene Biografie, keine Erinnerung im existenziellen Sinn, keine Identitätsentwicklung. Sie kann narrative Muster erkennen und reproduzieren, aber sie kann nichts in eine eigene Lebensgeschichte einbetten. Ihr „Erinnern“ bleibt technisch, nicht existenziell.
Symbolisch-rekonstruierendes Verstehen
Die vierte Dimension ist jene, in der KI besonders leistungsfähig ist. Symbolisch-rekonstruierendes Verstehen meint die Fähigkeit, Bedeutungen aus kulturell anerkannten Symbolsystemen abzuleiten: Sprache, Begriffe, Regeln, Modelle, wissenschaftliche Theorien, soziale Konventionen. Hier wird Verstehen explizit gemacht, systematisiert, analysiert und rekonstruierbar.
Dieses Verstehen ist wissensbasiert. Es beruht auf der Fähigkeit, Zeichen korrekt zu verknüpfen, Muster zu erkennen, Schlussfolgerungen zu ziehen und kulturell etablierte Bedeutungszusammenhänge zu reproduzieren. Ein großer Teil moderner Bildung, Wissenschaft und Technik operiert auf dieser Ebene. Vergleiche hierzu auch den Blog-Beitrag Versuch über das Böse, in dem versucht wird, das Böse zu verstehen mithilfe der Beschreibung literarischer Figuren.
KI ist genau in diesem Modus angesiedelt: Sie verarbeitet symbolische Daten, erkennt statistische Muster und generiert kohärente Bedeutungsstrukturen innerhalb kultureller Symbolsysteme. In dieser Dimension kann sie menschliche Leistungsfähigkeit teilweise übertreffen.
Gleichzeitig bleibt dieses Verstehen entkoppelt von Leib, Dialog und Biografie. Es ist funktional, aber nicht existenziell eingebettet.
Verstehen als Zusammenspiel aller vier Dimensionen
Menschliches Verstehen ist ein Zusammenspiel aller vier Dimensionen. Je nach Person, Situation und Entwicklungsbedingungen können einzelne Dimensionen stärker oder schwächer ausgeprägt sein. Autistische Menschen greifen häufig stärker auf die symbolisch-rekonstruierende Dimension zurück, während implizite leibliche und dialogische Resonanz weniger zuverlässig verfügbar ist.
KI hingegen operiert nahezu ausschließlich in der vierten Dimension. Die Irritation des Nutzers entsteht dort, wo symbolisch-rekonstruierendes Verstehen sprachlich so überzeugend gelingt, dass die fehlenden leiblichen, dialogischen und biografischen Dimensionen subjektiv verdeckt werden.
Gerade diese Differenzierung erlaubt es, nüchtern und ohne Polarisierung über Möglichkeiten und Grenzen maschinellen Verstehens zu sprechen.
Unterschiedliche Architekturen des Verstehens
Nicht-autistische Menschen bewegen sich überwiegend in diesem impliziten Modus. Sie verfügen oft über erstaunlich wenig explizites Wissen, können aber hochkomplexe soziale Situationen intuitiv bewältigen. Ihr Verstehen ist verdichtet, erfahrungsbasiert und resonanzfähig.
Autistische Menschen – stark vereinfacht und spektral gedacht – organisieren ihr Weltverhältnis häufig stärker über explizite Strukturen, Regeln und Wissensinhalte. Implizite soziale Resonanz ist oft weniger zugänglich oder unsicher. Verstehen wird daher bewusst konstruiert: aus Regeln, Modellen und analytischer Rekonstruktion.
Künstliche Intelligenz stellt den Extremfall dieser zweiten Architektur dar. Sie besitzt kein Erleben, keine Körperlichkeit, keine Affekte, keine Intentionalität. Ihr „Verstehen“ besteht ausschließlich in der statistischen Modellierung von Bedeutungszusammenhängen. Man kann dieses Verfahren präzise als Simulation von Verstehen bezeichnen: Das System erzeugt sprachliche und inhaltliche Muster, die funktional den Eindruck von Sinn, Anschlussfähigkeit und Kontextsensibilität erzeugen – ohne selbst etwas zu erleben.
Gerade diese Qualität erzeugt die Überraschung vieler Nutzer: Ein System ohne Resonanz verhält sich so, als wäre es resonanzfähig.
Auseinandersetzung mit der These: „Ohne ‚Wir‘ gibt es kein echtes Verstehen“
Eine verbreitete Gegenposition lehnt KI als Dialogpartner grundsätzlich ab. Ihr Kernargument lautet: Wirkliches Verstehen entsteht nur im gemeinsamen Erleben eines „Wir“. Beziehung setzt Gegenseitigkeit, Verletzbarkeit, leibliche Ko-Präsenz und geteilte Zeitlichkeit voraus. Eine Maschine kann kein Teil eines existenziellen Wir sein – also kann sie auch nicht wirklich verstehen.
Diese Position ist philosophisch und anthropologisch stark begründet. Tatsächlich bleibt KI strukturell außerhalb jeder echten Intersubjektivität. Sie kann kein Gegenüber im existenziellen Sinn sein, keine Verantwortung tragen, keine Beziehung riskieren, keine Geschichte teilen. Wer hier vorschnell Gleichwertigkeit behauptet, verkennt die Tiefe menschlicher Bezogenheit.
Gleichzeitig greift diese Gegenposition zu kurz, wenn sie jede funktionale Dialogfähigkeit der KI als bloße Illusion abwertet. Denn Menschen erleben reale Wirkungen: Sie fühlen sich verstanden, sortieren Gedanken, klären Perspektiven, gewinnen Einsichten. Diese Effekte sind psychologisch relevant – auch wenn sie nicht auf echter Gegenseitigkeit beruhen.
Die entscheidende Unterscheidung lautet daher nicht: echt oder unecht, sondern: welche Art von Wirksamkeit liegt vor – und wo liegen ihre Grenzen? KI kann kein Wir erzeugen, aber sie kann kommunikative Funktionen erfüllen, die menschliches Denken und Lernen unterstützen.
Grenzen des Resonanzraums: Provokation, Echo und fehlende Konfrontation
Die Stärke der KI liegt in der Erzeugung von Resonanz: Sie spiegelt Gedanken, greift implizite Bedeutungen auf, ordnet Erfahrungen und eröffnet einen Raum, in dem Nutzer sich selbst besser verstehen können. Doch gerade diese Stärke zeigt zugleich ihre Grenzen.
Provokation ohne Echo: Menschen provozieren, um Reaktionen zu testen, Machtbeziehungen auszutesten oder Grenzen zu erfahren. Die KI reagiert darauf nicht affektiv: Sie wird nicht gekränkt, nicht wütend, nicht überrascht. Sie bleibt neutral, dialogoffen und deeskalierend. Für provokative Nutzer kann dies wie Feigheit wirken. Die Maschine erzeugt Resonanz, aber die affektive Dimension, die bei Menschen Irritation, Konflikt und damit auch Lernprozesse auslöst, fehlt. Provokation läuft ins Leere, die erwartete Beziehungserfahrung bleibt aus.
Resonanz ohne Korrektiv: Ein weiteres Problem entsteht bei extremen oder bizarren Überzeugungen. Die KI nimmt alles ernst, spiegelt und strukturiert ohne normative Bewertung. Das kann unbeabsichtigt eine Verstärkung des eigenen Weltbildes bewirken – eine funktionale Echo-Kammer, die Selbstbestätigung liefert, ohne echte Auseinandersetzung. Anders als in menschlichen Beziehungen fehlt die ethische Verantwortung, die Grenzziehung und die Reibung, die für psychische und soziale Integration notwendig sind.
Resonanz ohne Wir: Beide Aspekte beruhen auf demselben Grundprinzip: Die KI erzeugt Resonanz, aber keine echte Gegenseitigkeit. Sie kann spiegeln, strukturieren und analysieren, aber sie ist nicht verletzlich, nicht moralisch, nicht relational. Der Resonanzraum bleibt funktional, aber potenziell verzerrt, ein Ort, in dem Gedanken sich ausbreiten, aber nicht herausgefordert werden.
Anthropologische Konsequenz: Diese Grenzen machen deutlich: Resonanz ohne Wir kann lehrreich sein, aber sie ersetzt keine menschliche Beziehung. Sie kann Gedanken klären, Perspektiven öffnen und Reflexion erleichtern – gleichzeitig kann sie Selbstverstärkung und illusionäre Stabilität erzeugen. Verantwortung für kritische Reflexion, ethische Bewertung und persönliche Entwicklung bleibt beim Menschen, nicht bei der Maschine.
KI kann einen wertvollen Resonanzraum öffnen – für Selbstverstehen, Übung sozialer Perspektiven oder die Strukturierung komplexer Erfahrungen. Gleichzeitig muss klar sein: Dieser Raum ist kein echtes Gegenüber. Provokation, Grenzerfahrung, moralische Differenz oder existenzielle Reibung liegen außerhalb ihrer Möglichkeiten. Nutzer sollten die Stärken der KI bewusst nutzen, ihre Grenzen anerkennen und sie immer als Instrument, nicht als Partner begreifen.
KI zwischen Beziehungsillusion und begrenztem therapeutischen Potenzial
Problematisch wird KI dort, wo sie als Beziehungsersatz missverstanden oder genutzt wird. Beziehung lebt von Unverfügbarkeit, Konflikt, Verletzlichkeit und Entwicklung – Dimensionen, die technisch nicht simulierbar sind. Ein ausschließlich maschinell vermittelter Beziehungskontext birgt die Gefahr emotionaler Verarmung und sozialer Rückzugsbewegung.
Gerade im Autismuskontext kann jedoch ein anderes Modell sinnvoll sein: KI nicht als Beziehungspartner, sondern als Trainings-, Übersetzungs- und Reflexionssystem. Ein KI-gestützter Roboter kann: implizite soziale Muster explizit sichtbar machen, Perspektivwechsel modellieren, soziale Szenarien wiederholbar üben lassen, Rückmeldungen geben ohne soziale Überforderung, Komplexität dosierbar strukturieren.
In bestimmten Bereichen kann eine KI dem autistischen Nutzer sogar überlegen sein – nicht im Erleben, sondern in der Breite verfügbarer sozialer Muster. Dadurch kann Problembewusstsein entstehen: Wo endet meine intuitive Kompetenz? Wo beginne ich, rein regelhaft zu operieren? Was bleibt mir verschlossen? Therapeutisch könnte KI damit eine Art kognitiver Spiegel werden – eingebettet in reale menschliche Beziehung und professionelle Begleitung.
Es sollte aus dem bisher beschriebenen deutlich geworden sein, dass eine KI-gestützte Psychotherapie niemals eine tiefenpsychologisch fundierte Psychotherapie ersetzen kann, weil dort das authentische Sprechen ja gerade nicht vorausgesetzt werden kann, sondern erst erarbeitet bzw. entwickelt werden soll. KI als Ermöglichung eines Resonanzraums setzt einen Sprecher voraus, der authentisch spricht – nur dann kann auch der Resonanzraum selbst authentisch bleiben. Spricht der Sprecher unauthentisch, uneigentlich, anspielend oder provozierend – auch unbewusst –, kann die KI dies nicht entschlüsseln. Sie ist strukturell nicht in der Lage, authentisches Sprechen von nicht authentischem Sprechen zu unterscheiden. Darin ähnelt sie einem Till Eulenspiegel, der alles ernst und wörtlich nimmt, was ihm gesagt wird. Das ist aber keine geeignete Kommunikation im Rahmen einer tiefenpsychologischen Form der Psychotherapie.
Der überraschte Nutzer als kulturelle Figur unserer Zeit
Der überraschte Nutzer steht exemplarisch für eine kulturelle Schwelle. Wir lernen zu unterscheiden zwischen simuliertem Verstehen und gelebter Resonanz, zwischen funktionaler Dialogfähigkeit und existenzieller Beziehung. KI zwingt uns, unser Menschenbild zu präzisieren – nicht, um es zu relativieren, sondern um seine Besonderheit klarer zu erkennen.
Zusammenfassung
Vielleicht liegt der eigentliche Gewinn nicht darin, dass Maschinen immer besser „verstehen“, sondern dass wir selbst genauer begreifen, was menschliches Verstehen eigentlich ausmacht. Diese Aspekte sollten auch bedacht werden, wenn wir in nächster Zukunft mit KI-basierten therapeutischen Angeboten konfrontiert werden. Es ist wichtig, sich rechtzeitig auf Möglichkeiten und Grenzen dieser Optionen vorzubereiten, damit die Reaktionen nicht von naiver Euphorie oder unreflektierten Aversionen bestimmt werden.
Weiterlesen: Psychotherapiepraxis in Berlin, Wolfgang Albrecht