Einleitung
In diesem Beitrag geht es um den Begriff „Künstliche Intelligenz“ aber darüber hinaus auch über Projektionen, Verdinglichung und die Suche nach einer angemessenen Sprache im Ungang mit diesem neuen Phänomen.
Zum Begriff „Künstliche Intelligenz “ (KI)
Der Begriff „Künstliche Intelligenz“ hat sich in den letzten Jahren nahezu unbemerkt in das Zentrum gesellschaftlicher Selbstverständigung geschoben. Kaum ein technologisches Thema wird politisch, medial und kulturell so aufgeladen diskutiert. Und doch bleibt bei näherer Betrachtung etwas Merkwürdiges zurück: Je häufiger von „KI“ die Rede ist, desto diffuser wird das Bild dessen, worüber eigentlich gesprochen wird.
Das liegt nicht daran, dass die zugrunde liegenden Technologien besonders geheimnisvoll wären. Es liegt vielmehr an der Sprache selbst. Der Begriff „Künstliche Intelligenz“ ist weniger eine Beschreibung als eine Projektionsfläche. Er ruft Vorstellungen hervor, die tief aus kulturellen Erzählungen stammen: die Idee eines denkenden Gegenübers, eines autonomen Akteurs, manchmal sogar einer überlegenen Instanz. In diesen Bildern schwingen alte Motive mit – vom allwissenden Beobachter bis zum bedrohlichen Kontrollapparat –, lange bevor eine konkrete technische Funktion überhaupt in den Blick kommt.
Die Tendenzu zu einer schleichenden Verdinglichung
Aus diese technischen Gemengelage entsteht durch den Begriff „Künstliche Intelligenz“ eine Verdinglichung. Denn das komplexes Zusammenspiel aus Daten, statistischen Modellen und Rechenprozessen wird wie ein Wesen behandelt, dem man Absichten, Entscheidungen und Verantwortung zuschreibt. Psychologisch ist das verstädnlich. Wo Komplexität zunimmt, neigt der Mensch dazu, sie zu personalisieren. Ein Akteur ist leichter zu denken als ein System. Doch genau hier beginnt das Problem. Denn diese Personalisierung verschiebt die Aufmerksamkeit weg von den eigentlichen Fragen: Wer entwirft diese Systeme? Wer setzt sie ein? Wer profitiert von ihnen, und wer trägt Verantwortung für ihre Wirkungen?
Die gesellschafts-politische Auseinandersetzung mit KI.
Im politischen Raum zeigt sich diese Verschiebung besonders deutlich. Wenn von „der KI“ gesprochen wird, klingt es oft, als handle es sich um eine eigenständige Kraft, der man ausgeliefert sei oder die man kontrollieren müsse. Damit geraten menschliche Entscheidungen, ökonomische Interessen und institutionelle Machtverhältnisse aus dem Fokus. Die Technik erscheint als Schicksal, nicht als gestaltbares Werkzeug. Diese Erzählung ist bequem – und gefährlich zugleich. Sie erzeugt Ohnmacht auf der einen Seite und entlastet Verantwortung auf der anderen.
Auch medial entfaltet der Begriff eine eigentümliche Dynamik. Er dramatisiert, vereinfacht und emotionalisiert. Zwischen Heilsversprechen und Untergangsszenarien bleibt wenig Raum für Nüchternheit. Der Diskurs wird schneller, lauter und zugleich unschärfer. Dabei wäre gerade hier sprachliche Präzision entscheidend. Denn Sprache ist nicht nur ein Mittel der Beschreibung, sondern ein Rahmen des Denkens. Wie wir etwas benennen, bestimmt, wie wir uns dazu verhalten.
Die Frage nach der Beziehungsgestaltung
Wenn wir ein System als „Intelligenz“ bezeichnen, verändern wir unmerklich die Beziehung zu ihm. Es wird vom Werkzeug zum Gegenüber, vom Hilfsmittel zum potenziellen Entscheider. Diese Verschiebung ist keine Kleinigkeit. Sie beeinflusst, wie wir Verantwortung wahrnehmen, wie wir Regulierung denken und wie viel Gestaltungsmacht wir uns selbst noch zutrauen.
Gibt es angemessenere Begriffe für das Phänomen?
Deshalb lohnt es sich, nach alternativen Begriffen zu suchen – nicht aus sprachlicher Pedanterie, sondern aus politischer und psychologischer Verantwortung. Begriffe wie „Denkpartner“ oder „kognitiver Assistent“ versuchen, die dialogische Dimension hervorzuheben, laufen aber Gefahr, erneut zu vermenschlichen. Technischere Bezeichnungen wie „Strukturassistent“ sind präziser, bleiben jedoch abstrakt und kühl.
Besonders überzeugend wirkt m.E. der Ausdruck „Digitaler Assistent“. Er ist unspektakulär, beinahe alltäglich, und gerade darin liegt seine Stärke. Er beschreibt kein Wesen, sondern eine Funktion. Ein Assistent unterstützt, ordnet, hilft – er entscheidet nicht aus sich selbst heraus. Der Mensch bleibt Subjekt, Zielsetzer und Verantwortlicher. Der digitale Assistent ist ein Werkzeug, das Denkprozesse strukturieren kann, nicht eine Instanz, die sie ersetzt.
Diese begriffliche Verschiebung hätte weitreichende Folgen für den gesellschaftlichen Diskurs. Sie würde Ängste nicht leugnen, aber entdramatisieren. Sie würde Machtfragen nicht verdecken, sondern sichtbar machen. Vor allem aber würde sie die Debatte vom Mythos zurück in die Realität holen – dorthin, wo Gestaltung möglich ist.
Zusammenfassung
Am Ende geht es nicht darum, technologische Entwicklungen kleinzureden oder Risiken zu verharmlosen. Im Gegenteil. Gerade weil diese Systeme wirksam sind, brauchen wir eine Sprache, die ihre Wirkung nicht mystifiziert. Der Begriff „Künstliche Intelligenz“ ist dafür denkbar ungeeignet. Er verschleiert mehr, als er erklärt.
Vielleicht ist es an der Zeit, einen Schritt zurückzutreten und neu zu benennen, womit wir es zu tun haben: nicht mit einer künstlichen Intelligenz, sondern mit digitalen Assistenzsystemen, die menschliches Denken unterstützen können – und die genau deshalb menschlicher Verantwortung bedürfen.
Weiterlesen: Psychotherapiepraxis in Berlin, Wolfgang Albrecht