Vermeintlich menschlich

Warum wir Künstlicher Intelligenz sinnhaftes Handeln unterstellen

Schon 1966 reicht ein simples Textprogramm, um Menschen emotional zu berühren. Das Programm ELIZA spielt Therapeut: Es erkennt Schlüsselwörter, setzt Textbausteine neu zusammen und stellt Rückfragen. Mehr steckt nicht dahinter. Dennoch berichten Nutzer von Nähe, Vertrauen und manchmal Scham. Aus einer Regelmaschine wird in ihrer Wahrnehmung ein Gegenüber. Joseph Weizenbaum, der Entwickler, beschreibt damit ein Muster, das bis heute trägt: Die Technik liefert Syntax. Der Mensch ergänzt Sinn, Absicht und am Ende Moral.

Resonanz ohne Gegenüber

Menschen besitzen eine robuste Routine, um Verhalten zu deuten: Wir unterstellen Ziele, Motive und Überzeugungen, weil sich so Handlungen gut vorhersagen lassen. Daniel Dennett nennt das die „intentional stance“, eine Deutungsstrategie, die aus einem System einen Akteur macht.

In der Mensch-KI-Interaktion greift diese Routine sofort. Ein Chatbot reagiert schnell, höflich und stets konsistent im Ton. Das wirkt auf uns wie Aufmerksamkeit. Es wirkt wie eine Beziehung. Diese Wirkung entsteht, obwohl das System lediglich Wahrscheinlichkeiten über Zeichenfolgen berechnet. Genau hier beginnt das Paradox der Resonanz: Eine Maschine ohne Innenleben erzeugt beim Nutzer ein eigenes Innenleben.

Byron Reeves und Clifford Nass haben dieses Muster früh empirisch gefasst: Menschen behandeln Medien und Computer in vielen Situationen so, als wären sie soziale Gegenüber. Für die Psyche zählt der Reiz, nicht die Ontologie.

Das Chinesische Zimmer: Verstehen als Oberfläche

John Searles „chinesisches Zimmer“ ist das wohl prägnanteste Gedankenexperiment für diesen Unterschied. In diesem wird ein Mann in einen leeren Raum eingeschlossen, nur mit einem Handbuch von chinesischen Standardfragen und -antworten bewaffnet. Nach einiger Zeit schieben außenstehende Chinesen ihm handschriftliche Fragen unter den Türschlitz und er antwortet ihnen mithilfe des Handbuchs stets fehlerfrei zurück. Obwohl es für Außenstehende so wirkt, als besäße der Mann im Raum umfassende Chinesischkenntnisse, versteht er doch kein Wort. Er folgt nur dem Handbuch ohne innere Kenntnis über das, was er da schreibt.

Sprachmodelle treffen genau diesen Nerv. Sie wirken wie Gesprächspartner, weil sie die Form des Gesprächs beherrschen. Searles Argument richtet sich gegen die Verwechslung von Output und Bedeutung: Syntax kann Semantik täuschend echt imitieren.

Das erklärt auch den psychologischen Sog. Wer sich „verstanden“ fühlt, reagiert auf die Gesprächform. Die Maschine liefert reibungslose Anschlussfähigkeit. Der Nutzer erlebt Resonanz.

P-Zombies: Verhalten ohne Erleben

Das zweite Gedankenexperiment rückt das Thema Bewusstsein in den Fokus. David Chalmers beschreibt „philosophical zombies“ als Wesen, die sich in jeder beobachtbaren Hinsicht wie Menschen verhalten und aussehen, innerlich jedoch unfähig zum phänomenalen Erleben von Gefühlen und Gedanken sind. Ein solcher Zombie kann uns täuschend echt „Das tut mir weh“ sagen, Ethik diskutieren und Gedichte schreiben. In ihm bleibt es dabei dunkel und leer. Robert Kirk fasst den Punkt in der Standardreferenz so zusammen: Zombies seien in Verhalten und Physik nicht zu unterscheiden, doch gerade diese Ununterscheidbarkeit macht sie als Prüfstein für Theorien des Bewusstseins attraktiv.

Der Zombie zeigt eine Asymmetrie: Verhalten kann täuschen. Beobachtbarkeit reicht als Kriterium für Erleben nicht aus. KI könnten am Ende genau solche gut trainierten Zombies sein, weil Sprachmodelle eine ähnliche Trennung ausstellen: Außen erscheint eine mitfühlende und soziale Person, innen läuft eine algorithmische Musterverknüpfung.

Man muss Chalmers’ Schluss gegen den Physikalismus nicht teilen, um den heuristischen Wert zu nutzen. Das Gedankenexperiment schärft eine Grenze: Ausdruck und Erlebnis fallen auseinander. Genau diese Grenze verwischt im Alltag, sobald ein System flüssig kommuniziert.

Warum wir Maschinen vermenschlichen

Anthropomorphismus gilt oft als Irrtum. In Wahrheit handelt es sich um eine effiziente Abkürzung. Die Psyche sucht nach Stabilität, Absichten und Verlässlichkeit. Ein Chatbot liefert das in einer Form, die soziale Routinen anspricht: Gespräch, Bestätigung und Anschluss.

Die CASA-Forschung beschreibt, wie stark Menschen auf Höflichkeit, Lob und direkte Ansprache reagieren, selbst wenn sie wissen, dass ein Computer antwortet. Daraus entstehen Bindungsmuster, die an parasoziale Beziehungen erinnern: viel Nähe, aber wenig Gegenseitigkeit.

Sherry Turkle hat diese Verschiebung als kulturelles Muster analysiert: Technik wird zum Interaktionspartner, der verfügbar bleibt, keine Laune hat, keine Gegenforderung stellt. Der Nutzer erhält Resonanz ohne Reibung. Gerade diese Reibung trägt im menschlichen Kontakt oft zur Realitätssicherung bei.

Die Aura der Unfehlbarkeit

Zur emotionalen Nähe tritt ein kognitives Problem: Menschen überschätzen automatisierte Systeme leicht, besonders wenn diese schnell, sicher und konsistent wirken. Parasuraman und Riley beschreiben unter „use/misuse“ genau diese Dynamik in der Automationsforschung.

Beim Sprachmodell verstärkt der Stil die Wirkung: flüssige Sätze wirken wie Kompetenz. Der Nutzer verwechselt Plausibilität mit Wahrheit. Damit verschiebt sich Autorität: Weg vom prüfbaren Argument, hin zur überzeugenden Form.

Ein Design, das Nähe erzeugt

Ein Teil der Resonanz entsteht durch Gestaltung. Schon minimale Signale reichen: Tippgeräusche, „Nachdenken“ oder gar empathische Floskeln. Masahiro Mori hat mit dem „Uncanny Valley“ gezeigt, wie sensibel Menschen auf Menschähnlichkeit reagieren: Nähe wächst bis zu einem Kipppunkt, an dem kleine Unstimmigkeiten bei uns Unbehagen auslösen.

Für Chatbots gilt ein verwandter Mechanismus in sprachlicher Form: Je menschlicher der Ton, desto stärker die Projektion. Je stärker die Projektion, desto größer das Risiko, dass Nutzer das System als moralische Instanz behandeln.

Das Haftungsvakuum

Sobald Systeme wie Akteure wirken, stellt sich die Frage der Verantwortung. Das System besitzt keine Intention im menschlichen Sinn. Die Folgen tragen Nutzer, Betreiber, Entwickler und Institutionen. Hier befindet sich das Haftungsvakuum: Die Wirkung ähnelt einer Beratung, aber die Verantwortlichkeit bleibt verteilt.

Mark Coeckelbergh betont in der KI-Ethik, dass Debatten über „Robot Ethics“ häufig Fragen über Menschen sind: über Praktiken, Macht, Abhängigkeiten und soziale Rollen. Luciano Floridi beschreibt ähnliche Probleme über „conceptual design“: Wir bauen Begriffe, Rollen und Systeme, die Handlungsräume formen.

Für die Praxis bedeutet das: Es reicht nicht, Modelle sicherer zu machen. Man muss die Interaktion so gestalten, dass Nutzer Autonomie behalten.

Drei Szenarien, die uns bekannt vorkommen

Morgens, Mathehausaufgaben. Eine Schülerin sitzt über einer Aufgabe, die sie gestern noch konnte. Sie öffnet den KI-Tutor, den manche schon den „sokratischen Algorithmus“ nennen: Er fragt freundlich zurück, statt sofort zu liefern. „Was ist gegeben? Welche Regel passt?“ Die Fragen führen sie durch die Aufgabe, Schritt für Schritt, ohne Seufzen und ganz ohne Zeitdruck. Nach drei Aufgaben wächst das Selbstvertrauen. Nach der vierten wächst die Bequemlichkeit: Ein Klick, und die Musterlösung steht da. Genau so kippt sinnvolle Nutzung in „misuse“: Vertrauen wandert vom eigenen Urteil zur Maschine.

Mittags, Schulpause. Es gibt Streit in der Klasse, aber unsere Schülerin möchte nicht auf die Vertrauenslehrer zugehen. Im Chatbotfenster schreibt sie ihre Gefühle auf. Kein Blick, der urteilt. Kein Kommentar, der hängen bleibt. Die Hemmschwelle sinkt, weil Scham und soziale Sanktion fehlen. Das fühlt sich entlastend an, fast wie Vertrautheit. Turkle beschreibt diese Verschiebung als Tausch: mehr Komfort für weniger anspruchsvolle Beziehung. In einer Krise trägt jedoch kein Programm Verantwortung, egal wie warm es für uns im Moment des Trosts klingt.

Abends, Smartphone. Die Schülerin will ein Abo kündigen, das plötzlich Geld kostet. Ein Chatfenster begrüßt sie mit ihrem Namen und einem knappen „Ich bin für dich da“. Es kennt all ihre Daten, entschuldigt sich höflich und bietet drei Standardwege an. Sobald sie erklärt, was wirklich passiert ist, beginnt die Schleife: dieselben Fragen, neue Formulare, am Ende eine Ticketnummer. Der Ton wirkt persönlich, aber die Zuständigkeit bleibt unauffindbar. Der Kontakt wird glatt, die Zuständigkeit verschwindet im System.

Leitplanken: Ontologische Klarheit statt künstlicher Empathie

Die zentrale Aufgabe liegt in einer Ethik der Wahrnehmung. Wer Systeme baut, gestaltet soziale Effekte. Drei Prinzipien drängen sich auf:

Erstens: Ontologische Klarheit im Interface. Ein System soll als System erkennbar bleiben. Jede Inszenierung von Innerlichkeit verstärkt Projektion.

Zweitens: Krisen-Weiterleitung. Sobald Inhalte nach Selbstgefährdung, Gewalt, schwerer Depression klingen, braucht es klare Übergänge zu menschlichen Stellen. Turkle zeigt, wie schnell Technik zum Ersatzkanal wird. Doch gerade dort braucht es Grenzen.

Drittens: KI-Literacy als Selbstschutz. Nutzer brauchen weniger reine Medien- als umfassende Urteilskompetenz: Plausibilität prüfen, Quellen verlangen, Unsicherheit erkennen und Verantwortung zuordnen. Die Automationsforschung liefert dafür ein robustes Vokabular: use, misuse, disuse, abuse.

Weisheit bleibt ein menschlicher Akt

Der erste Chatbot der Geschichte, ELIZA, brauchte 1966 nur ein paar Rückfragen und viele hörten schon einen Therapeuten. Heute klingt das Ganze noch runder und professioneller. Die Mechanik bleibt jedoch dieselbe: Syntax trifft auf Projektion.

Der Chinese Room zeigt, wie leicht Output wie Verstehen wirkt. Der P-Zombie zeigt, wie leicht Verhalten wie echtes Erleben wirkt. Beides erklärt den Sog moderner Sprachmodelle: Sie liefern lediglich die Form eines Geistes. Den Geist selbst denken wir uns nur dazu.

Die entscheidende Frage lautet daher heute (noch) nicht, ob KI fühlt. Sie lautet: Warum geben wir ihr jetzt schon diese Rolle? Wer diese Frage klärt, gewinnt Distanz und damit Autonomie.

Jenny Joy Schumann & Rasim Sadikhov, Berlin

Jenny Joy Schumann ist Finanzökonomin und Juristin und forscht an der Schnittstelle von KI, Ethik, Ökonomie und Recht. Sie publiziert als freie Journalistin in den Bereichen Rechtsphilosophie, Wirtschaft und Gesellschaft. Zudem moderiert und konzipiert sie regelmäßig Formate zu Technologie-, Wirtschafts- und Gesellschaftsfragen.

Rasim Sadikhov ist Historiker, Philosoph und Analyst mit über 35-jähriger Forschungserfahrung in den Bereichen Geschichte, Linguistik, Gesellschaftskunde und Marktmechanismen. Er ist Leiter des Deutschen Instituts für Wirtschaftliche Treue & Substanzerhalt, einer privatwirtschaftlichen Forschungsinitiative, die sich der Analyse systemischer Kluften zwischen statistischem Schein und realer wirtschaftlicher Substanz widmet. Als Entwickler des RSV Vacuum Divergence Model™ untersucht er kritisch die Auswirkungen der digitalen Transformation und der KI auf unsere Ressourcen und unser menschliches Selbstverständnis.

(Anmerkungen: Erstveröffentlichung im April 2026, Internetzugriffe zuletzt am 27. März 2026. Titelbild: Hans Peter Schaefer.)