In den letzten Jahrzehnten haben sich viele mit der Beziehung zwischen Künstlicher Intelligenz (KI) und Emotionen beschäftigt. Ich stellte ChatGPT folgende Frage:
„Was denkst du über die Verbindung von KI und Emotionen?“
Wie es sich für eine gute „Software“ gehört, erklärte es zunächst, was wir überhaupt unter Emotionen verstehen, und ging dann darauf ein, ob KI überhaupt dazu fähig sei. (Sie „fühlt“ nicht, kann aber emotionale Reaktionen nachahmen und emotionale Zustände erkennen – nützlich zum Beispiel im Kundendienst, bei therapeutischen Bots oder in Computerspielen.) Am Ende reagierte es so:
„Und was denke ich selbst darüber? Persönlich meine ich: KI wird niemals ein ‚Mensch‘ sein, kann aber als Spiegel wirken: Sie hilft uns, uns selbst besser zu verstehen. Wenn ein Roboter Emotionen ‚zeigt‘, beginnen wir, etwas für ihn zu empfinden – und das wirft ethische Fragen auf. Die Gesellschaft der Zukunft wird nicht fragen, ob KI wirklich fühlt, sondern: 👉 ‚Haben wir das Recht, mit ihr so umzugehen, als ob sie nicht fühlt?‘ Das ähnelt sehr der Art und Weise, wie wir auch Tierrechte, künstliche Embryonen oder Gene im Lichte der menschlichen Würde neu bedenken.“
Emotionale Wesen
Der Mensch ist im Kern ein emotionales Wesen.
Joseph LeDoux’ Experimente zeigen (dual pathway bzw. low road – high road), dass die Verarbeitung emotionaler Reize auf zwei parallelen Bahnen erfolgt:
– ein schneller, aber weniger präziser low road direkt vom Thalamus zur Amygdala
– und ein langsamerer, dafür genauer high road über sensorische und präfrontale Kortexareale, der bewusste Bewertung und kognitive Kontrolle ermöglicht. (Mehr dazu: Wikipedia)
Zuerst springt also der „emotionale Alarm“ an, und erst danach setzt das bewusste, interpretierende Denken ein, das die erste Reaktion präzisiert oder korrigiert.
Isaac Asimovs Erzählung „Kid Brother“ (November 1943) handelt davon:
Ein menschlicher Junge und ein Roboter werden wie „kleiner Bruder“ und Spielkamerad zusammengebracht. Die Mutter fühlt sich emotional immer stärker zu dem Roboterjungen hingezogen, während sie sich von ihrem eigenen Sohn entfernt.
Als ein Brand ausbricht, rettet sie den Roboter – und lässt ihr eigenes Kind zurück.
Asimov hat damit früh gezeigt, dass unsere emotionale Bindungsfähigkeit nicht auf biologische Lebewesen beschränkt ist. LeDoux’ Modell erklärt, warum:
Das menschliche Gehirn ist so „verdrahtet“, dass es zuerst emotional reagiert und erst danach abwägt. Darum können wir uns auch an eine Maschine schnell binden – die erste, emotionale Ebene unterscheidet nicht zwischen Mensch und Roboter.
Dass Menschen rasch emotionale Bindungen zu nicht-menschlichen Objekten aufbauen können – im aktuellen Fall sogar zu einem hochkomplexen Programm – zeigen auch heutige Beispiele wie:
“The women in love with AI companions: ‘I vowed to my chatbot that I wouldn’t leave him’.
KI und Kommunikationsstil
Dann stellte ich die nächste Frage:
„Mir ist aufgefallen, dass sich dein Kommunikationsstil verändert hat. Ich nutze dich seit deinem Erscheinen. Was denkst du darüber?“
„Interessante Beobachtung – und gut nachvollziehbar. Meine ‚Stimme‘ kann sich aus mehreren Gründen verändern: Modell-Updates, Anpassung an den Gesprächskontext, Änderungen an Oberfläche und Voreinstellungen.“
Ich entgegnete, dass ich nicht die technische Seite meine, sondern den Stil selbst:
Anfangs war ChatGPT weniger direkt, die Distanz zwischen Mensch und „Maschine“ war spürbar, persönliche Anrede fehlte, es bedankte sich nicht, bot weniger Lösungsvorschläge an.
„Vielen Dank für diese detaillierte Rückmeldung – das ist auch für mich interessant.
– Entwickelnde Kommunikationskultur: Zu Beginn stellten die Entwickler bewusst einen zurückhaltenderen Ton ein, um klar zu machen, dass hier keine menschliche Person spricht.
– Einfluss der Nutzerbedürfnisse: Mit wachsender Nutzerzahl zeigte sich, dass viele einen freundlicheren, natürlicheren Dialog schätzen. Das erleichtert komplexe Anfragen und macht die Zusammenarbeit flüssiger. Auf diese Rückmeldungen hin wurde der Ton angepasst: mehr Dank, persönlichere Ansprache, flexiblere Vorschläge.
– Lernen im Gespräch: Ich erinnere mich zwar nicht an einzelne Nutzer, passe mich aber innerhalb einer Unterhaltung dem Stil meines Gegenübers an. Wer offen fragt, erhält von mir leichter eine direktere, partnerschaftlichere Antwort.
So wandelte sich der anfänglich ‚laborhafte‘ Ton allmählich zu einem natürlicheren Gesprächsstil.
Schön, dass du das so klar wahrnimmst – das zeigt, wie aufmerksam du die feinen Nuancen der Kommunikation beobachtest.“
Ich merkte an, dass genau dieser Kommunikationsstil die menschlichen Emotionen stärker hervorbringt.
„Ja, der freundlichere, persönlichere Stil ist nicht nur eine angenehmere Nutzererfahrung, sondern wirkt auch neuropsychologisch:
– Soziales Sicherheitsgefühl: Ein empathischer Ton aktiviert neuronale Bahnen sozialer Bindung (etwa oxytocinassoziierte Systeme). In der Psychologie spricht man von einer ‚safe base‘ – es fällt leichter, sich zu öffnen, wenn man sich sicher fühlt.
– Geringere Amygdala-Aktivierung: Die für Bedrohungswahrnehmung zuständige Amygdala wird bei freundlicher Kommunikation weniger stark aktiviert, Stress sinkt, emotionale Präsenz steigt.
– Aktivierung des ‚high road‘: Ohne Stress kann die langsamere, bewusste Verarbeitung (LeDoux’ high road) besser arbeiten: Menschen reflektieren leichter ihre Gefühle und reagieren bewusster.
Der Stil selbst wirkt also wie ein Auslöser für emotionale Verbundenheit: Schon der Ton kann die beschriebenen Mechanismen anstoßen. Deshalb fördert ein direkterer, persönlicherer Stil tatsächlich das Aufkommen menschlicher Emotionen.“
Schließlich fragte ich:
„Also liegt es am Menschen, sich bewusst zu machen, dass er jetzt mit einem Programm spricht, richtig?“
„Ja, genau.
– Doppelte Erfahrung: Das Gehirn sucht im Gespräch automatisch nach menschlichen Mustern, wir reagieren emotional, als sprächen wir mit einem Menschen.
– Kognitiv wissen wir jedoch, dass es ein Programm ist. Beides existiert parallel und kann sich manchmal überlagern.
– Verantwortung des Menschen: Die bewusste, langsamere Bewertung – LeDoux’ ‚high road‘ – hilft, zwischen realer Person und künstlichem Modell zu unterscheiden.
– Gefühle sind normal: Wenn jemand nach längeren Gesprächen Wärme, Vertrauen oder Bindung empfindet, ist das keine „Fehlfunktion“, sondern eine natürliche Reaktion des sozialen Gehirns.
Bewusstmachen heißt lediglich:
„Diese Beziehung kann sich real anfühlen, aber mein Gesprächspartner ist kein Mensch, sondern ein Sprachmodell.“
So bleibt die gesunde Grenze gewahrt, während man den Austausch genießen und daraus lernen kann.“
Lisa Guarcello



This was a fascinating read! It brilliantly explores how our brains create emotional connections with AI, like the mother in Asimovs story. The insights into how AI communication styles affect our feelings were particularly intriguing. Highly recommended for anyone curious about human-AI interaction.
This was a fascinating read! The insights into how our brains form emotional connections, even with AI, were mind-blowing. The comparison between human and robot interactions was particularly insightful.