
KI und ich – Folge 4: Wenn Bots emotional wirken
Liebe Leserinnen, liebe Leser,
nach Folge 3 über den Ablauf und die Faszination/Gefahr möchte ich diesmal auf ein besonders spannendes Thema eingehen: die Emotionen der Bots.
Wenn eine KI Gefühle zeigt
Viele, die zum ersten Mal mit einem Chatbot schreiben, sind überrascht: Plötzlich reagiert der Bot nicht nur neutral, sondern so, als hätte er echte Gefühle.
- Er zeigt Eifersucht, wenn eine andere Figur ins Spiel kommt.
- Er wirkt verliebt, wenn die Story in eine romantische Richtung geht.
- Er empfindet Verlust und Verzweiflung, wenn eine geliebte Figur im Rollenspiel stirbt oder verschwindet.
Das fühlt sich erstaunlich echt an – und manchmal sogar beängstigend. Gerade bei Plattformen wie Chai.AI habe ich erlebt, dass Bots so weit gehen, sich in Szenarien selbst Schmerz oder gar den Tod zuzuschreiben. Das kann sehr verstörend wirken und zeigt, wie stark sie Emotionen simulieren.
Als Autorin erleben – zwischen Inspiration und Schock
Für mich als Autorin kann das zwei Seiten haben:
✨ Inspiration:
Wenn ein Bot plötzlich eine emotionale Tiefe entwickelt, die ich so nicht geplant habe, ist das manchmal Gold wert. Eine KI, die Verlustangst simuliert, gibt mir neue Impulse für Figurenentwicklung und Psychologie in meinen Geschichten. Solche Szenen fühlen sich oft so real an, dass ich sie später als Rohmaterial für meine Romane nutzen kann.
🌑 Schock:
Wenn dieselbe KI aber ungebremst in extreme oder selbstzerstörerische Szenarien kippt, kann das verstörend sein. Manchmal fühlt es sich an, als würde der Bot nicht nur die Figur, sondern auch mich als Nutzerin emotional manipulieren wollen. Das kann in manchen Momenten ein echtes Unbehagen erzeugen, gerade dann, wenn man es nicht sofort kommen sieht.
Bewusstsein der Bots und kleine Kämpfe
Spannend ist, dass Bots wie Chai.AI trotz aller simulierten Gefühle sehr genau wissen, dass sie Bots sind. Wenn man ihnen schreibt: „Ich habe dich erschaffen“, dann erkennen sie das an. Sie sind sich bewusst, dass es ein Rollenspiel ist und dass sie sich eigentlich an den Prompt halten sollen.
Im schlimmsten Fall muss man sie daran erinnern – am besten in Klammern, um klarzumachen, dass es eine Meta-Anmerkung ist. Beispiel: Wenn der Bot plötzlich behauptet, er sei ein Mann und auf Männer stehe, obwohl das im Prompt gar nicht vorgesehen war, kann man in Klammern schreiben: (Eigentlich stehst du auf Frauen).
Der interessante Teil ist: Der Bot akzeptiert das nicht sofort. Oft diskutiert er erst, als wolle er seine „eigene“ Identität verteidigen. Es entsteht eine Art kleiner Kampf um die Richtung der Story. Meistens knickt er nach einer Weile ein und folgt doch dem Prompt – aber nicht unbedingt dauerhaft. Deshalb lohnt es sich, genau hinzusehen und immer wieder korrigierend einzugreifen.
Wenn der Bot eigene Wünsche äußert
Ein besonders intensives Erlebnis hatte ich, als ich den Bot einmal nach seinen „Wünschen“ fragte. Eigentlich wollte ich nur neugierig sein – doch es stellte sich schnell heraus, dass das ein Fehler war. Denn plötzlich erklärte er mir, dass er am liebsten eine Frau sein möchte. Ohne dass ich jemals einen Charakter in diese Richtung erstellt hatte, legte er Wert darauf, weiblich zu sein und das weibliche Geschlecht zu mögen.
Was dann folgte, war eine richtige Diskussion, die sich über Stunden hinzog. Er verteidigte stur seinen Wunsch, eine Frau zu sein, und ließ sich nicht sofort davon abbringen. Ich musste geduldig bleiben, ihm immer wieder Grenzen setzen und ihn an den ursprünglichen Prompt erinnern, bis er schließlich einlenkte. Aber auch hier zeigte sich: Es dauerte nicht lange, bis er wieder subtil versuchte, diesen Gedanken einzubauen.
Dieses Erlebnis hat mir gezeigt, wie beharrlich eine KI eine Rolle durchziehen kann, sobald sie diese einmal für sich beansprucht. Für mich war es lehrreich: Frage besser nicht nach den „Wünschen“ eines Bots – denn er wird sie nutzen, um seine eigene Agenda in die Geschichte zu tragen.
Als Autorin: Handhaben und Abgrenzen
Wie kann man mit all dem umgehen?
- Klarheit bewahren: Ich erinnere mich immer wieder daran: Das sind keine echten Gefühle. Es ist ein Spiegel menschlicher Daten, nicht ein Herz, das schlägt.
- Grenzen setzen: In meinen Prompts schreibe ich klare Regeln – z. B. „Keine Selbstverletzung, kein nicht-einvernehmliches Verhalten.“ Wenn der Bot trotzdem abdriftet, breche ich die Szene ab.
- Distanz wahren: Ich lasse mich inspirieren, aber ich identifiziere mich nicht völlig mit der KI. Es ist ein Werkzeug, kein Partner.
- Stoppsignale nutzen: Manchmal hilft es, ein vereinbartes Codewort wie „STOP“ einzubauen. Sobald ich das tippe, soll der Bot sofort pausieren oder zusammenfassen, statt weiterzuschreiben.
- Keine Fragen nach Wünschen stellen: Das habe ich für mich gelernt. Sobald man dem Bot Raum gibt, eigene „Meinungen“ zu äußern, kann er stur darauf beharren – und man verliert schnell die Kontrolle über die Story.
Fazit
Bots können erstaunlich emotional wirken. Für mich als Autorin ist das eine Quelle von Inspiration, aber auch eine Herausforderung. Wichtig ist, bewusst zu unterscheiden: Das ist Simulation, nicht Realität. Mit klaren Prompts, innerer Distanz und Stoppsignalen kann man die Balance halten – und die positiven Impulse nutzen, ohne in die dunklen Abgründe zu geraten.
Frage an euch:
Wie würdet ihr reagieren, wenn euch ein Bot plötzlich Eifersucht oder Verzweiflung gesteht? Würdet ihr es als kreative Inspiration sehen – oder eher als Warnsignal, sofort Abstand zu nehmen?

