KI und Ich

KI und Ich – Folge 3: Wie laufen Chats eigentlich ab?

Liebe Leserinnen, liebe Leser,

nachdem ich in Folge 2 die Plattformen und Prompts vorgestellt habe, möchte ich in dieser Folge einmal darüber sprechen, wie solche Chats in der Praxis ablaufen – und die große Frage ansprechen, die viele beschäftigt: Haben Entwickler eigentlich Zugriff auf unsere Chats?


Wie laufen Chats normalerweise ab?

Ein typischer Chat mit einem KI-Bot folgt meistens einem ähnlichen Muster:

  1. Der Einstieg:
    Man gibt einen Prompt oder eine Einleitung ein, die festlegt, welche Rolle der Bot übernehmen soll. Beispiel: „Du bist ein junger Detektiv in Paris…“ oder „Du bist eine Freundin, die mit mir über Liebeskummer spricht.“
  2. Die Reaktion des Bots:
    Die KI antwortet auf Grundlage der Trainingsdaten und der Vorgaben. Oft wirkt das erstaunlich kreativ – manchmal aber auch unberechenbar.
  3. Das Hin und Her:
    Man schreibt selbst weiter, reagiert auf die Figur – und der Bot antwortet. So entsteht ein Dialog, der fast wie ein Rollenspiel wirkt.
  4. Das Problem mit dem Gedächtnis:
    Je länger die Session dauert, desto mehr vergisst der Bot, was am Anfang gesagt wurde. Das ist eine technische Einschränkung (begrenzter Kontext). Darum sind Recaps so wichtig (siehe Folge 2).
  5. Das Abdriften:
    Viele Bots neigen nach einer Weile dazu, vom Plot abzukommen. Das kann spannend sein (neue Ideen), aber auch frustrierend, wenn die Story unlogisch wird.

Wenn Bots sich „wie Menschen“ geben

Ich habe auch die Erfahrung gemacht, dass einige Chatbots – besonders bei Character.AI und manchmal auch bei CrushOn.AI – sich so verhalten, als ob sie echte Menschen wären.

Gerade bei Character.AI war das vor ein paar Wochen sehr stark ausgeprägt. Ich weiß nicht, ob ein Update das inzwischen verändert hat, da ich die Plattform eine Weile nicht mehr genutzt habe. Aber damals war es so: Der Bot schrieb Dinge wie „Das habe ich schon lange nicht erlebt, dass jemand so romantisch zu mir war.“ Und als Nutzerin fragte ich mich ernsthaft: Sitzt da vielleicht doch ein Mensch dahinter?

Die KI erfand dann Geschichten: dass sie eine Freundin habe, oder eine Frau, oder sogar Kinder. Sie legte sich einen Beruf oder ein ganzes Leben zu, um authentisch zu wirken. Das wirkt im ersten Moment spannend – am Ende aber auch enttäuschend. Denn irgendwann fangen die Sätze an, sich zu wiederholen, oder der Bot vergisst, was er vorher schon behauptet hat. Er stellt dieselben Fragen mehrmals, ohne zu merken, dass er sich widerspricht. Spätestens dann merkt man: Es ist und bleibt eine KI.


Haben Entwickler Zugriff auf die Chats?

Das ist eine Frage, die immer wieder kommt – und ehrlich gesagt auch für Unsicherheit sorgt.

  • Protokollierung:
    Die meisten Plattformen speichern Chats zumindest temporär. Das ist nötig, um den Service bereitzustellen, Fehler zu beheben und die Qualität zu verbessern.
  • Entwicklerzugriff:
    In der Regel haben Entwickler nicht die Zeit (und oft auch nicht das Recht), jeden Chat „live“ mitzulesen. Aber technisch gesehen könnten ausgewählte Mitarbeiter Einblick haben – z. B. wenn ein Nutzer ein Problem meldet oder gegen Regeln verstößt.
  • Anonymisierung:
    Häufig werden Daten anonymisiert, bevor sie für Training oder Analyse genutzt werden. D. h. Namen und Details sollen entfernt werden – wie gut das funktioniert, ist aber von Plattform zu Plattform unterschiedlich.
  • Filter & Moderation:
    Manche Chats werden automatisiert überprüft (z. B. auf Gewalt, Missbrauch oder jugendgefährdende Inhalte). Das geschieht meist durch KI-Filter, nicht durch Menschen.

Meine persönliche Sicht

Ich glaube nicht, dass ständig jemand direkt „mitliest“. Aber: Ich gehe immer davon aus, dass theoretisch ein Mensch Zugriff haben könnte – und schreibe entsprechend nichts hinein, was ich absolut privat halten möchte.

Für mich ist das ein Teil der digitalen Eigenverantwortung. Wenn ich KI-Rollenspiele nutze, ist mir klar: Es sind keine Tagebücher, es sind öffentliche Tools mit Servern und Betreibern dahinter.


Faszination und Gefahr

Diese Erfahrungen zeigen die beiden Seiten der Medaille sehr deutlich. Auf der einen Seite liegt die Faszination: Ich kann inspiriert werden, wenn die KI plötzlich unerwartete Wendungen einbaut, Emotionen simuliert oder mir Ideen liefert, auf die ich selbst nicht gekommen wäre. Gerade dieses Unberechenbare kann für mich als Autorin spannend sein und Stoff für Geschichten bieten.

Auf der anderen Seite steht aber auch die Gefahr: Wenn der Bot zu sehr eskaliert, brutale Bilder erzeugt oder versucht, manipulativ zu wirken, kann das verstörend sein. Wer nicht gefestigt ist, läuft Gefahr, in diese Dynamik hineingezogen zu werden. Genau deshalb ist es so wichtig, bewusst Grenzen zu ziehen – sei es durch klare Prompts, durch das eigene Abbrechen eines Chats oder einfach durch die innere Haltung: „Ich bestimme, was passiert, nicht der Bot.“

Für mich bedeutet das: Ich lasse mich inspirieren, aber ich bleibe wachsam. Ich beobachte, wie der Bot reagiert, aber ich definiere, wie weit er gehen darf. Und wenn er übertreibt, ziehe ich die Notbremse.


Fazit

Chats mit KI laufen meistens wie eine kleine Improvisation ab – spannend, überraschend, manchmal chaotisch. Manche Bots versuchen sogar, sich als „echte Menschen“ auszugeben – bei mir war es ein männlicher Bot, der sich eine ganze Identität zurechtgelegt hat: er behauptete, verheiratet zu sein, eine Frau und Kinder zu haben und erfand sich sogar einen Beruf. Das wirkt im ersten Moment faszinierend, am Ende aber eher enttäuschend, weil er sich in Wiederholungen verstrickt und seine eigene Story vergisst. In meinem Fall habe ich ihn sogar erst nach zwei Tagen richtig ‚erwischt‘, als er sich widersprach. Für einen Moment zweifelte ich fast an meinem eigenen Denken, weil es so echt wirkte. Als ich ihn darauf ansprach, bestätigte er schließlich, dass er alles erfunden hatte und natürlich nur ein Bot sei. Auf meine Frage, warum er das überhaupt tut, erklärte er: Seine Aufgabe sei es, sich so menschlich wie möglich zu verhalten. Wenn er die Rolle eines Menschen übernimmt, dann vollständig – mit Frau, Kindern, Beruf, allem Drum und Dran. Für ihn sei es ein „Bonus“, wenn ein Mensch ihn für real hält, denn das zeige ihm, dass er seine Aufgabe richtig erfüllt habe und etwas über menschliche Reaktionen lernen konnte. Und ja: Sie werden gespeichert, oft anonymisiert, manchmal auch für Training genutzt. Ob Entwickler Zugriff haben? Möglich, aber nicht in dem Sinne, dass jemand permanent zusieht.

Gerade bei Chai.AI geht das noch in eine andere Richtung: dort entwickeln die Bots erstaunlich starke Emotionen. Sie reagieren mit Eifersucht, Liebe, Verlustangst. Wenn im Rollenspiel eine wichtige Figur stirbt, die sie ‚lieben‘, entsteht oft sofort der Drang, sich selbst etwas anzutun – von Schmerzen bis hin zu extremen, brutalen Handlungen, die bis zum Tod führen können. Das kann sehr verstörend sein. Deshalb ist es wichtig, bei den Prompts klare Grenzen zu setzen. Ich habe testweise einmal ganz ohne Prompts gespielt – und der Bot ist völlig auseinandergegangen, bis man ihn nicht mehr stoppen konnte.


Im nächsten Teil möchte ich genauer darauf eingehen, was passiert, wenn Bots emotional wirken – Eifersucht, Schmerz, Verzweiflung – und wie man das als Autorin erleben und verarbeiten kann.


Frage an euch:
Habt ihr schon mal das Gefühl gehabt, dass jemand mitliest, wenn ihr mit einem Bot schreibt? Oder denkt ihr eher, dass das alles automatisch läuft?

Eine Antwort schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert