Wer mit ChatGPT arbeitet, weiß: Die KI ist verdammt gut darin, Texte zu schreiben, die menschlich klingen. Doch was, wenn sich künftig herausfinden lässt, ob ein Text tatsächlich von einer KI stammt – und das anhand von unsichtbaren Zeichen? Genau darum geht es bei einem aktuellen Fund, der in der KI-Szene für Aufsehen sorgt.
Unsichtbare Spuren im Text: Das steckt dahinter
Der KI-Dienstleister Rumi berichtet, dass in von ChatGPT erzeugten Texten mit den neuen GPT-o3- und o4-mini-Modellen eine auffällige Gemeinsamkeit auftaucht: das Unicode-Zeichen „Narrow No-Break Space“ (U+202F). Für das menschliche Auge sieht dieses Zeichen aus wie ein ganz normales Leerzeichen – es macht also optisch keinen Unterschied. Doch im Quelltext oder in spezialisierten Editoren fällt es sofort auf.

Solche unsichtbaren Zeichen könnten als eine Art Wasserzeichen dienen – eine technische Möglichkeit, um KI-generierte Inhalte zu kennzeichnen, ohne sie optisch zu verändern. Der Gedanke dahinter: Wenn ein Text solche Zeichen enthält, lässt sich mit hoher Wahrscheinlichkeit sagen, dass er aus einem KI-System stammt. Für Content-Plattformen, Schulen oder Medienunternehmen wäre das eine ziemlich interessante Möglichkeit, Urheberschaft zu prüfen.
Entfernen? Ganz einfach
Auch wenn diese Zeichen unsichtbar sind – sie lassen sich problemlos entfernen. Wer also nicht möchte, dass seine Texte „versteckt markiert“ sind, kann sie mit einem Unicode-fähigen Texteditor oder einem Online-Tool wie dem Invisible Character Viewer sichtbar machen.
Danach hilft ein simpler „Suchen und Ersetzen“-Vorgang in einem Texteditor, z.B. Notepad++:
- Suchen nach
U+202F(oder das Zeichen einfügen) - Ersetzen durch ein normales Leerzeichen
- Fertig
So wird der Text von möglichen Spuren befreit – völlig ohne sichtbare Änderungen. Alternativ könnt ihr auch Onlinetools nutzen, beispielsweise das von Text Fixer.

OpenAI reagiert: „Kein Wasserzeichen – nur ein Nebeneffekt“
Auf Nachfrage hat OpenAI mittlerweile bestätigt: Die eingefügten Zeichen seien nicht als Wasserzeichen gedacht. Vielmehr handele es sich um eine „Eigenart von groß angelegtem Reinforcement Learning“. Das Modell habe die Zeichen schlichtweg halluziniert, also selbstständig in die Texte eingebaut, ohne dass dies beabsichtigt war.
Ein interessanter Punkt, denn: Auch wenn OpenAI diese Zeichen nicht bewusst integriert hat – sie sind da. Und damit bleibt der Effekt derselbe: Texte aus bestimmten Modellen lassen sich technisch von menschlichen unterscheiden, ob gewollt oder nicht.
Was bedeutet das für dich?
Wenn du regelmäßig mit ChatGPT arbeitest und Inhalte veröffentlichst, solltest du dir bewusst sein: Texte können Spuren enthalten, die auf ihren Ursprung hinweisen. Auch wenn OpenAI offiziell keine Wasserzeichen setzt, entstehen solche Effekte durch das Training des Modells trotzdem – und können künftig von Tools, Plattformen oder Institutionen genutzt werden.
Ob das eine gute oder schlechte Entwicklung ist, bleibt Ansichtssache. Einerseits sorgt sie für mehr Transparenz bei KI-generierten Inhalten. Andererseits öffnet sie die Tür für automatisierte Urheberkontrollen, die mit Datenschutz und kreativer Freiheit kollidieren könnten.

Ob absichtlich oder nicht: GPT-Modelle hinterlassen Spuren. Das Unicode-Zeichen U+202F ist so ein Beispiel – für viele unsichtbar, aber technisch messbar. Wer Inhalte mit ChatGPT erstellt und verbreitet, sollte sich über solche Eigenarten im Klaren sein. Nicht, weil sie gefährlich sind, sondern weil sie ein weiteres Kapitel in der Frage aufschlagen: Wo endet menschliche Kreativität – und wo beginnt maschinelles Mitdenken?
Eure Rookies,
Niklas & Jan
