Künstliche Intelligenz gehört inzwischen so selbstverständlich zum digitalen Alltag wie das WLAN im Café. Ob beim Schreiben, Coden oder Recherchieren – KI-Tools wie ChatGPT, Gemini oder Copilot sind zur Standardausstattung vieler Nutzer:innen geworden. Doch mit der steigenden Verbreitung wächst auch die Unsicherheit: Was passiert eigentlich mit unseren Daten, wenn wir mit einem LLM – also einem Large Language Model – plaudern, brainstormen oder Probleme lösen?

Die Datenschutzexperten von Incogni sind dieser Frage auf den Grund gegangen und haben in einem aktuellen Ranking neun der bekanntesten LLMs verglichen. Das Ergebnis? Zwischen datensparsam und datenhungrig liegen Welten – und es lohnt sich, genau hinzuschauen.


Was wurde untersucht?

Für ihr „AI Platform Privacy Ranking 2025“ hat Incogni eine ganze Reihe von Kriterien analysiert – insgesamt elf Stück, unterteilt in drei Hauptkategorien:

  • Datenerhebung für das Training (z. B. werden Eingaben gespeichert und weiterverwendet?)
  • Transparenz (z. B. wie klar kommuniziert ein Anbieter über seine Praktiken?)
  • Datenverwendung und -weitergabe (z. B. wer hat Zugriff auf welche Infos?)

Die Kriterien wurden dabei unterschiedlich gewichtet: Die Frage, was mit den Daten passiert, sobald sie erhoben wurden, floss mit 50 % in die Gesamtwertung ein – also das größte Stück vom Datenschutz-Kuchen.


Le Chat, ChatGPT & Grok: Die datensparsame Spitzengruppe

Den ersten Platz im Ranking sichert sich Le Chat von Mistral AI – ein in Europa entwickeltes Modell, das mit einer besonders zurückhaltenden Datenerhebung punktet. Es kombiniert geringe Sammelwut mit transparenter Kommunikation und einer klaren Möglichkeit, das Training mit eigenen Daten zu unterbinden.

Knapp dahinter folgt ChatGPT von OpenAI. Hier zeigt sich: Transparenz zahlt sich aus. Nutzer:innen können über ihr Konto entscheiden, ob ihre Konversationen zur Verbesserung des Modells genutzt werden dürfen. Wird der Chatverlauf deaktiviert, speichert ChatGPT die Inhalte auch tatsächlich nicht – eine Seltenheit im Feld der LLMs.

Grok, das KI-Projekt von Elon Musks Unternehmen xAI, landet auf dem dritten Platz. Auch hier überzeugt vor allem die Transparenz, auch wenn die Datenerhebung etwas großzügiger ausfällt als bei den beiden Erstplatzierten.


Gemini, Meta & Copilot: Wenn Datenschutz zur Nebensache wird

Weniger gut schneiden die Modelle aus den Häusern Google, Meta und Microsoft ab.

Meta AI landet auf dem letzten Platz des Rankings. Das Modell sammelt umfassend Nutzerdaten, bietet laut Incogni aber kaum verständliche Opt-out-Möglichkeiten. Auch Gemini (Google) und Copilot (Microsoft) fallen durch – unter anderem, weil sie standardmäßig Nutzereingaben zum Training verwenden und Nutzer:innen darüber nur unzureichend informieren.

Besonders problematisch: Bei diesen Tools ist es oft schlicht nicht möglich, der Datennutzung zu widersprechen – entweder weil es technisch nicht vorgesehen ist oder weil entsprechende Optionen tief in schwer verständlichen Datenschutzerklärungen versteckt sind.


Was bedeutet das für die Praxis?

Vier von neun untersuchten Tools erlauben es überhaupt, die eigenen Daten vom Modelltraining auszuschließen: ChatGPT, Le Chat, Grok und Copilot. Bei Claude von Anthropic wiederum wird laut Incogni gar nicht erst mit Nutzerdaten trainiert – ein Sonderfall, der in der Bewertung berücksichtigt wurde.

Der Rest – darunter auch bekannte Player wie Gemini, Pi oder Meta AI – bietet diese Möglichkeit schlicht nicht. Und das zeigt: Auch im Jahr 2025 ist Datenschutz bei LLMs keineswegs selbstverständlich.

Gerade Unternehmen, die mit sensiblen Kundendaten arbeiten, sollten sich deshalb genau überlegen, welche KI sie einsetzen – und unter welchen Bedingungen. Wer privat chattet oder Ideen brainstormt, wird vielleicht weniger kritisch sein. Aber spätestens bei vertraulichen Projekten oder geschäftlicher Kommunikation sollte gelten: Datenschutz ist kein Nice-to-have, sondern Pflicht.


Warum Datenschutz nicht verhandelbar ist

Wer denkt, ein bisschen Datenweitergabe sei doch halb so wild, übersieht schnell die Tragweite. Denn bei der Nutzung von KI-Tools geben wir nicht nur harmlose Stichwörter ein – oft enthalten unsere Prompts persönliche Informationen, sensible Geschäftsdaten oder sogar Gesundheitsfragen. Was viele nicht wissen: Solche Daten können – je nach Tool – gespeichert, analysiert und für ganz andere Zwecke weiterverwendet werden, als es Nutzer:innen eigentlich vorhatten.

Ein besonders abschreckendes Beispiel liefert Meta, der Konzern hinter Facebook, Instagram und Meta AI. Unter anderem über die sogenannten Meta Business Tools wurden massenhaft Nutzerdaten gesammelt – auch von Personen, die gar nicht direkt Meta-Dienste genutzt haben. Diese Daten wurden umfassend analysiert und an Werbepartner weitergeleitet. In mehreren Gerichtsurteilen wurde dieses Vorgehen bereits als klarer Verstoß gegen Datenschutzrecht bewertet.

Die Gefahren liegen auf der Hand: Einmal erhobene Daten können in falsche Hände geraten, für gezielte Werbung oder sogar politische Einflussnahme genutzt werden. Unternehmen riskieren mit unachtsamer Nutzung von LLMs nicht nur Reputationsschäden, sondern auch rechtliche Konsequenzen – etwa durch die Verletzung von DSGVO-Vorgaben. Und wer privat unterwegs ist, läuft Gefahr, dass persönliche Themen später für Profilbildung, Werbung oder automatisierte Entscheidungen herangezogen werden.

Kurz gesagt: Datenschutz ist kein abstraktes Konzept, sondern aktiver Selbstschutz – im digitalen Alltag wichtiger denn je.


Unser Tipp: Datenschutz nicht dem Zufall überlassen

Das Incogni-Ranking macht deutlich: Wer sich auf Datenschutz bei LLMs verlassen will, sollte nicht einfach davon ausgehen, dass „schon alles passt“. Stattdessen lohnt es sich, die Einstellungen im jeweiligen Tool zu prüfen, Datenschutzerklärungen zumindest querzulesen – und im Zweifel zu einem Modell zu greifen, das den Schutz der Privatsphäre ernst nimmt.

Le Chat, ChatGPT und Grok zeigen, dass es auch anders geht. Doch sie bleiben bislang die Ausnahme.

Eure Rookies,
Niklas & Jan

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

The maximum upload file size: 4 MB. You can upload: image. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded. Drop file here