Wenn von Manipulation durch Künstliche Intelligenz die Rede ist, denken viele zunächst an Deepfakes: täuschend echte Videos von Politiker:innen, die Dinge sagen, die sie nie gesagt haben. Oder an KI-generierte Bilder, die Fake News visuell untermauern. Doch während diese offensichtlichen Manipulationen bereits gesellschaftliche Debatten auslösen, geschieht eine subtilere – und potenziell gefährlichere – Form der Beeinflussung direkt in unserem Alltag: durch Sprachmodelle wie ChatGPT.


Sprachmodelle als Meinungsmacher?

Was passiert, wenn Millionen Menschen täglich mit einem KI-Chatbot sprechen? Wenn sie Fragen stellen, sich Meinungen einholen oder ganze Texte generieren lassen? Genau hier beginnt das Problem. Denn Sprachmodelle sind – entgegen der weit verbreiteten Annahme – keine neutralen Ratgeber. Sie sind Produkte ihrer Trainingsdaten und ihrer Entwickler. Und diese Daten und Vorgaben sind alles andere als objektiv.

Eine Studie des Leibniz-Instituts für Medienforschung zeigt: Besonders jüngere Menschen nutzen ChatGPT & Co. intensiv zur Informationsbeschaffung. Das kann einerseits gut sein – weil sie sich mit Themen auseinandersetzen, die sie sonst vielleicht meiden würden. Andererseits birgt das die Gefahr, dass sich Meinungen verfestigen, die nicht auf journalistisch geprüften Fakten beruhen, sondern auf den sprachlichen Wahrscheinlichkeiten eines KI-Modells.


Die Technik hinter der Manipulation

Sprachmodelle funktionieren nicht wie klassische Suchmaschinen, die eine Auswahl von Quellen präsentieren. Stattdessen liefern sie auf Nachfrage direkt eine Antwort. Diese erscheint oft so überzeugend und fehlerfrei formuliert, dass sie leicht als „Wahrheit“ akzeptiert wird. Doch gerade hier liegt die Gefahr: Wer kontrolliert, welche Quellen die Grundlage bilden? Wer entscheidet, welche Positionen überbetont – und welche unterschlagen werden?

Ein besonders brisantes Beispiel: Studien zeigen, dass sich Sprachmodelle über die Zeit hinweg politisch verschoben haben. Frühere Modelle reproduzierten oft konservative Sichtweisen. Neuere Versionen – wie ChatGPT – sind tendenziell progressiv geprägt, was auch an den Entwicklerstandorten im liberalen Teil der USA liegt. Die Modelle übernehmen also unbewusst kulturelle und politische Voreinstellungen ihrer Entwickler – und geben diese in scheinbar neutraler Sprache weiter.


Einfluss durch Vorschläge

Noch subtiler wird es, wenn Sprachmodelle nicht nur antworten, sondern vorschlagen. Studien zeigen: Wenn ein Text während des Schreibens durch Vorschläge beeinflusst wird – etwa bei Autovervollständigungen oder beim Umschreiben – verändert sich auch die Haltung der Nutzer:innen. Ohne es zu merken, übernehmen sie Argumentationsmuster oder Sichtweisen der KI. Der Informatiker Maurice Jakesch nennt das eine „Beeinflussung, die sich nicht wie Überzeugung anfühlt – aber trotzdem wirkt“.


Offene Blackboxes & fehlende Kontrolle

Hinzu kommt: Die meisten Sprachmodelle sind sogenannte „Blackboxes“. Weder Trainingsdaten noch Programmierlogik sind öffentlich einsehbar. Wissenschaftler:innen haben kaum Möglichkeiten, diese Modelle systematisch zu überprüfen. Das ist besonders problematisch, wenn KI künftig zentrale Rollen in Bildung, Medien oder Politik übernimmt.


Manipulation ist möglich – und bereits real

Die Gefahr ist längst nicht mehr hypothetisch. KI kann gezielt genutzt werden, um Meinungen zu beeinflussen – etwa über Botnetzwerke, die Stimmung in sozialen Netzwerken machen oder sogar Wahlen beeinflussen sollen. Wenn Sprachmodelle Teil solcher Systeme werden, können sie mit ihren „freundlichen“ Antworten ein trügerisches Gefühl von Neutralität und Sicherheit erzeugen – und dabei gezielt Narrative verstärken oder unterdrücken.


Was tun?

Was wir brauchen, ist mehr Transparenz, mehr Kontrolle – und mehr digitale Mündigkeit. Sprachmodelle sollten wie klassische Medien einer Regulierung unterliegen. Nutzer:innen müssen lernen, Antworten kritisch zu hinterfragen – und zwischen unterstützender Hilfe und subtiler Einflussnahme zu unterscheiden. Gerade im Bildungsbereich gilt: Wer KI nutzen will, muss sie auch verstehen.

Denn am Ende bleibt eine unbequeme Wahrheit: Die Meinung, die du gerade hast, könnte bereits von einer Maschine mitformuliert worden sein.

Eure Rookies,
Niklas & Jan

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

The maximum upload file size: 4 MB. You can upload: image. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded. Drop file here