„Operation Pravda“ – Wie Russland KI-Chatbots manipuliert

Stellt Euch vor: Ihr stellt einer KI eine harmlose Frage – und erhaltet eine Antwort, die direkt aus einem Propagandabüro1 stammen könnte. Keine wilden Verschwörungstheorien, sondern professionell verpackte Halbwahrheiten. Genau das geschieht derzeit. Still, gezielt, global.

Und das kann funktionieren. Nehmen wir an, ein Schüler recherchiert für ein Referat über internationale Politik. Er nutzt einen KI-Assistenten und erhält eine Analyse, die subtil russische Perspektiven bevorzugt. Keine offensichtlichen Falschaussagen – nur geschickt platzierte Verzerrungen der Realität. Das bleibt hängen, denn a) die KI belegt die Aussagen mit Quellen und b) es ist so schön logisch.

Im KI-Maschinenraum

Was passiert, wenn Künstliche Intelligenz (KI) gezielt mit Falschinformationen gefüttert wird? Genau das versucht Russland derzeit systematisch – nicht mit Cyberangriffen, sondern mit massenhafter Desinformation. Laut einer Studie von NewsGuard (März 2025)2 betreibt der Kreml ein globales Netzwerk namens „Pravda“. Ziel: KI-Modelle mit pro-russischen Inhalten zu trainieren – und so die Realität zu verzerren.

Das Problem liegt in der Funktionsweise moderner Sprachmodelle (LLMs). Diese lernen aus grossen Datenmengen und erkennen Muster. Wenn tausende Webseiten die gleiche Behauptung aufstellen, interpretiert die KI dies als Beleg für deren Glaubwürdigkeit – unabhängig vom Wahrheitsgehalt. KI erzählt nämlich quasi erst die Geschichte und sucht dann die Belege. Andersherum wäre es besser.2

Wie das Netzwerk funktioniert

Diese folgend kurz umrissene russisische Taktik ist daher erschreckend effektiv:

  • Das Netzwerk veröffentlichte allein im Jahr 2024 rund 3,6 Millionen Artikel.
  • Es umfasst 150 Domains in dutzenden Sprachen und erreicht 49 Länder.
  • Die Inhalte werden nicht für menschliche Leser optimiert – die Websites haben kaum organischen Traffic.
  • Stattdessen zielt die Operation darauf ab, Suchergebnisse zu fluten und damit die Trainingsdaten von KI-Modellen zu beeinflussen

Fachleute nennen das „narrative Geldwäsche“: Falschinformationen werden so oft recycelt, dass sie glaubwürdig erscheinen – besonders für KI, die grosse Datenmengen unkritisch verarbeitet. Zudem werden die Falschinformationen so oft wiederholt und umformuliert, dass ihre Herkunft verschleiert wird. Ähnlich wie bei finanzieller Geldwäsche wird die Verbindung zur ursprünglichen Quelle – in diesem Fall dem Kreml – unsichtbar.

Ich nenne es daher „Manipulative Erzählungsverschleierung„. Denn in der Studie von NewsGuard zeigt anhand einiger Fälle, wie sich die fehlerhaft trainierten LLMs von der Propaganda Russlands in die Irre führen lassen. Sie übernehmen die Fake News und belegen sie mit so vielen Internetzitaten, dass die wahren Urheber der FakeNews nicht mehr sichtbar sind.

Ein Drittel der Antworten von KI – manipuliert

Laut NewsGuard übernahmen führende Chatbots in über 33 % der Tests Kreml-Narrative. Selbst bekannte Modelle wie ChatGPT-4o oder Gemini zitierten teils fragwürdige Quellen – ohne die Verbindung zum Kreml zu erkennen. Das Netzwerk passt sich ständig an. Neue Domains tauchen schneller auf, als sie gesperrt werden können.

Was wir jetzt brauchen

  1. Mehr Transparenz bei KI-Quellen
  2. Starken, unabhängigen Journalismus
  3. Digitale Bildung in der Schule
  4. Internationale Zusammenarbeit gegen Desinformation

💬 Habt Ihr schon KI-Antworten gelesen, die sich „komisch“ anfühlten? Wie erkennt Ihr glaubwürdige Informationen? Ich freue mich auf den Austausch in den Kommentaren.


  1. https://en.interfax.com.ua/news/general/1047397.html und https://cpd.gov.ua/en/results/where-the-kremlin-gets-money-to-boost-propaganda-funding/ ↩︎
  2. Quellen: NewsGuard (03/2025), American Sunlight Project (02/2025) https://euromaidanpress.com/2025/03/27/russian-propaganda-network-pravda-tricks-33-of-ai-responses-in-49-countries/ ↩︎
  3. https://tomcritchlow.com/2025/03/21/better-ai-mode/:
    Die hier skizzierte Perspektive stützt sich auf eine strukturierte Marktanalyse zur Rolle von LLMs in der Websuche. Sie kritisiert Googles aktuelle Umsetzung von „Grounding“ als technikorientiert, aber nutzerfern – und warnt vor einem Informationsökosystem ohne echte Verlinkung. Der vorgestellte Prototyp zeigt, dass ein promptbasiertes, verlinktes Sucherlebnis nicht nur nutzerfreundlicher, sondern auch strategisch vorteilhafter für das offene Web und Googles Werbemodell wäre. Die Kernaussage: KI-Suche darf kein Endpunkt sein – sie muss Ausgangspunkt für informierte Exploration bleiben. ↩︎

Hinterlasse einen Kommentar

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Bloggen auf WordPress.com.

Nach oben ↑