Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Informationskrieg und Desinformation: eine moderne Herausforderung

11/2025

Die Verbreitung digitaler Kommunikationsmittel hat zu ausgeklügelten Formen der Informationskriegsführung und Desinformationskampagnen geführt. In diesem Kapitel argumentieren wir, dass traditionelle Ansätze zur Cybersicherheit neu bewertet werden müssen, um nicht nur konventionelle Cyberbedrohungen, sondern auch strategische Informationsmanipulation zu bekämpfen. Die Informationskriegsführung hat sich dramatisch weiterentwickelt, und es steht mittlerweile eine breite Palette von Technologien zur Verfügung, um die Kommunikation zu stören, die öffentliche Meinung zu beeinflussen, Nationen zu destabilisieren und das Vertrauen in demokratische Institutionen zu untergraben. Informationsoperationen beinhalten oft die Manipulation von Narrativen, bei denen Wahrheit und Lüge miteinander vermischt werden, um den öffentlichen Diskurs zu beeinflussen. Die Verbreitung von Desinformation ist zu einem wirkungsvollen Instrument geworden, das die schnellen Verbreitungsmöglichkeiten der sozialen Medien und die Schwachstellen im Informationsökosystem ausnutzt. Dies ermöglicht es sowohl staatlichen als auch nichtstaatlichen Akteuren, Wahlergebnisse zu beeinflussen, die wirtschaftliche Stabilität zu stören und Unruhen zu schüren.

1. Ein menschenzentrierter Ansatz für die Informationskriegsführung

Im heutigen digitalen Zeitalter birgt der sich ständig wandelnde Bereich der Cybersicherheit und Informationskriegsführung zahlreiche Herausforderungen und Chancen. Mit unserer zunehmenden Abhängigkeit von digitaler Technologie wachsen auch die Komplexität und Raffinesse von Cyberbedrohungen und Taktiken zur Manipulation von Informationen. Informationskriegsführung umfasst die Manipulation von Informationen, um Meinungen zu beeinflussen, Gesellschaften zu destabilisieren und Vertrauen zu untergraben. Um sich wirksam gegen Bedrohungen zu verteidigen und unsere digitale Welt zu schützen, ist es unerlässlich, einen menschenzentrierten Ansatz zu verfolgen, der den Menschen in den Mittelpunkt der Strategien für Cybersicherheit und Informationskriegsführung stellt.

Informationskriegführung bezeichnet den Einsatz von Informationen, Desinformation, Fake News, strategischen Indiskretionen und Kommunikationstechnologien, um sich in verschiedenen Bereichen, darunter Militär, Politik, Wirtschaft und Gesellschaft, einen strategischen Vorteil zu verschaffen. Sie umfasst eine Reihe von Taktiken und Strategien, die darauf abzielen, die Wahrnehmung, Überzeugungen und das Verhalten von Einzelpersonen, Gruppen oder Nationen zu beeinflussen. Zu den wichtigsten Akteuren der Informationskriegführung können Regierungen, militärische Organisationen, nichtstaatliche Akteure oder Einzelpersonen gehören, und sie findet häufig im Cyberspace und in den Medien statt. Eine der Herausforderungen der Informationskriegsführung besteht jedoch darin, dass es schwierig ist, bestimmte Angriffe oder Kampagnen bestimmten Akteuren zuzuordnen. Angreifer nutzen häufig Anonymisierungstechniken, um ihre Identität und Herkunft zu verschleiern. Das Ausmass der Manipulation, Desinformation und Informationsoperationen, die auf die öffentliche Meinung in demokratischen Staaten abzielen, ist für die Stabilität von Gesellschaften und Nationen von entscheidender Bedeutung. Das Hauptziel der Informationskriegsführung ist es, die gesellschaftliche Wahrnehmung, d. h. die Art und Weise, wie die Gesellschaft oder soziale Gruppen die Realität wahrnehmen, zu beeinflussen. Die Folgen von Informationsmanipulation können zu Panik, einer Verhärtung der Positionen zu drängenden sozialen Fragen, einem Vertrauensverlust in staatliche Institutionen und der Schaffung eines falschen Gefühls von Sicherheit oder Bedrohung führen. Darüber hinaus kann sie öffentliche Behörden dazu zwingen, bestimmte Massnahmen zu ergreifen oder zu unterlassen. Diese Auswirkungen beschränken sich nicht nur auf den Cyberspace, sondern umfassen auch den politischen, wirtschaftlichen, militärischen und nichtmilitärischen Bereich. Sie können Wahlen, den politischen Diskurs und Entscheidungsprozesse beeinflussen. Im militärischen Kontext kann Informationskriegführung auch Bemühungen umfassen, einen Gegner über die eigenen Absichten oder Fähigkeiten in die Irre zu führen oder zu täuschen. Desinformationskampagnen sind also kein Endziel, sondern eher ein Mittel, um umfassendere politische oder finanzielle Ziele zu erreichen, ähnlich wie Cyberangriffe, bei denen Malware, Viren und Social-Engineering-Techniken eingesetzt werden, um in Sicherheitssysteme einzudringen.

Desinformation setzt die Existenz zweier Konfliktparteien voraus, wobei eine Seite (der Aggressor) versucht, den Empfänger durch die Verbreitung von Informationen zu täuschen, die wahr erscheinen, aber in Wirklichkeit verzerrt oder sogar falsch und schädlich sind. Das Ziel besteht darin, den Empfänger zu Entscheidungen zu bewegen, die für den Akteur, der die Desinformation verbreitet, von Vorteil sind. Die Präsentation von Informationen gegenüber der Öffentlichkeit und die Überwachung ihrer Verbreitung sollen das soziale Verhalten mit scheinbar spontanen Reaktionen beeinflussen. Die Konstruktion einer alternativen Realität wird durch die Untergrabung der Glaubwürdigkeit von Behörden und Presse sowie durch die Vervielfachung verschiedener Informationskanäle erleichtert, darunter die Verbreitung von Fake News durch politische Akteure in den sozialen Medien. Diese Aktivitäten sind von Natur aus offensiv, da sie einem informativen Zweck dienen und darauf abzielen, die öffentliche Wahrnehmung zu manipulieren. Im Gegensatz dazu ist die Botschaft defensiver Natur, wenn sie die Konsolidierung der Gemeinschaft fördert und die Integrität der Einheit gewährleistet. Versuche, Einzelpersonen oder Gruppen davon zu überzeugen, bestimmte Meinungen und Einstellungen zu übernehmen, sind persuasiv und ergänzen oft die Durchführung einer Desinformationsoperation.

Verzerrte Informationen, die bewusst gegen eine bestimmte Einrichtung oder einen bestimmten Staat eingesetzt werden, können mit anderen hybriden Kriegstaktiken in Verbindung gebracht werden. Unklarheiten können die rechtzeitige Erkennung dieser Bedrohungen behindern. Informationskriegführung umfasst in der Regel die Verbreitung falscher oder irreführender Informationen, um die öffentliche Meinung zu beeinflussen, Verwirrung zu stiften oder Zwietracht zu säen. Desinformation nutzt menschliche emotionale Schwächen, kognitive Verzerrungen und eine allgemeine Zurückhaltung bei der kritischen Analyse der eingehenden Informationen aus. Vertrauen ist kein verlässlicher Massstab für die Bewertung von Informationen, da es auf Instinkt basiert. Stattdessen sollte die Überprüfung auf bestimmten intellektuellen Standards, Wissen, Erfahrung, Datengenauigkeit, Zuverlässigkeit der Quelle und der Einhaltung wissenschaftlicher Kriterien beruhen. Um „Post-Wahrheit“ wirksam entgegenzuwirken, ist es unerlässlich, ihre Dynamik zu verstehen. Die Objektivität von Informationen wird mit widersprüchlichen Fakten konfrontiert. Propagandatechniken, die psychologische Schwachstellen ausnutzen, werden häufig eingesetzt, um eine bestimmte Erzählung oder Agenda voranzutreiben. Diese Taktiken zielen oft auf Medien, Social-Media-Plattformen und Fake-News-Websites ab, um Narrative zu kontrollieren oder Desinformation zu verbreiten. Sie können auch die Manipulation von Suchmaschinenergebnissen beinhalten.

Ein weiterer Aspekt der Informationskriegsführung besteht darin, Wirtschaftsdaten, Handelspolitik oder Finanzmärkte zu manipulieren, um sich Vorteile im internationalen Handel oder in geopolitischen Rivalitäten zu verschaffen. Desinformation prägt das öffentliche Bewusstsein und beeinflusst die Stimmung. Sie kann ein Vorläufer für andere Aktivitäten sein, darunter auch solche mit politischen Implikationen. Sie ist ein einfacheres Instrument als direkte politische oder wirtschaftliche Interventionen. Diese Aktivitäten können Emotionen schüren, Meinungen diversifizieren und Einstellungen verändern. Darüber hinaus werden Cyberangriffe auch durchgeführt, um die Funktion kritischer Infrastrukturen, Kommunikationssysteme und staatlicher oder militärischer Netzwerke zu stören oder zu beeinträchtigen. Zu den gängigen Methoden gehören Hacking, Distributed-Denial-of-Service-Angriffe (DDoS) und der Einsatz von Malware.

Informationskriegführung kann weitreichende Folgen haben, darunter die Destabilisierung von Regierungen, die Untergrabung des öffentlichen Vertrauens, die Verschärfung von Konflikten und Auswirkungen auf die internationalen Beziehungen. Mit dem Fortschritt der Technologie werden sich die Methoden und Taktiken der Informationskriegführung wahrscheinlich weiterentwickeln, sodass sie ein Bereich bleibt, der in den Bereichen Cybersicherheit, Geopolitik und internationale Beziehungen weiterhin Anlass zur Sorge gibt und untersucht wird.

Der menschenzentrierte Ansatz für Cybersicherheit und Informationskriegführung erkennt an, dass Technologie allein keinen hundertprozentigen Schutz vor Bedrohungen bieten kann. In einer Flut von Informationen suchen Menschen nach Sicherheit, verstanden als Gewissheit, indem sie Erklärungen wählen, die mit ihren bestehenden Ansichten und Erfahrungen übereinstimmen. Änderungen dürfen die Komfortzone, die als ideologische Blase bekannt ist, nicht stören. Diese Tendenz wird durch eine wachsende Zurückhaltung bei der kritischen Analyse angesichts einer überwältigenden Informationsflut gefördert, die die Fähigkeit beeinträchtigt, echte Informationen von falschen zu unterscheiden, und zu einer Vervielfachung von Meinungen und Interpretationen anstelle von Fakten führt. Traditionelle Autoritätspersonen werden entwertet, ein Trend, der durch den Aufstieg unzuverlässiger Journalisten und die Verbreitung von „Experten” unter Prominenten, Vloggern und Bloggern unterstützt wird. Infolgedessen verändert sich das Vertrauen der Öffentlichkeit in die Produzenten von Inhalten und die Übermittler von Informationen. Diese Trends erleichtern die absichtliche Verbreitung von manipulierten Informationen, wodurch jeder an der Teilnahme und dem Austausch von Informationen teilhaben kann. Einerseits fällt es Einzelpersonen und Basisbewegungen leichter, etablierte Narrative in Frage zu stellen und neue Perspektiven in den Vordergrund zu rücken. Andererseits macht es das Internet anfällig für Manipulationen und die Verbreitung von Fehlinformationen. Menschen, die unter der Vielzahl verfügbarer Informationsquellen nach Informationen suchen, akzeptieren möglicherweise bestimmte Informationen als wahr, ohne deren Richtigkeit objektiv zu überprüfen. Das Internet ist von Natur aus anarchisch und ermöglicht einen uneingeschränkten Informationsfluss, ohne dass ein Gatekeeper vorschreibt, was geteilt werden darf und was nicht. Dennoch bietet das Internet auch eine Plattform für Faktenchecks, Bürgerjournalismus und die Aufdeckung von Unwahrheiten. Social-Media-Plattformen und Nachrichten-Websites haben Faktencheck-Mechanismen integriert, die den Nutzern helfen können, zu erkennen, welche Informationen wahr sind. Die gemeinsamen Bemühungen der Internetnutzer, Desinformation zu entlarven und aufzudecken, haben viele Unwahrheiten ans Licht gebracht. Darüber hinaus arbeiten verschiedene staatliche und nichtstaatliche Organisationen und Initiativen aktiv daran, Desinformation zu bekämpfen, indem sie Medienkompetenz fördern und Instrumente zur Identifizierung unzuverlässiger Quellen bereitstellen. Die Zusammenarbeit mit grossen Technologieunternehmen ermöglicht es, die Verbreitung von Fake News weiter einzudämmen. Angesichts des Potenzials für die Verbreitung von Post-Wahrheit sind diese Bemühungen jedoch unzureichend.

Darüber hinaus ist die Förderung von Medienkompetenz und kritischem Denken entscheidend im Kampf gegen Desinformation und Fake News. Indem man Menschen darin schult, die Glaubwürdigkeit von Informationsquellen zu bewerten und deren Inhalte zu hinterfragen, trägt man dazu bei, Widerstandsfähigkeit gegen Informationskriegsführung aufzubauen. Darüber hinaus sollten Menschen in die Lage versetzt werden, ihre digitalen Spuren und ihre Privatsphäre zu kontrollieren. Durch Aufklärung über Datenschutz und Datenschutzpraktiken werden Menschen in die Lage versetzt, sich gegen Taktiken der Informationskriegsführung wie Doxing oder Social Engineering zu wehren.

Regierungen, Social-Media-Plattformen und Nachrichtenorganisationen spielen eine Schlüsselrolle in der Informationskriegsführung. Ein menschenzentrierter Ansatz beinhaltet, dass diese Einrichtungen für ihre Handlungen und Entscheidungen in Bezug auf die Moderation von Inhalten und die Verbreitung von Informationen zur Rechenschaft gezogen werden. Transparenz und Rechenschaftspflicht sind unerlässlich. Der Austausch und die Verbreitung von Informationen ermöglichen es den Bürgern, die Leistung der Regierung zu überwachen. Eine verbesserte Transparenz verringert Informationsasymmetrien und stärkt das Vertrauen der Öffentlichkeit in Politiker. Darüber hinaus gewährleistet sie die Einhaltung ethischer Standards, wodurch Machtmissbrauch verhindert und die Manipulation von Informationen eingeschränkt wird.

2. Desinformation

Die weit verbreitete Verbreitung falscher Informationen ist eine bedeutende globale Herausforderung, die den öffentlichen Raum betrifft und sowohl den öffentlichen Diskurs als auch die individuelle Wahrnehmung zu verschiedenen Themen, von der Gesundheitsversorgung bis zur Politik, tiefgreifend beeinflusst. Dies ist keineswegs ein modernes Phänomen, da Täuschung und die absichtliche Verbreitung von Unwahrheiten seit jeher zum Vorteil des Einzelnen genutzt werden. Der Aufstieg der digitalen Medien hat jedoch die Verbreitung von Desinformationskampagnen und die Zirkulation von Fake News aufgrund einer Kombination von Faktoren wie der einfachen Veröffentlichung, der grossen Reichweite und dem Fehlen wirksamer Kontrollmechanismen, die traditionell die Zuverlässigkeit und Glaubwürdigkeit von Informationen sicherstellten, erheblich beschleunigt. Social-Media-Plattformen haben nicht nur zu einem exponentiellen Anstieg der Menge an falschen Nachrichten geführt, sondern auch deren gesellschaftliche und individuelle Auswirkungen verstärkt. Sie bieten die notwendige Infrastruktur für die Durchführung wirksamer Desinformationskampagnen durch die Verwendung von gefälschten Konten und Bots, die kostengünstig online erworben werden können. Im Jahr 2024 konnte ein Netzwerk von gefälschten Konten oder Interaktionen für nur ein paar Dollar gekauft werden. Die Legalität solcher Transaktionen macht diese Dienste leicht zugänglich. Die Verfügbarkeit von Plattformen wie Facebook im Tor-Netzwerk unterstützt auch anonyme Interaktionen und ermöglicht so die verdeckte Verbreitung falscher Inhalte.

Desinformation ist ein bewusster und systematischer Prozess der Verbreitung falscher oder manipulierter Informationen, der darauf abzielt, politische oder wirtschaftliche Vorteile zu erzielen und gleichzeitig der Öffentlichkeit Schaden zuzufügen. Die Europäische Kommission definiert Desinformation als „nachweislich falsche oder irreführende Informationen, die zum Zwecke des wirtschaftlichen Gewinns oder zur vorsätzlichen Täuschung der Öffentlichkeit erstellt, präsentiert und verbreitet werden und der Öffentlichkeit Schaden zufügen können“. Die Entschliessung des Europäischen Parlaments vom 23. November 2016 macht auf die Komplexität von Desinformationskampagnen aufmerksam, deren Hauptzweck darin besteht:

Verzerrung der Wahrheit, Schüren von Zweifeln, Spaltung der Mitgliedstaaten, Herbeiführung einer strategischen Kluft zwischen der Europäischen Union und ihren nordamerikanischen Partnern und Lähmung des Entscheidungsprozesses, Diskreditierung der EU-Institutionen und der transatlantischen Partnerschaften, die eine anerkannte Rolle in der europäischen Sicherheits- und Wirtschaftsarchitektur spielen, in den Augen und Köpfen der EU-Bürger und der Bürger der Nachbarländer sowie Untergrabung und Aushöhlung des europäischen Narrativs, das auf demokratischen Werten, Menschenrechten und Rechtsstaatlichkeit basiert; … Eines der wichtigsten Instrumente ist es, bei den EU-Bürgern Angst und Unsicherheit zu schüren und feindselige staatliche und nichtstaatliche Akteure als viel mächtiger darzustellen, als sie es in Wirklichkeit sind.

Die Resolution weist darauf hin, dass Desinformationskampagnen eine Vielzahl von Strategien und Instrumenten einsetzen, um die öffentliche Meinung zu manipulieren und das Vertrauen in demokratische Institutionen zu untergraben. Zu den Taktiken gehören die Nutzung von Social-Media-Plattformen und digitalen Netzwerken zur schnellen und gezielten Verbreitung falscher Inhalte sowie die Ausnutzung von Algorithmen zur Verstärkung spaltender Narrative. Dabei werden die Identität der Stelle, die die Inhalte verbreitet, und deren zugrunde liegendes Ziel verschleiert. Eine gängige Methode zur Verbreitung von Desinformation ist die Schaffung von Narrativen, die Wahrheiten mit Lügen oder irreführenden Schlussfolgerungen vermischen. Obwohl Desinformation Elemente der Wahrheit enthalten kann, dient sie letztendlich dazu, das Publikum irrezuführen und davon zu überzeugen, eine erfundene Geschichte zu akzeptieren. Desinformationsstrategien können auch darin bestehen, Fakten aus dem Zusammenhang gerissen oder mit falschen Informationen kombiniert darzustellen, um die verdeckten Ziele der Desinformanten zu erreichen. Fake-News-Websites und Pseudo-Nachrichtenagenturen ahmen legitime Nachrichtenagenturen nach und veröffentlichen erfundene oder voreingenommene Informationen, um das Publikum irrezuführen. Darüber hinaus manipulieren automatisierte Bots und organisierte Trollfarmen Online-Diskussionen und schaffen die Illusion eines Konsenses oder einer Popularität für bestimmte Standpunkte. Neue Technologien wie Deepfakes erzeugen hochrealistische, aber völlig falsche Bilder oder Videos, die die Grenze zwischen Wahrheit und Lüge weiter verwischen. Desinformationsoperationen manipulieren auch Suchmaschinenergebnisse, um die Sichtbarkeit und wahrgenommene Legitimität irreführender Inhalte zu erhöhen. Direktnachrichten und E-Mail-Kampagnen liefern ebenfalls falsche Informationen direkt an Einzelpersonen und nutzen dabei persönliche Vertrauensnetzwerke aus.

Fake News, definiert als ein einzelner Medienbeitrag oder Artikel, der unvollständige, falsche oder irreführende Informationen enthält, sind ein gängiges Instrument in Desinformationskampagnen. Das Konzept überschneidet sich mit Fehlinformationen, d. h. der unbeabsichtigten Verbreitung falscher Informationen, und Malinformation, der absichtlichen Verbreitung wahrer Informationen mit der Absicht, Schaden anzurichten. Fake News spiegeln Fehlinformationen durch ihren falschen oder manipulierten Inhalt wider und ähneln Malinformation in ihrer gezielten Verbreitung, um der Öffentlichkeit Schaden zuzufügen. Sie können auch verschiedene Formen annehmen, je nach den bei ihrer Erstellung verwendeten Strategien, den Absichten des Absenders, dem Grad der Fälschung des Inhalts, den Zielen des Absenders, ihrem Inhalt und ihrer Funktion sowie den Verbreitungskanälen.

Zusammenfassend lässt sich sagen, dass Desinformation durch mehrere Schlüsselkriterien gekennzeichnet ist. Erstens ist der Inhalt entweder falsch oder absichtlich irreführend. Desinformation umfasst jedoch nicht unbedingt vollständig fiktive Inhalte, sondern häufig selektiv manipulierte Informationen, die mit faktischen Elementen vermischt sind. Die Vermischung von manipulierten und wahren Informationen macht es schwierig, Desinformation von authentischen Inhalten zu unterscheiden. Zweitens betrifft Desinformation in der Regel Themen von öffentlichem Interesse und wird strategisch verbreitet, um Unsicherheit zu säen, Spannungen zu verschärfen, Hass zu schüren und demokratische Prozesse zu untergraben. Drittens erfolgt die Verbreitung systematisch über Massenmedien, um ein breites Publikum zu erreichen. Viertens bleibt die wahre Identität der hinter der Desinformation stehenden Instanz oft verborgen, was es schwierig macht, diese Kampagnen zurückzuverfolgen und ihnen entgegenzuwirken.

Aufbauend auf diesem Verständnis haben Eleni Kapantai et al. einen Rahmen für die Analyse von Desinformation anhand von drei Schlüsselaspekten entwickelt: Faktizität, Überprüfbarkeit und Motivation. Die Faktizität bewertet, inwieweit Inhalte auf der Genauigkeit von Fakten en basieren, wobei die Skala von vollständig faktenbasiert bis vollständig erfunden reicht. Diese Dimension ist entscheidend für die Bewertung der Wahrhaftigkeit und Zuverlässigkeit von Informationen. Die Überprüfbarkeit bezieht sich auf die Möglichkeit, Informationen anhand glaubwürdiger Quellen zu bestätigen oder zu validieren, wobei die entscheidende Rolle der Transparenz und die Herausforderung, authentische von irreführenden Inhalten zu unterscheiden, hervorgehoben werden. Die Motivation untersucht die Absicht hinter der Verbreitung von Informationen, sei es aus finanziellen Gründen, zur ideologischen Beeinflussung oder zur psychologischen Manipulation. Zusammen bieten diese Dimensionen ein umfassendes Instrumentarium zum Verständnis und zur Kategorisierung von Desinformation. Angesichts ihrer Komplexität und Vielschichtigkeit ist ein differenzierter und facettenreicher Ansatz erforderlich, um den Herausforderungen irreführender Informationen und ihren Auswirkungen auf den öffentlichen Diskurs zu begegnen. Der Rahmen aus Faktizität, Überprüfbarkeit und Motivation erleichtert gezielte Interventionen und verbessert die Fähigkeit, die Auswirkungen von Desinformation zu mildern, indem deren Inhalt, Authentizität und zugrunde liegende Motive untersucht werden.

3. Die virale Verbreitung von Desinformation in demokratischen Gesellschaften

In demokratischen Gesellschaften hat sich Desinformation aufgrund eines komplexen Zusammenspiels sozialer, politischer und medialer Faktoren stark verbreitet. Das Problem hat sich mit dem technologischen Fortschritt und der Entwicklung der Medien verschärft, da soziale Netzwerke die Art und Weise, wie Informationen verbreitet und konsumiert werden, erheblich verändert haben. Allerdings spielen auch verschiedene soziopolitische Faktoren eine entscheidende Rolle bei der Verbreitung von Desinformation. Erstens geht die Verbreitung von Desinformation oft von politischen Akteuren aus, darunter staatliche Stellen und einzelne Politiker oder politische Parteien, die voreingenommene, unvollständige oder unbestätigte Informationen verbreiten, um die öffentliche Meinung zu beeinflussen und ihre politischen Ziele zu erreichen. In der postfaktischen politischen Kultur ist der emotionale Ton wichtiger als die sachliche Genauigkeit. Nachrichteninhalte werden in erster Linie so gestaltet, dass sie Aufmerksamkeit erregen, während ihre informative Funktion in den Hintergrund tritt. Infolgedessen werden Narrative geschaffen und detaillierte Erklärungen minimiert. Kritische Debatten lassen sich nicht ohne Weiteres in einem kurzen Beitrag oder Tweet zusammenfassen und werden daher oft durch sensationellere Inhalte ersetzt. Diese Verschiebung mindert nicht nur die Qualität der Debatten und schränkt das rationale Denken ein, sondern trägt auch zu einer Schwächung der gesellschaftlichen Struktur bei, in der die Bürger den politischen Eliten und den Medien misstrauen. Darüber hinaus führt die Polarisierung der Gesellschaft, die durch populistische Führer angeheizt wird, die an die Emotionen der Bevölkerung appellieren, dazu, dass die Bürger dazu neigen, Informationen zu akzeptieren, die ihre Vorurteile bestätigen, und gegenteilige Ansichten abzulehnen oder zu ignorieren. Social-Media-Algorithmen verstärken die Verbreitung sensationeller und unzuverlässiger Informationen noch weiter. Sie priorisieren ansprechende Inhalte gegenüber Genauigkeit und bevorzugen Nachrichten, die starke emotionale Reaktionen auslösen. Infolgedessen schliessen sich die Menschen in Echokammern ein, in denen sie überwiegend Informationen ausgesetzt sind, die ihrer Weltanschauung entsprechen, wodurch ihre Überzeugungen verstärkt und amplifiziert werden.

Ein weiterer wichtiger Faktor für die Verbreitung von Desinformation ist der Wandel in den Mediennutzungsgewohnheiten. Das sinkende Vertrauen in traditionelle Medien und die wachsende Bedeutung des Internets als primäre Informationsquelle haben zum gestiegenen Einfluss digitaler Inhalte beigetragen. Diese Inhalte sind jedoch oft von Sensationslust und einem gewinnorientierten Modell geprägt, bei dem „Clickbait“-Inhalte darauf ausgelegt sind, unabhängig von ihrer Qualität Aufmerksamkeit zu erregen. Die zunehmende Unterhaltungsorientierung und Boulevardisierung der Medien und des öffentlichen Diskurses macht den Nutzer zu einem passiven Konsumenten von Informationen, der leichte und unterhaltsame Inhalte gegenüber substanzielleren Nachrichten bevorzugt. Die meisten Nutzer sozialer Medien greifen eher zur Unterhaltung als zur Information auf soziale Plattformen zu, was ihre Bereitschaft zur kritischen Bewertung von Nachrichtenquellen verringert. Eine übermässige Abhängigkeit von sozialen Netzwerken führt zu einem allgemeinen Rückgang des politischen Wissens, da die Nutzer vermehrt mit irreführenden oder oberflächlichen Inhalten interagieren. Viele Nutzer überprüfen die Richtigkeit der Informationen, auf die sie stossen, nicht, da sie sich nicht besonders für die behandelten Themen interessieren. Dieses Desinteresse schützt sie jedoch nicht vor Falschmeldungen und Manipulationen. Selbst eine beiläufig gelesene, manipulierte Schlagzeile, die beim Scrollen durch Inhalte überflogen wird, kann die Entscheidungen und Einstellungen einer Person unbewusst beeinflussen.

Die Veränderung der Mediennutzungsgewohnheiten lässt sich zum Teil auf den Niedergang des Geschäftsmodells der traditionellen Medien und die Veränderung der Strategien zur Erzielung von Einnahmen zurückführen. Digitale Werbung ist mit leicht verdaulichen, billigen und klickstarken Inhalten profitabler, da Werbetreibende pro Aufruf und Klick bezahlen und einzelne Content-Ersteller einen Anreiz haben, Fake News zu erstellen und zu verbreiten, um finanziellen Gewinn zu erzielen. Dieses Phänomen ist gut dokumentiert, darunter ein Fall, in dem mazedonische Teenager russische Fake News ins Englische übersetzten und auf amerikanischen Websites verbreiteten, sowie ein Fall, in dem einzelne Bürger falsche Informationen aus Profitgründen veröffentlichten. Infolgedessen sind Falschinformationen nicht nur leichter zugänglich, sondern auch attraktiver für Nutzer sozialer Medien, die sie aus Profitgründen weiterverbreiten könnten.

Der Niedergang des traditionellen Geschäftsmodells der Medien hat auch zu einem Rückgang der Investitionen in den investigativen Journalismus geführt. Dieser Wandel hat die Rolle der Journalisten als Gatekeeper für sachliche Informationen geschwächt. Der rasante Zyklus der Nachrichtenproduktion und der Druck, ständig neue Inhalte zu veröffentlichen, erschweren es Journalisten zusätzlich, Informationen angemessen zu überprüfen, was zur Verbreitung von Desinformation beiträgt. In den sozialen Medien haben Algorithmen die Rolle der Gatekeeper übernommen und kontrollieren den Informationsfluss. Derzeit sind Algorithmen für die Auswahl der Inhalte verantwortlich, aber sie sind möglicherweise nicht ausreichend effektiv, um falsche Informationen herauszufiltern. Infolgedessen zirkulieren immer noch recht viele unbestätigte Informationen im öffentlichen Raum. Algorithmen neigen auch dazu, sensationelle, kontroverse oder emotional aufgeladene Inhalte zu priorisieren, die wahrscheinlich mehr Nutzerinteraktion generieren. So entsteht eine Rückkopplungsschleife: Je häufiger eine Nachricht geteilt wird, desto stärker wird sie durch den Algorithmus gefördert. Sie wird noch sichtbarer und beeinflusst die öffentliche Wahrnehmung und Diskussion zusätzlich. Diese Dynamik kann wichtigere, aber weniger sensationelle Themen überschatten und die Vielfalt der Informationen und Standpunkte im öffentlichen Raum verringern.

Gleichzeitig hat der Rückgang der Dominanz traditioneller Medien als Hauptinformationsquelle und der sinkende Absatz von Printmedien Medienunternehmen dazu gezwungen, Kosten zu senken und neue Einnahmequellen zu erschliessen. Um die Kosteneffizienz zu steigern, wurde die Vorbereitungszeit für Nachrichten erheblich verkürzt und die Konvergenz der Medienplattformen verstärkt. Diese Veränderungen haben die Vielfalt und Unabhängigkeit der Medien verringert, die für die Förderung einer informierten Bürgerhaltung und die Aufrechterhaltung der Demokratie unerlässlich sind. Öffentliche Medien, geschwächt durch unzureichende Finanzierung und kontinuierliche staatliche Kontrolle, haben Schwierigkeiten, kritische Informationen zu nationalen und globalen Themen zu verbreiten. Eine unzureichende Berichterstattung in den Medien wirkt sich auf den Wissensstand der Gesellschaft und die Interpretation der berichteten Themen aus und erhöht dadurch die Anfälligkeit der Öffentlichkeit für suggestive Einflüsse. Eine Gesellschaft mit geringerem politischen Bewusstsein und Wissen ist anfälliger für Manipulation und Desinformation. Zeitdruck und die Notwendigkeit, ständig neue Inhalte zu veröffentlichen, machen es Journalisten zudem schwer, jede Information gründlich zu überprüfen, was zu Manipulation und Desinformation führen kann. Die unzureichende Finanzierung öffentlicher Medien und die erhebliche staatliche Kontrolle über einen grossen Teil dieses Sektors haben die Qualität der Medieninhalte erheblich beeinträchtigt. Infolge des Wettbewerbs auf dem Medienmarkt sind Redaktionen gezwungen, Stellen abzubauen. Unter solchen Umständen berichtet ein einzelner Journalist oft über Themen aus mehreren Bereichen, und aufgrund der Informationsüberflutung bleibt keine Zeit, die Quellen zu überprüfen. Infolgedessen veröffentlichen Massenmedien, darunter auch renommierte meinungsbildende Nachrichtenagenturen, Fake News, die entweder von Journalisten, Politikern und Social-Media-Nutzern generiert oder aus anderen Quellen (wie Erklärungen von Institutionen, Informationsagenturen oder anderen Massenmedien) übernommen werden. Die Hauptziele bestehen einerseits darin, die Aufmerksamkeit der Leser zu gewinnen und sie dazu zu bewegen, auf Links zu Publikationen zu klicken, und andererseits darin, möglichst viele Werbekunden anzulocken, die ihre Informations- und Werbekampagnen in bestimmten Medien durchführen möchten.

Die Popularität der sozialen Medien hat dazu geführt, dass viele Menschen ihr Wissen über die Welt heute aus Plattformen beziehen, auf denen jeder Inhalte veröffentlichen kann, und dass die Viralität von Informationen eher davon abhängt, wie oft sie geteilt werden, als von ihrer Richtigkeit. In sozialen Medien, in denen Algorithmen die Rolle von Gatekeepern übernehmen, verbreiten sich falsche Informationen schneller und weiter als wahrheitsgemässe Inhalte. Die Nutzer werden mit trivialen, unerwünschten, unzuverlässigen und wenig wertvollen Nachrichten überflutet. Die Informationsüberflutung kann die Entscheidungsfähigkeit der Nutzer und ihre Fähigkeit, zuverlässige Inhalte zu identifizieren, beeinträchtigen. Die sich wandelnde Medienlandschaft hat auch das Verhalten des Publikums verändert. Fragmentierte Medien zielen darauf ab, bestimmte Interessengruppen zu erreichen. Kleinere Zielgruppencluster, die in der Regel aus Gleichgesinnten bestehen, hinterfragen falsche Informationen oder falsche Interpretationen seltener. Letztendlich hat ein allgemeiner Rückgang des Vertrauens in die Medien, der zum Teil auf gesellschaftliche Unzufriedenheit zurückzuführen ist, die Menschen anfälliger für Desinformation gemacht, da sie sich alternativen Medienquellen zuwenden, darunter Social-Media-Plattformen, die weniger reguliert sind und eher dazu neigen, falsche Informationen zu verbreiten.

Die Verbreitung von Falschinformationen in den Medien ist ein dringendes Problem, wie aktuelle Ergebnisse einer Umfrage des Pew Research Center unter Journalisten zeigen. Eine beträchtliche Anzahl von Journalisten äussert sich besorgt über mögliche Einschränkungen der Pressefreiheit, was die allgemeine Unsicherheit über das Umfeld widerspiegelt, in dem sie arbeiten. Viele Journalisten sind häufig mit falschen Informationen konfrontiert, doch eine grosse Zahl gibt zu, selbst unbeabsichtigt Fehlinformationen verbreitet zu haben. Dies deutet auf eine besorgniserregende Lücke in ihrer Fähigkeit hin, falsche Inhalte effektiv zu handhaben. Obwohl Journalisten im Allgemeinen von ihrer Fähigkeit überzeugt sind, falsche Informationen zu erkennen, zeigt die Umfrage, dass die meisten Nachrichtenorganisationen schlecht für den Umgang mit Desinformation gerüstet sind und es ihnen oft an formellen Richtlinien oder Leitlinien mangelt. Ein weiteres Problem sind falsche Aussagen von Personen des öffentlichen Lebens. Journalisten müssen entscheiden, ob sie über Unwahrheiten berichten oder sie ignorieren, um eine Verstärkung zu vermeiden. Diese Dynamik verdeutlicht die komplexen Herausforderungen, denen Redaktionen bei der Bekämpfung von Desinformation gegenüberstehen, und zeigt, dass in der Medienbranche robustere Mechanismen und Strategien zum Schutz der Informationsintegrität erforderlich sind.

Die Massenmedien spielen eine entscheidende Rolle bei der Verbreitung von Informationen, der Meinungsbildung und der Förderung einer gesunden Demokratie. Wenn Informationen jedoch nicht überprüft werden, erreichen falsche Darstellungen nicht nur ein grosses Publikum und beeinflussen die öffentliche Meinung, sondern untergraben auch das Vertrauen in die Medien selbst. Hierin liegt die entscheidende Rolle der Journalisten: Informationsquellen zu überprüfen, Falschinformationen zu entlarven und die Öffentlichkeit zuverlässig zu informieren. Unabhängig von den Motiven hinter der Veröffentlichung falscher, unzuverlässiger oder voreingenommener Informationen sind die Folgen schwerwiegend. Erfundene Inhalte können die öffentliche Sicherheit gefährden, die globalen Finanzmärkte stören, Hass schüren, soziale Gruppen stigmatisieren, Stereotypen und Vorurteile verstärken, Chaos und soziale Unruhen säen und letztlich das Vertrauen in die Medien untergraben und demokratische Strukturen schwächen.

4. Der menschliche Faktor bei Desinformation

Fehlinformationen und Desinformation verbreiten sich im digitalen Raum besonders schnell, weil sie von einzelnen Social-Media-Nutzern eifrig weiterverbreitet werden. Die Anziehungskraft falscher und manipulierter Nachrichten liegt oft in ihrer Neuartigkeit und emotionalen Wirkung, die tendenziell mehr Aufmerksamkeit der Nutzer auf sich zieht als weniger sensationelle, aber wahrheitsgemässe Informationen. Darüber hinaus können emotional aufgeladene Inhalte die rationale Verarbeitung beeinträchtigen und zum Teilen anregen, indem sie eher intuitive, reaktive als reflektierende Denkprozesse anregen. Das bedeutet, dass Fake News, die darauf abzielen, Schock oder Empörung hervorzurufen, sich eher viral verbreiten. Social-Media-Nutzer teilen häufig schockierende oder dramatische Geschichten, um Aufmerksamkeit zu erregen und Reaktionen von ihren Freunden zu erhalten. Dadurch entsteht ein Kreislauf, in dem die aufmerksamkeitsstärksten, aber unwahren Informationen am häufigsten geteilt werden. Infolgedessen werden falsche Überzeugungen verstärkt, was unsere Fähigkeit, die Wahrheit zu finden, beeinträchtigt. Daher verbreiten sich Unwahrheiten schneller, weiter und tiefer in sozialen Netzwerken als sachliche Inhalte, was zu einem Phänomen führt, das als „Tyrannei der Trends” bezeichnet wird, bei dem die beliebtesten oder trendigsten Themen die öffentliche Debatte dominieren, oft auf Kosten nuancierterer oder genauerer Informationen. Daher tragen individuelle Präferenzen für ansprechende Inhalte erheblich zur viralen Verbreitung von Fehlinformationen und Desinformation bei. Faktoren wie die Persönlichkeit der Nutzer, ihre Überzeugungen sowie kognitive und emotionale Mechanismen spielen eine wichtige Rolle bei der Erhöhung der organischen Reichweite von Unwahrheiten.

Bestimmte Persönlichkeitsmerkmale wie Extraversion, Verträglichkeit, Gewissenhaftigkeit, Neurotizismus und Offenheit für Erfahrungen korrelieren mit unterschiedlichen Verhaltensmustern in sozialen Medien und beeinflussen die Verbreitung von Desinformation. Extravertierte Menschen mit grossen sozialen Netzwerken haben möglicherweise einen grösseren Einfluss auf die Verbreitung von Informationen, da sie eher mit einer Vielzahl von Standpunkten konfrontiert sind, darunter auch solchen, die falsch oder irreführend sind. Menschen, die organisiert und gewissenhaft sind, beschäftigen sich eher mit politischen Inhalten. Reflektierte Personen mit hoch entwickelten analytischen Fähigkeiten machen weniger Fehler bei der Beurteilung der Richtigkeit von Informationen, da diese Eigenschaften die Widerstandsfähigkeit gegenüber dem Einfluss von Heuristiken und kognitiven Verzerrungen erhöhen. Umgekehrt neigen neurotische Menschen eher dazu, häufig Beiträge in sozialen Netzwerken zu veröffentlichen, während Menschen, die offen für neue Erfahrungen sind, oft eine grössere Vielfalt an Inhalten teilen. Sie sind eher in der Lage, ihre Überzeugungen unter dem Einfluss rationaler Argumente zu ändern, wodurch sie weniger anfällig für Fake News sind. Der Glaube an Verschwörungstheorien und intuitives Denken verringern die Fähigkeit, falsche Informationen zu erkennen.

Gordon Pennycook und David G. Rand argumentieren, dass die individuelle Anfälligkeit für Fehlinformationen und Desinformation von mehreren kognitiven und sozialen Faktoren beeinflusst wird. Zu den kognitiven Faktoren zählen persönliche Überzeugungen, kognitive Fähigkeiten und das Vertrauen in heuristische Verarbeitungsprozesse. Ein Mangel an kritischem oder analytischem Denkvermögen kann die Anfälligkeit für Desinformation erhöhen, da Menschen irreführende Informationen möglicherweise für bare Münze nehmen, insbesondere wenn diese oberflächlich mit bereits bestehenden Vorurteilen übereinstimmen oder plausibel erscheinen. Hinzu kommen kognitive Vorurteile wie kognitive Dissonanz, bei der Menschen Unbehagen empfinden, wenn sie auf Informationen stossen, die ihren Überzeugungen widersprechen. Um dieses Unbehagen zu verringern, lehnen sie widersprüchliche Informationen oft zugunsten solcher ab, die ihre bereits bestehenden Überzeugungen bestätigen. Diese selektive Aufmerksamkeit kann die Wahrnehmung erheblich verzerren und dazu führen, dass falsche Überzeugungen durch den Bestätigungseffekt und Skepsis gegenüber widersprüchlichen Informationen (den Verleugnungseffekt) verstärkt werden. Wiederholte Konfrontation mit denselben falschen Aussagen kann deren wahrgenommene Wahrhaftigkeit erhöhen – ein Phänomen, das als illusorischer Wahrheitseffekt bekannt ist. Dieser Effekt basiert auf einer Heuristik, bei der die Vertrautheit mit Inhalten (unabhängig von ihrer sachlichen Richtigkeit) zu einem erhöhten Glauben daran führt. Darüber hinaus beeinflusst die Glaubwürdigkeit der Quelle, aus der Nachrichten stammen, erheblich die Wahrscheinlichkeit, dass Menschen ihnen Glauben schenken. Informationen aus einer Quelle, die als autoritär oder vertrauenswürdig wahrgenommen wird, werden eher geglaubt, selbst wenn sie falsch sind.

Soziale Faktoren spielen ebenfalls eine entscheidende Rolle beim Teilen und Glauben von Falschinformationen. Ein wichtiger sozialer Faktor ist die Rolle der Gruppenidentität und Parteilichkeit. Menschen neigen dazu, ihre Überzeugungen und die Nachrichten, die sie konsumieren, an ihrer politischen Identität auszurichten, was zu einer selektiven Wahrnehmung führt, bei der Menschen Informationen bevorzugen, die ihre bereits bestehenden Überzeugungen bestätigen (Bestätigungseffekt). Diese Ausrichtung macht sie nicht nur anfällig für Falschinformationen, die ihre Ansichten stützen, sondern auch resistent gegenüber Informationen, die ihrer ideologischen Haltung widersprechen (Verleugnungseffekt). Ein weiterer entscheidender Aspekt ist der Einfluss sozialer Netzwerke. Menschen neigen eher dazu, Informationen zu glauben und zu teilen, die populär erscheinen oder von anderen in ihrem sozialen Umfeld befürwortet werden. Social-Media-Plattformen begünstigen die Bildung stark polarisierter Communities, in denen Nutzer hauptsächlich mit Gleichgesinnten interagieren. Echokammern verstärken und verbreiten Fehlinformationen durch wiederholte Exposition (Illusionseffekt) und soziale Bestätigungen (wie Likes und Shares), wodurch falsche Informationen glaubwürdiger erscheinen.

Der Einfluss sozialer Normen und das Verlangen nach sozialer Anerkennung spielen ebenfalls eine wichtige Rolle bei der Verbreitung von Informationen. Menschen teilen oft Inhalte, von denen sie glauben, dass sie ihnen Anerkennung verschaffen oder ihren Status in ihren sozialen Gruppen verbessern, unabhängig von der Richtigkeit der Inhalte. Fake News werden oft als neuartiger als die Wahrheit wahrgenommen, was sie für Nutzer attraktiver macht, die gut informiert erscheinen oder Zugang zu Insiderinformationen haben möchten (die Neuheitshypothese). Dieser Aspekt der sozialen Währung beim Teilen von Informationen kann die Verbreitung von Fake News vorantreiben, da das Verlangen nach sozialer Bestätigung oft stärker ist als das Bekenntnis zur Wahrheit.

Insgesamt ist die Verbreitung von Desinformation ein komplexes Zusammenspiel sozialer, kognitiver und emotionaler Faktoren, bei dem persönliche Vorurteile, Medienkonsumgewohnheiten und Netzwerkdynamiken eine entscheidende Rolle spielen. Zusammengenommen schaffen diese Faktoren einen fruchtbaren Boden für Fehlinformationen, die sowohl durch gezielte Desinformationskampagnen als auch durch algorithmische Gatekeeping-Massnahmen manipuliert werden.

5. Staatlich geförderte Propaganda und Desinformation am Beispiel Russlands

Repressive Regierungen haben trotz ihrer Unterschiede häufig gemeinsame Strategien zur Machterhaltung: Sie schränken Wahlprozesse ein, begrenzen die Pressefreiheit und kontrollieren Medieninstitutionen. Russland ist ein Paradebeispiel dafür, wie diese Methoden zur Stärkung der Regierungsmacht eingesetzt werden. Die Entwicklung der Mainstream-Medien hat drei bedeutende Phasen durchlaufen: eine Ära absoluter staatlicher Kontrolle während der Sowjetzeit, eine Phase relativer Offenheit nach dem Zusammenbruch der Sowjetunion und das derzeitige hybride Modell. In diesem Modell wurden die Medien von privaten Unternehmen übernommen, die sich den Interessen der Regierung anschliessen, wobei nur noch wenige unabhängige Medien existieren. Seit der Invasion Russlands in der Ukraine im Jahr 2022 wurden die meisten unabhängigen Fernsehsender und westlichen Medien verboten oder stark zensiert. Die Regierung kontrolliert fast alle Medien und zwingt sie, sich an die Narrative des Kremls zu halten und kritische Berichterstattung zu vermeiden.

Im Laufe der Jahre hat der Kreml subtil von offener Nötigung von Journalisten zu einer strategischen Umverteilung von Medienressourcen an Verbündete der Regierung gewechselt, um sicherzustellen, dass die Berichterstattung in den Medien die offizielle Darstellung unterstützt. Der Erwerb von NTV durch Gazprom Media im Jahr 2001 veranschaulicht diesen Trend. Ein kritischer unabhängiger Sender wurde zu einem Sender, der sich hauptsächlich auf Unterhaltung konzentriert, wodurch seine oppositionelle Haltung gegenüber der Regierung geschwächt wurde. Dieses Muster spiegelt eine umfassendere Strategie wider, abweichende Stimmen in den Medien zu kooptieren oder zum Schweigen zu bringen und ernsthafte politische Diskussionen durch Unterhaltung zu ersetzen. Infolgedessen sind die Bürger weniger informiert und politisch desinteressiert. Da sie davon abgehalten werden, sich für Politik zu interessieren, verlassen sich Menschen, die unter autoritären Regimes leben, auf oberflächliches Wissen, um politische Nachrichten zu verstehen. Dies führt zu schwankenden Wahrnehmungen des Regimes, wobei die Haltung der Bürger je nach den aktuellen Umständen schnell zwischen Kritik und Unterstützung schwanken kann.

Russland nutzt eine Vielzahl rechtlicher und technologischer Mittel, um sowohl seine heimische Informationsinfrastruktur als auch die online veröffentlichten Inhalte zu kontrollieren. Zu den technischen Massnahmen zählen DDoS-Angriffe, während legislative Massnahmen darauf abzielen, als schädlich eingestufte Inhalte zu zensieren, wie beispielsweise die 2012 verabschiedeten Gesetze zum Schutz Minderjähriger vor bestimmten Online-Inhalten. Diese Massnahmen sind Teil einer umfassenderen Bemühung, den digitalen Informationsraum zu regulieren, indem sowohl Technologie als auch Gesetze eingesetzt werden, um abweichende Meinungen zu unterdrücken und die öffentliche Wahrnehmung zu beeinflussen, was einen anhaltenden Trend zur Verschärfung der Kontrolle über die Medienberichterstattung in Russland widerspiegelt. Tatsächlich nutzte der Kreml die weltweiten Bemühungen zur Bekämpfung von Desinformation, um Gesetze zu verabschieden, die die Zensur verstärkten. Unter dem Vorwand, den Informationsraum vor Fake en Nachrichten und Desinformation zu schützen, bietet das Bundesgesetz vom 27. Juli 2006 N 149-FZ über Information, Informationstechnologien und Informationsschutz einen umfassenden rechtlichen Rahmen für die Kontrolle der Medien und der Informationen. Es schafft einen Ausgleich zwischen dem Recht auf Informationsfreiheit und den Erfordernissen der nationalen Sicherheit und der öffentlichen Ordnung, während es gleichzeitig unter dem Deckmantel der rechtlichen Legitimität scheinbar die Rechte des Einzelnen schützt. Im Wesentlichen sichert das Gesetz die Freiheit, Informationen zu suchen, zu empfangen, zu übertragen, zu produzieren und zu verbreiten, allerdings über streng gesetzlich festgelegte Kanäle. Es erlegt auch strenge Beschränkungen zum Schutz der verfassungsmässigen Ordnung, der öffentlichen Moral und der Sicherheits- und Verteidigungsbedürfnisse des Staates auf, die häufig zur Rechtfertigung von Zensur und Informationskontrolle herangezogen werden. Insbesondere Artikel 9 des Gesetzes ermächtigt die Exekutivorgane des Bundes, Informationsquellen zu identifizieren und den Zugang zu ihnen zu beschränken, die eine Gefahr für wichtige staatliche Interessen darstellen. Die Regulierungsbefugnis verbessert die Möglichkeiten des Staates erheblich, die Berichterstattung in den Medien zu kontrollieren und unter dem Deckmantel des Schutzes der gesellschaftlichen und staatlichen Stabilität abweichende Meinungen zu unterdrücken. Darüber hinaus verbietet das Gesetz die Verbreitung von Informationen, die zu Krieg, Hass oder Diskriminierung anstacheln könnten, mit der Begründung, dass dadurch die soziale Harmonie und Sicherheit gewahrt werde. In der Praxis wurden diese Bestimmungen jedoch selektiv eingesetzt, um die Opposition zu unterdrücken und ein staatlich kontrolliertes Informationsökosystem aufrechtzuerhalten. Durch die Einschränkung des Informationsflusses, der den Standpunkten des Kremls widerspricht, bringt die russische Regierung unabhängige Medien und öffentliche Dissidenten effektiv zum Schweigen und stellt sicher, dass nur staatlich genehmigte Narrative in der Öffentlichkeit verbreitet werden. In den folgenden Jahren, insbesondere nach der Invasion der Ukraine im Jahr 2022, verstärkte die russische Regierung den Einsatz rechtlicher Instrumente, um die Kontrolle über den digitalen Informationsraum zu verschärfen. Durch Änderungen der bestehenden Gesetzgebung wurde die Definition von Fake News weiter gefasst. Der Gesetzgeber führte Strafen für die vorsätzliche Verbreitung falscher Inhalte ein und verpflichtete Internetdienstanbieter, den Zugang zu Websites zu sperren, die Desinformation verbreiten. Infolgedessen wurde die Verbreitung unabhängiger Berichterstattung weiter eingeschränkt und die Meinungsfreiheit zunehmend beschnitten.

Das System der Unterdrückung umfasst auch Freiheitsstrafen für das Posten von Inhalten auf Social-Media-Plattformen wie Facebook, Instagram, YouTube, X und Telegram, die der offiziellen Linie der Regierung widersprechen. Die russische Gesetzgebung verpflichtet digitale Dienstleister dazu, Inhalte und zugehörige Metadaten (einschliesslich Inhalte, die über Messenger, E-Mail und Social-Media-Dienste übertragen werden) zu speichern und sie dann den Behörden ohne gerichtliche Anordnung zugänglich zu machen. Daher müssen alle Informationen, die ausserhalb der traditionellen Medienkanäle verbreitet werden, rückverfolgbar sein und eine eindeutige Identifizierung ihrer Quelle enthalten. Dadurch wird sichergestellt, dass alle verbreiteten Inhalte den staatlichen Standards entsprechen und zur Rechenschaft gezogen werden können. So wird ein kontrolliertes Informationsumfeld gefördert, in dem unverifizierte oder abweichende Meinungen leicht ins Visier genommen und unterdrückt werden können.

Darüber hinaus erlauben die Vorschriften den Aufsichtsbehörden, Websites und soziale Netzwerke unter dem Vorwand zu sperren, gegen die vermeintliche Zensur von Inhalten russischer staatlicher Nachrichtenmedien vorzugehen, bei denen es sich in Wirklichkeit um Propagandabotschaften handelt, die von Diensten wie RT, RIA Novosti und Crimea 24 veröffentlicht werden. Im April 2021 unternahm Russland Schritte, um die Aktivitäten der Suchmaschine Google innerhalb seiner Grenzen einzuschränken, und warf deren Eigentümer vor, seine marktbeherrschende Stellung zu missbrauchen. Mit dem Ausbruch des Krieges in der Ukraine im Februar 2022 blockierte es eine Reihe von Websites und sozialen Netzwerken. Diese Massnahmen schränken einerseits die Meinungsfreiheit und den Zugang zu unzensierten Informationen ein und dienen andererseits der Verbreitung von Propagandainhalten.

Die russische Kontrolle über die Medien ist äusserst wirksam, wobei die Narrative des Kremls einen grossen Einfluss auf die Wahrnehmung der Bürger haben. In seiner Studie über die Wahrnehmung des Krieges zwischen Russland und der Ukraine durch die russischen Bürger stellte Alyukov fest, dass trotz der Vielfalt der Meinungen die Menschen, wenn sie mit Regierungsnarrativen oder politisch aufgeladenen Begriffen konfrontiert wurden, dazu neigten, die offizielle Haltung des Staates zu übernehmen und Russland als Opfer einer aggressiven westlichen Politik und nicht als Aggressor zu betrachten. Persönliche Erfahrungen und Diskussionen führten jedoch manchmal zur Entstehung kritischer Ansichten, was zeigt, dass die Bürger je nach Kontext von Unterstützung zu Kritik wechseln konnten. Alyukov identifizierte mehrere thematische Kategorien von Meinungen, darunter emotionale Erschöpfung aufgrund der übermässigen Medienberichterstattung über den Konflikt, Skepsis gegenüber der Darstellung des wirtschaftlichen und sozialen Wohlstands durch die Regierung und Bedenken, dass der Krieg von den Interessen der Elite vorangetrieben wird. Diese Ergebnisse weisen auf die Rolle der Medien bei der Meinungsbildung hin und zeigen ein Muster, bei dem staatliche Narrative aufgrund ihrer Zugänglichkeit dominieren, persönliche Erfahrungen oder Diskussionen jedoch kritische Perspektiven aktivieren können. Das Vorhandensein widersprüchlicher Meinungen innerhalb einzelner Personen offenbart den Einfluss medialer Narrative und die Variabilität des politischen Engagements der Bürger. Diese Dynamik legt nahe, dass staatlich kontrollierte Medien in autoritären Regimes wie Russland vor allem aufgrund des politischen Desinteresses und des Mangels an kohärenten politischen Ansichten unter den Bürgern hochwirksam sind und weniger aufgrund der Überzeugungskraft der Medieninhalte selbst.

Die Strategie der Informationsoperationen ist seit langem ein fester Bestandteil der internationalen Taktik Russlands und spiegelt den seit langem bestehenden Glauben an die Macht des Einflusses von Informationen wider. Russland nutzt seit langem Botschaften, die auf seine Ziele zugeschnitten sind, um die internationale Ordnung neu zu gestalten und Gegner zu destabilisieren. Zu diesem Zweck kombinieren sie moderne Technologie mit traditionellen psychologischen Taktiken. Die Praxis der Desinformation basiert auf der Theorie und Praxis der reflexiven Kontrolle, die in den 1960er Jahren von dem sowjetischen Psychologen und Mathematiker Vladimir Lefebvre entwickelt wurde. Dieser strategische Ansatz zielt darauf ab, die Entscheidungsfindung eines Gegners zu manipulieren, indem sorgfältig zugeschnittene Informationen geliefert werden, um die Entscheidungsprozesse des Gegners zu beeinflussen. Zu den Techniken der reflexiven Kontrolle gehören die Demonstration militärischer Macht, die Verbreitung von Desinformation und die direkte Einmischung in die Entscheidungsprozesse des Gegners. Im Laufe der Zeit hat sich die „reflexive Kontrolle” zu dem entwickelt, was im Westen gemeinhin als „Wahrnehmungsmanagement” bezeichnet wird, obwohl es im russischen Kontext eher um direkte Kontrolle als um blosses Management geht. Die weiterentwickelte Strategie, die zwar in den Taktiken des Kalten Krieges verwurzelt ist, nutzt nun effektiv digitale Plattformen und soziale Medien, um ihre Wirkung und Effizienz zu steigern. Sie zeichnet sich durch die Verbreitung einer überwältigenden Menge von Botschaften über zahlreiche Kanäle aus, verbunden mit einer offensichtlichen Bereitschaft, irreführende oder vollständig erfundene Informationen zu verbreiten. Die modernen Taktiken der russischen Desinformation profitieren von einer riesigen und vielfältigen Medienlandschaft, darunter staatlich kontrollierte Medien, soziale Netzwerke und der Einsatz von Bots und Trollen (falsche Identitäten, die hyperpartisanische Themen verbreiten), was es schwierig macht, die Ursprünge auf Regierungsquellen zurückzuführen.

Solche koordinierten Kampagnen tragen dazu bei, Botschaften schnell und wiederholt an ein breites Publikum zu verbreiten, gemäss dem psychologischen Prinzip, dass Menschen dazu neigen, dem Vertrauten zu vertrauen (der illusorische Wahrheitseffekt). Darüber hinaus zielt die Manipulation durch Veränderung der Wahrnehmung des Gegners darauf ab, diesen dazu zu bringen, freiwillig im Interesse Russlands zu handeln, was die Raffinesse und tief verwurzelte Natur der russischen Informationstaktiken verdeutlicht.

Die Wirksamkeit russischer Informationsoperationen im Ausland ist gut dokumentiert und offenbart die konzertierten Bemühungen Russlands, sich in die US-Wahlen 2016 einzumischen. Die Untersuchung des US-Senats hat bewiesen, dass die russische Regierung in erheblichem Umfang versucht hat, die Wahlinfrastruktur auf staatlicher und lokaler Ebene zu beeinflussen. Diese Massnahmen, darunter das umfassende Scannen von Wahlsystemen und das Extrahieren von Daten aus Wählerregistrierungsdatenbanken, zielten nicht darauf ab, das Ergebnis der Wahlen 2016 direkt zu verändern. Vielmehr schienen sie ein Versuch zu sein, die Integrität der Wahlen zu untergraben oder sich auf zukünftige Ausbeutungen vorzubereiten. Weitere Untersuchungen zu Einmischungsstrategien zeigen die vielfältigen Strategien, die mit dem Ziel eingesetzt wurden, den Wahlprozess zu destabilisieren und gesellschaftliche Unstimmigkeiten zu verstärken. Die Internet Research Agency (IRA), die vom russischen Oligarchen Jewgeni Prigoschin finanziert wird und Verbindungen zu Präsident Putin hat, leitete frühzeitig eine Einmischung durch eine kalkulierte Social-Media-Kampagne ein, deren Ziel es war, die politischen und sozialen Spannungen in den Vereinigten Staaten zu verstärken. Es wurden zahlreiche gefälschte Social-Media-Konten erstellt, die als Profile von sozialen und politischen Aktivisten fungierten, um Diskussionen auf Social-Media-Plattformen anzuregen. Eine beträchtliche Anzahl von Profilen gab sich als gestohlene Identitäten von Bürgern aus und veröffentlichte scheinbar authentische Beiträge, die kulturell angepasst waren, um die Aktivitätsdynamik aktiver Nutzer nachzuahmen. Sie befassten sich häufig mit kontroversen Themen, wie z. B. Fragen der sozialen Ungerechtigkeit aufgrund der Hautfarbe (z. B. unter Verwendung des Hashtags #BlackLivesMatter, um kontroverse Aussagen zu verbreiten), dem Recht auf Waffenbesitz, angeblichen Fällen der Anwendung der Scharia in Amerika und dem Angriff auf die Kandidatin der Demokratischen Partei, Hillary Clinton.

Durch den Einsatz verschiedener Marketingstrategien wurden Troll-Accounts zu Meinungsführern sowohl auf der rechten als auch auf der linken Seite der politischen Szene aufgestiegen. Ihre Aufgabe bestand darin, Diskussionen zu Themen anzuregen, die die öffentliche Meinung polarisierten, und soziale Spannungen zu schüren (z. B. durch die Unterstützung radikaler Gruppen und Nutzer, die die aktuelle soziale und politische Lage kritisierten). Troll-Accounts arbeiteten eng mit halbautomatischen (Cyborgs) und automatischen (Social Bots) Accounts zusammen, um die Reichweite von Beiträgen und ausgewählten Accounts zu erhöhen. In Kombination mit einer personalisierten Werbekampagne führte Russland eine äusserst effektive politische Kampagne durch. Ihre Wirksamkeit wurde durch das Medium – Social-Media-Plattformen, die eine Massenbeeinflussung ermöglichen – noch verstärkt.

Gleichzeitig griff die russische Regierung durch Cyber-Hacks und die Verbreitung von Informationen, die der Clinton-Kampagne schadeten, in einer weiteren Ebene ein, die vom GRU durchgeführt wurde. Die sekundäre Form der Einmischung umfasste Hacking und die Veröffentlichung von Materialien über Kanäle wie WikiLeaks, um die US-Politik ohne direkte Beteiligung von US-Bürgern zu beeinflussen. Komplexe und koordinierte Strategien zeigen die Raffinesse der russischen Einmischung und ihre tiefgreifenden Auswirkungen auf die Wahl- und Politikszene in den USA. Es wurden auch Beweise für ausländische Online-Einmischung in die US-Präsidentschaftswahlen 2020 gefunden. Trolle und Superconnectoren (stark vernetzte Konten, die Nachrichten schnell verbreiten) waren in bestimmten Online-Communities in sozialen Medien äusserst aktiv und richteten sich sowohl an ein liberales als auch an ein konservatives Publikum.

Abgesehen von den USA haben russische Desinformationskampagnen während wichtiger politischer Ereignisse und sozialer Bewegungen auf der ganzen Welt erheblich zugenommen, beispielsweise während der Brexit-Kampagne, den „Gelbwesten“-Protesten in Frankreich, sozialen Protesten gegen rassistische Ungerechtigkeit im Zusammenhang mit der Black Lives Matter-Bewegung, dem Unabhängigkeitsreferendum in Katalonien im Jahr 2017, den Wahlen zum Europäischen Parlament und Cyberangriffen gegen EU-Staaten. Viele Aktivitäten Russlands richten sich auch gegen die baltischen Staaten, die nordischen Länder und Polen, beispielsweise durch Desinformationskampagnen unter Verwendung historischer Desinformationen, Vorwürfe der Russophobie, Förderung antiukrainischer und anti-europäischer Einstellungen, Schaffung eines negativen Bildes der NATO, Förderung einer Erzählung über die Dekadenz des Westens und allgemeine antiwestliche Einstellungen.

Während der COVID-19-Pandemie nutzte Russland die durch die Pandemie verursachte Angst und Unsicherheit, um Desinformationen zu verbreiten und damit seine strategischen Ziele zu fördern, nämlich die bestehenden gesellschaftlichen Spaltungen zu verstärken und das Vertrauen in die demokratischen Prozesse und Institutionen in zu untergraben. Über staatlich unterstützte Medien wie RT und Sputnik stellte Russland westliche Demokratien als inkompetent und korrupt dar und verschärfte bereits bestehende Kontroversen in den Bereichen Wirtschaft, Gesundheitswesen und Soziales. Es verbreitete rassistisch aufgeladene Narrative in den Vereinigten Staaten und verbreitete eine Mischung aus echten Bedenken und regelrechten Erfindungen in Bezug auf das Management der öffentlichen Gesundheit, die politische Führung und gesellschaftliche Ungleichheiten während der Pandemie. Darüber hinaus zielte Russland auf die Kommunikation zum Thema Impfstoffe ab, indem es Fehlinformationen verbreitete, die weltweit zu Impfskepsis beitrugen. Russische Medien verbreiteten Narrative, die die Sicherheit und Wirksamkeit westlicher Impfstoffe in Frage stellten und suggerierten, dass diese überstürzt zugelassen worden seien und daher potenziell gefährlich seien. Sie verstärkten Berichte über geringfügige Nebenwirkungen, um Zweifel unter der Bevölkerung zu säen, die den Gesundheitsrichtlinien der Regierung ohnehin schon skeptisch gegenüberstand. Russische Kampagnen enthielten oft übertriebene Behauptungen über alternative Behandlungsmethoden und Präventionsmassnahmen, um das Verständnis der Öffentlichkeit weiter zu verwirren. Dieser Ansatz untergrub nicht nur das Vertrauen der Öffentlichkeit in die Gesundheitssysteme, sondern auch in die wissenschaftliche Gemeinschaft, wodurch die weltweiten Impfbemühungen effektiv verlangsamt und die Auswirkungen der Pandemie verlängert wurden. Solche Taktiken sind Teil eines umfassenderen russischen Desinformationsspielbuchs, das darauf abzielt, Krisen auszunutzen, um Gegner zu schwächen und die internationale Meinung zugunsten Russlands zu beeinflussen.

Häufig verwendete Taktiken sind Spear-Phishing-Kampagnen (die durchgeführt werden, um Zugang zu Daten zu erhalten), Datenverstösse und -lecks, zerstörerische Angriffe auf die Wahlinfrastruktur sowie die Nutzung der Online-Umgebung zur Manipulation und Verbreitung von Desinformation. Darüber hinaus nutzt Russland seine Geheimdienste, vor allem den FSB (Föderaler Sicherheitsdienst), den GRU (Hauptverwaltung für Aufklärung) und den SVR (Auslandsaufklärungsdienst), um Cyberangriffe zu finanzieren und zu orchestrieren. Diese Dienste unterstützen aktiv verschiedene Hackergruppen, darunter patriotische Hacker und russische Cyberkriminelle, und arbeiten mit ihnen zusammen, um komplexe Cyberoperationen durchzuführen. Zu den wichtigsten Aktivitäten gehört die Durchführung disruptiver Cyberangriffe (mit dem Ziel, die Fähigkeiten im Bereich der Cyberkriegsführung zu testen und zu verfeinern). Die Beteiligung russischer Dienste an der Cyberkriegsführung zeigt sich in ihren operativen Taktiken, zu denen der Einsatz zerstörerischer Malware wie Wiper gehört, um Zielsysteme irreversibel zu beschädigen. Cyberoperationen stehen im Einklang mit Russlands umfassenderer Strategie der hybriden Kriegsführung. Ihr Ziel ist es, Gesellschaften zu destabilisieren und staatliche Strukturen von innen heraus zu schwächen, ohne in einen offenen Konflikt zu geraten. Insbesondere die Einheiten des GRU und des FSB spielen eine wichtige Rolle bei der Intensivierung von Cyberangriffen, die mit den militärischen Zielen Russlands synchronisiert sind, insbesondere während des andauernden Krieges in der Ukraine. Diese Angriffe sind keine Einzelfälle, sondern Teil einer kontinuierlichen Bemühung, neben physischen militärischen Einsätzen Einfluss auszuüben und strategische Dominanz im Cyberspace zu erlangen. Russische Cyberkriminelle und politische Hacker agieren mit einem hohen Mass an Anonymität, das ihnen der Cyberspace bietet, wodurch Russland seinen geopolitischen Einfluss ohne direkte Zuordnung ausbauen kann. Hacker führen eine Vielzahl von störenden Aktivitäten durch, die von Denial-of-Service-Angriffen, die kritische Infrastrukturen lahmlegen, bis hin zu Spionage, bei der sensible Informationen gestohlen werden, reichen. Es ist äusserst schwierig, ihre Beteiligung direkt Russland zuzuordnen.

Zur leichteren Lesbarkeit wurden die Quell- und Literaturverweise entfernt.

Übersetzung Boris Wanzeck, Swiss Infosec AG

Dorota Domalewska et al. in: Humans in the Cyber Loop – Perspectives on Social Cybersecurity; Brill, Leiden and Boston, 2025

https://creativecommons.org/licenses/by-nc/4.0

DOI 10.1163/9789004549906


Ganzheitliche Cybersecurity – praxisnah, rechtskonform und auf Ihre Unternehmens-Risiken abgestimmt.

Kontaktieren Sie uns und erfahren Sie in einem unverbindlichen Beratungsgespräch, was unsere Spezialistinnen und Spezialisten für Sie tun können: +41 41 984 12 12, infosec@infosec.ch


© Swiss Infosec AG 2025