Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Die Macht der Algorithmen: Ihre Auswirkungen auf die soziale Cybersicherheit verstehen

12/2025

Algorithmen prägen unsere Online-Erfahrung – sie filtern und kuratieren riesige Datenströme im Cyberspace, darunter Newsfeeds und Werbung, und beeinflussen so unsere Wahrnehmung der Welt. Folglich haben Algorithmen eine erhebliche Macht: Sie bestimmen nicht nur, welche Informationen wir sehen, sondern beeinflussen auch unsere Offline-Erfahrungen. Dieses Kapitel untersucht die doppelte Rolle von Algorithmen. Einerseits können Algorithmen durch technologische Fortschritte verschiedene Aktivitäten unterstützen. Andererseits können sie bestehende Ungleichheiten verstärken und viele unvorhergesehene Folgen nach sich ziehen. Um die Rolle von Algorithmen sowie ihre ethischen, kulturellen und politischen Auswirkungen vollständig zu verstehen, ist es entscheidend, sie in den grösseren Systemen, auf die sie Einfluss haben, und in dem Kontext, in dem sie funktionieren, zu betrachten.

1. Algorithmen

Algorithmen sind formalisierte Abfolgen von Aktionen oder Regeln, die dazu dienen, ein Problem zu lösen oder ein gewünschtes Ergebnis zu erzielen. Sie nehmen Eingabedaten entgegen, verarbeiten diese anhand einer Reihe vordefinierter Schritte und liefern eine Ausgabe. In der Informatik werden Algorithmen als abstrakte, formalisierte Darstellungen von Rechenverfahren definiert, die nach ihren operativen Funktionen und den Arten von Problemen, die sie lösen, kategorisiert werden. So gibt es kombinatorische Algorithmen, die sich mit Zählen und Aufzählen befassen, numerische Algorithmen, die für das Lösen von Gleichungen entwickelt wurden, und probabilistische Algorithmen, die Ergebnisse auf der Grundlage von Wahrscheinlichkeiten liefern, bei denen die Ergebnisse ungewiss sind. Sie haben sich von technischen Werkzeugen zu dynamischen Akteuren entwickelt, die in praktisch allen Bereichen des Cyberspace präsent sind und alles beeinflussen, von Interaktionen in sozialen Medien bis hin zu Finanztransaktionen. Die aktive Rolle von Algorithmen bei der Gestaltung unserer sozialen Realitäten zeigt ihre performative Natur. Sie konstruieren nicht nur die digitale Erfahrung der Nutzer, sondern sind auch Teil sozialer, kultureller und politischer Kontexte mit schwerwiegenden sozialen und ethischen Implikationen geworden. Eine Vielzahl von Forschungsarbeiten hat gezeigt, dass Algorithmus en auf sozialen Netzwerkplattformen soziale Normen und kulturelle Vorurteile widerspiegeln und verstärken. Sie sind nicht nur passive Werkzeuge, sondern aktive Akteure, die soziale Praktiken und Beziehungen erheblich verändern können. Beispielsweise filtern, bewerten und empfehlen Newsfeed-Algorithmen Inhalte auf der Grundlage von Nutzerprofilen und prägen so das Verständnis und die Interpretation der Welt durch die Nutzer. In ähnlicher Weise bewerten Kreditbewertungsalgorithmen nicht nur die finanzielle Glaubwürdigkeit, sondern bestimmen aktiv den Zugang zu Finanzdienstleistungen und können dadurch die sozioökonomische Schichtung beeinflussen. Algorithmen in sozialen Medien und Dating-Apps wählen aus, wessen Profil hervorsticht, und prägen so das soziale Netzwerk der Nutzer im Internet und beeinflussen soziale Beziehungen.

Um Algorithmen vollständig zu verstehen, müssen sie in den grösseren Systemen untersucht werden, die sie durchdringen, und nicht als isolierte Einheiten, die unabhängig von ihrem Entwurfs- und Anwendungskontext sind. Daher ist ein ganzheitlicher Ansatz erforderlich, um die vielfältigen Wechselwirkungen und Abhängigkeiten zwischen Algorithmen und den verschiedenen soziomateriellen Elementen, mit denen sie interagieren, zu untersuchen. Das Verständnis von Algorithmen hilft dabei, aufzudecken, wie sie in unsere gesellschaftlichen Strukturen, Normen und Verhaltensweisen eingebettet sind und diese prägen. Diese Erkenntnis ermöglicht es uns, ihre performative Natur zu erkennen und die Bedeutung der umfassenderen ethischen, kulturellen und politischen Dimensionen zu verstehen, die sie beeinflussen und von denen sie beeinflusst werden.

2. Algorithmische Gestaltung der Benutzererfahrung

Algorithmen analysieren die Aktivitäten und digitalen Spuren der Nutzer, um Vorhersagemodelle für das Nutzerverhalten zu entwickeln. Sie sind äusserst effektiv bei der Entscheidung, welche Inhalte dem Publikum präsentiert werden, und bei der Anzeige personalisierter Werbung. Es gibt unzählige Algorithmen. In sozialen Netzwerken bestimmen sie, wie Inhalte gefiltert, bewertet, ausgewählt und den Nutzern empfohlen werden. Sie lassen sich in verschiedene Kategorien einteilen. Newsfeed-Algorithmen sind komplexe und sich ständig weiterentwickelnde Systeme, die Inhalte aus dem kollektiven Pool organisieren und bewerten, der durch die sozialen Netzwerkverbindungen der Nutzer (Freunde, verfolgte Seiten und Gruppen) und die verschiedenen Beiträge und Interaktionen, die aus diesen Verbindungen entstehen, erstellt wird. Algorithmen werden auf der Grundlage zahlreicher Faktoren personalisiert, darunter das bisherige Verhalten der Nutzer, die Zusammensetzung ihres Netzwerks und ihre Interaktionen in diesem Netzwerk. Sie reagieren nicht nur auf explizite Aktionen (wie Likes, Shares, Schlüsselwörter in Beiträgen), sondern auch auf impliziteres Nutzerverhalten (wie Surfgewohnheiten und die Verweildauer bei bestimmten Inhalten). Diese komplexe Analyse hilft dem Algorithmus, die Präferenzen der Nutzer zu ermitteln. Sie nutzen maschinelles Lernen, um aus dem Nutzerverhalten zu „lernen” und sich im Laufe der Zeit anzupassen. So entstehen Rückkopplungsschleifen zwischen dem Verhalten der Nutzer und der zukünftigen Darstellung von Inhalten. Wenn Nutzer mit Inhalten interagieren, werden diese Interaktionen an den Algorithmus weitergeleitet, der daraufhin die angezeigten Inhalte anpasst, wodurch ein Kreislauf aus Interaktion und Anpassung entsteht.

Algorithmen sind auf bestimmte Ergebnisse optimiert, vor allem auf die Nutzerinteraktion. Sie sorgen dafür, dass das Medienerlebnis der Nutzer so relevant und bedeutungsvoll wie möglich ist. Deshalb werden Inhalte, die die Nutzer wahrscheinlich beschäftigen, wie Beiträge, die Likes, Kommentare oder Shares hervorrufen, eher prominent im Feed der Nutzer angezeigt. Der Algorithmus entscheidet, was berichtenswert ist, da er darauf abzielt, die Nutzer auf der Plattform zu beschäftigen und aktiv zu halten. Je mehr Zeit die Nutzer auf sozialen Netzwerken verbringen, desto mehr Möglichkeiten gibt es, sie mit Werbung zu konfrontieren. Um dies zu erreichen, passt der Algorithmus die Inhalte in den Newsfeeds der Nutzer so an, dass sie so relevant und ansprechend wie möglich sind. Durch die Analyse des Verhaltens, der Vorlieben und der Interaktionen der Nutzer kuratiert der Algorithmus Inhalte, die nach seinen Vorhersagen das Interesse und die Interaktion der Nutzer aufrechterhalten. Zu den massgeschneiderten Inhalten gehören nicht nur Beiträge von Freunden und Familie, sondern auch von Seiten, Gruppen und Werbetreibenden.

Ein weiteres Beispiel sind die Algorithmen, die das Empfehlungssystem steuern. Sie schlagen den Nutzern neue Kontakte oder Inhalte vor, basierend auf ihren Präferenzen und den digitalen Spuren, die sie hinterlassen. Diese Algorithmen verwenden einfache Methoden zur Verbindungsvorhersage, wie beispielsweise die Auswertung der Anzahl gemeinsamer Kontakte zwischen zwei Nutzern oder ihrer gemeinsamen Interessen, ihrer Offline-Bekanntschaft oder der Wahrscheinlichkeit, eine zukünftige Beziehung aufzubauen. Nutzervorschläge können als „Personen, die Sie vielleicht kennen“ auf Facebook, „Wem Sie folgen sollten“ auf X oder „Für Sie“ auf TikTok erscheinen. Dadurch entscheiden sie, mit wem wir interagieren, und prägen soziale Beziehungen. Die Empfehlungen der Algorithmen bestimmen, wie Nutzer mit dem Netzwerk interagieren. Sie bestimmen, welche Inhalte Nutzer sehen, an welchen Diskussionen sie teilnehmen und welche Meinungen sie kennenlernen.

Algorithmen übernehmen auch die Rolle eines Spamfilters, der weniger wertvolle Inhalte stoppt. Sie sorgen auch dafür, dass unangemessene Inhalte blockiert werden. Plattformen enthalten umfangreiche Einschränkungen hinsichtlich Nacktheit, Vulgarität, Belästigung, Hassreden und anderen sensiblen und rechtswidrigen Inhalten. Automatische Systeme identifizieren und blockieren schnell und effektiv Inhalte, die gegen die Nutzungsbedingungen der Plattformen verstossen. Allerdings können einige harmlose Inhalte fälschlicherweise als unangemessen eingestuft werden (False Positives), was zu einer übermässigen Zensur führt. Darüber hinaus bestrafen sie Verhaltensweisen, die als unangemessen gelten und ausdrücklich gegen die Regeln der Plattform verstossen, indem sie bestimmte Konten, die übermässig Werbematerial posten, beliebte Hashtags übermässig verwenden, um Sichtbarkeit zu erlangen, botähnliches Verhalten zeigen oder sich missbräuchlich verhalten, mit einem Shadow Banning belegen.

Algorithmen passen Inhalte an die spezifischen Bedürfnisse der Nutzer an. Dieser Aspekt wird aus Verbrauchersicht besonders geschätzt, da die Menschen den bestmöglichen Ertrag für ihre Investitionen in Dienste wie Musik- oder Fernsehstreaming erzielen möchten. Die Nutzer erwarten, dass die Plattform ihre Präferenzen intuitiv versteht und erfüllt. Algorithmen organisieren und filtern Informationen präzise, wodurch die Informationsflut reduziert wird und die Nutzer dabei unterstützt werden, relevante Nachrichten in der Fülle der verfügbaren Informationen zu finden. Sie nutzen maschinelles Lernen, um Vorhersagen zu treffen, die die analytischen Fähigkeiten des Menschen übertreffen. Sie demokratisieren den Zugang zu einer Vielzahl von Produkten, Dienstleistungen und Informationen. Folglich steigert der breite Einsatz von Algorithmen die Effizienz der Informationsbeschaffung, da die Nutzer leicht durch riesige Datenmengen navigieren können.

Wenn sie richtig gestaltet und angepasst sind, können Algorithmen auf Online-Social-Network-Seiten die Kluft zwischen verschiedenen Gruppen überbrücken und Echokammern aufbrechen. Sie können Verbindungen zwischen Nutzern mit unterschiedlichen politischen Ansichten fördern, was eine wichtige Rolle bei der Förderung konstruktiverer und inklusiverer politischer Diskussionen spielen könnte. Das könnte zu einem gesünderen, ausgewogeneren politischen Diskurs im Online-Bereich führen. Mit sorgfältiger Abstimmung könnten Algorithmen also dazu beitragen, dass man mit einem breiteren Spektrum an Meinungen in Berührung kommt, was politische Gespräche bereichern und die Polarisierung verringern würde.

3. Zensur und Voreingenommenheit bei algorithmischen Entscheidungen

Obwohl Algorithmen mehrere Vorteile bieten, wie z. B. eine verbesserte Effizienz bei der Informationsbeschaffung, eine verbesserte Benutzererfahrung und Unterstützung bei Entscheidungsprozessen, werden diese Vorteile häufig durch hohe gesellschaftliche Kosten überschattet, wie z. B. die Aufrechterhaltung von Vorurteilen, die Manipulation von Inhalten zum Vorteil Dritter oder die Verbreitung eines verzerrten Weltbildes. Erstens können Algorithmen bestimmte Inhalte fördern, während sie andere unterdrücken. TikTok wurde beispielsweise dafür kritisiert, Inhalte zu verbieten, die als Unterstützung für die Rechte von Homosexuellen wahrgenommen werden, selbst in Ländern, in denen Homosexualität gesetzlich akzeptiert ist. Die Plattform schränkte auch Videos ein, die von Menschen mit Behinderungen, Gesichtsentstellungen, Down-Syndrom, Autismus und anderen Erkrankungen erstellt wurden, die Mobbing hervorrufen könnten. Diese Politik wurde als diskriminierend kritisiert, da sie behinderte Nutzer benachteiligt, indem sie ihre Sichtbarkeit einschränkt, anstatt die Täter von Mobbing zu konfrontieren und zu bestrafen. Das Ausblenden von Nutzern ist keine Lösung, um sie vor Cybermobbing zu schützen.

Viele politische Inhalte werden zensiert. TikTok in China verbietet Diskussionen über sensible Themen wie den Tiananmen-Platz, Tibet und Falun Gong. In ähnlicher Weise werden in der Türkei Inhalte über den kurdischen Separatismus, Darstellungen nicht-islamischer religiöser Persönlichkeiten und Kritik an politischen Führern eingeschränkt. In autoritären Regimes können politische Erfordernisse eine wichtige Rolle bei der Steuerung von Zensuralgorithmen spielen, entsprechend den vom Staat festgelegten politischen Prioritäten. Algorithmische Zensur könnte auch Folgen für den demokratischen Diskurs haben. Die kommerziellen Interessen der Plattformen können sich auf die Vielfalt des politischen Diskurses auswirken. Durch die potenzielle Unterdrückung bestimmter politischer Inhalte könnten Plattformen die öffentliche politische Debatte beeinflussen und die Nutzer daran hindern, sich ein breiteres Spektrum politischer Ansichten anzueignen. Diese Manipulation der Öffentlichkeit durch die Bereitstellung ausgewählter Informationen beeinträchtigt die Fähigkeit der Wähler, fundierte Entscheidungen zu treffen, erheblich. Solche Microtargeting-Praktiken können Einzelpersonen effektiv von einem vielfältigen „Marktplatz der Ideen” ausschliessen, was zu Verzerrungen in der Wahrnehmung der Wähler führt und zu einem fragmentierten politischen Diskurs beiträgt. Politische Akteure können leicht entweder massgeschneiderte Botschaften an verschiedene Wählergruppen verbreiten oder bestimmte Gruppen davon ausschliessen, die Botschaft zu erhalten. Die Integration datengesteuerter Strategien in Wahlkampagnen, verbunden mit der einflussreichen Rolle von Social-Media-Plattformen bei der Gestaltung politischer Überzeugungen und Verhaltensweisen, wirft Bedenken hinsichtlich grundlegender demokratischer Werte auf.

Ein weiterer negativer Effekt der Algorithmusaktivität ist die Polarisierung. Auch wenn Empfehlungssysteme in erster Linie dazu dienen, Nutzer miteinander zu verbinden und ihr Erlebnis durch Personalisierung zu verbessern, beeinflussen sie unbeabsichtigt die Meinungsbildung. Durch das Vorschlagen bestimmter Inhalte setzen sie die Nutzer stärker bestimmten (meist ähnlichen) Perspektiven aus. Indem sie Verbindungen zwischen Nutzern bevorzugen, die strukturell ähnlich sind (im Hinblick auf gemeinsame Verbindungen im Netzwerk), können Algorithmen bestehende Standpunkte verstärken, die Auseinandersetzung mit unterschiedlichen Perspektiven einschränken und Konsensbereiche verringern. Dies kann zur Bildung homogenerer Gruppen führen, bestehende Überzeugungen verstärken und die Meinungspolarisierung in sozialen Online-Umgebungen intensivieren. Die wachsende Kluft wird durch einen zunehmenden Vertrauensverlust in öffentliche Institutionen und Medien, die selbst immer stärker polarisiert sind, noch verstärkt. Medienplattformen richten sich zunehmend an Nischenpublikum mit extremen Ansichten und gestalten ihre Inhalte so, dass sie polarisierten Meinungen entsprechen, was das Problem noch verschärft.

Solche Dynamiken stellen die Grundprinzipien der Demokratie vor erhebliche Herausforderungen. Ein entscheidender Aspekt einer demokratischen Gesellschaft ist die Fähigkeit, konstruktive Meinungsverschiedenheiten auszutragen. Ein gesundes demokratisches Umfeld gedeiht auf einem „Marktplatz der Ideen“, auf dem unterschiedliche Standpunkte nicht nur toleriert, sondern wegen der Vielfalt, die sie in Debatten einbringen, geschätzt werden, was einen Dialog fördert, der dem demokratischen Engagement zugutekommt. Die aktuelle Situation ist jedoch durch geteilte Wahrnehmungen gekennzeichnet, die durch ein „Splinternet“ angeheizt werden, in dem verschiedene Gruppen mit unterschiedlichen Meinungen durch Plattformalgorithmen in separate digitale Ökosysteme getrennt werden. Die digitale Segmentierung, verstärkt durch emotionale politische Polarisierung und Fehlinformationen, macht es zunehmend schwieriger, Gemeinsamkeiten zu finden, und untergräbt damit den Kernvorteil der Demokratie – den „Marktplatz der Ideen“. Infolgedessen nehmen soziale Spannungen zu und Konflikte zwischen verschiedenen Gruppen verschärfen sich, was eine erhebliche Gefahr für den demokratischen Prozess darstellt.

Andererseits ist die Exposition gegenüber homogenen Inhalten in sozialen Medien begrenzt, da Nutzer Freundschaften mit einer Vielzahl von Menschen schliessen, denen sie begegnen, unabhängig von ideologischen Gemeinsamkeiten. Durch die Interaktion mit unterschiedlichen Nutzern werden sie daher mit einem breiteren Spektrum an Inhalten konfrontiert. Im Gegensatz dazu sind die Inhalte, denen sie über bestimmte Seiten oder Gruppen begegnen, tendenziell homogener, da Nutzer sich aufgrund gemeinsamer Interessen oder ideologischer Übereinstimmungen dafür entscheiden, bestimmten Seiten zu folgen oder bestimmten Gruppen beizutreten. Im Wesentlichen bedeutet dies, dass Nutzer eher Seiten folgen und Gruppen beitreten, die ihren politischen Überzeugungen oder Ideologien entsprechen, während sie Freunden aufgrund einer Kombination anderer Faktoren folgen, wie z. B. Offline- oder Online-Begegnungen, persönlichen Vorlieben, sozialen Einflüssen und algorithmischen Empfehlungen. Diese Unterscheidung ist wichtig, da sie impliziert, dass die Inhalte, denen Nutzer über Seiten und Gruppen ausgesetzt sind, eher ihre bestehenden Überzeugungen verstärken, da es sich um Räume handelt, die sie aufgrund ihrer ideologischen Übereinstimmung selbst ausgewählt haben. Im Gegensatz dazu können die von Freunden geteilten Inhalte ein breiteres Spektrum an Standpunkten widerspiegeln, da Freundschaften in sozialen Netzwerken nicht immer auf politischen oder ideologischen Faktoren beruhen. Infolgedessen kann der Echokammer-Effekt, bei dem man überwiegend mit Ansichten konfrontiert wird, die die eigenen verstärken, im Zusammenhang mit ideologisch gleichgesinnten Seiten und Gruppen stärker ausgeprägt sein als bei den Inhalten, die von einer vielfältigeren Gruppe von Freunden geteilt werden.

Echokammern schränken die Konfrontation mit vielfältigen Inhalten und Standpunkten ein. Wenn Algorithmen die Vorlieben der Nutzer kategorisieren und vorhersagen, schaffen sie Echokammern, die nicht nur zu einer verstärkten Polarisierung beitragen, wie oben erläutert, sondern auch bestehende gesellschaftliche Vorurteile, wie z. B. rassistische Stereotypen, verstärken: Algorithmen in Dating-Apps bevorzugen beispielsweise Partner derselben ethnischen Zugehörigkeit. Selbst wenn ein Nutzer in seinem Profil keine ethnische Präferenz angibt, schlägt der Algorithmus möglicherweise dennoch Partner derselben ethnischen Zugehörigkeit vor. Dies geschieht, weil der Algorithmus sich stark auf implizite Daten stützt – die zugrunde liegenden Muster des Nutzerverhaltens und der Präferenzen, die auf der Plattform beobachtet werden. Infolgedessen spiegeln die Empfehlungen des Algorithmus das aggregierte Nutzerverhalten und ethnische Vorurteile wider, anstatt die angegebenen Präferenzen des Einzelnen zu berücksichtigen.

Afroamerikanische Netflix-Nutzer berichteten, dass sie Miniaturansichten mit afroamerikanischen Schauspielern gesehen hätten, selbst wenn diese Schauspieler nur Nebenrollen spielten oder die Filme selbst nicht auf Geschichten oder Themen mit Bezug zu Schwarzen fokussiert waren. Die Verwendung von Bildern afroamerikanischer Schauspieler in Nebenrollen, um schwarze Zuschauer anzulocken, kann den tatsächlichen Inhalt des Films oder der Serie falsch darstellen und eine oberflächliche und potenziell irreführende Darstellung der ethnischen Vielfalt schaffen. Ausserdem kann dies zu einer übermässigen Vereinfachung und Stereotypisierung ethnischer Identitäten und Präferenzen führen. Die Verwendung einer solchen datengesteuerten Personalisierung kann eine Rückkopplungsschleife erzeugen. Wenn Nutzer mit den ihnen präsentierten Inhalten interagieren, beeinflussen ihre Reaktionen den Algorithmus weiter, der seine Vorhersagen und Empfehlungen auf der Grundlage der Interaktionen weiter verfeinert. Wenn der Algorithmus zunächst Inhalte auf der Grundlage stereotyper Annahmen präsentiert, können sich Vorurteile im Laufe der Zeit verstärken, da das System die Interaktion der Nutzer mit solchen Inhalten als Bestätigung seiner Annahmen interpretiert. Grosse Sprachmodelle, die auf Datensätzen mit bereits vorhandenen geschlechtsspezifischen Vorurteilen trainiert wurden (z. B. ein Modell, das für die Bildklassifizierung trainiert wurde und weibliche Ärzte durchweg fälschlicherweise als Krankenschwestern kennzeichnet), zeigten eine erhöhte Tendenz, Vorurteile zu zeigen. Wenn vorurteilsbehaftete Ergebnisse als Trainingsdaten für nachfolgende Modelle verwendet wurden, wurde das geschlechtsspezifische Vorurteil noch weiter verstärkt.

Zahlreiche Forschungsberichte weisen auf algorithmische Verzerrungen in den Informationen hin, die Nutzer erhalten. So lieferte beispielsweise die Suchanfrage „Black girls“ (schwarze Mädchen) einst pornografische Bilder von schwarzen Frauen, und die Suche nach dem Begriff „Jew“ (Jude) führte zu antisemitischen Websites. Darüber hinaus können Autovervollständigungsfunktionen in Suchmaschinen negative Stereotypen verstärken. Die Autovervollständigung von Google schlug nach Suchanfragen zu bestimmten ethnischen Gruppen wie „Warum sind schwarze Frauen so …“ einmal negative Adjektive wie „wütend“, „laut“ und „gemein“ vor. Eine Zeit lang lieferte die Bildersuche von Google Bilder von Afroamerikanern, wenn die Suche das Stichwort „Gorilla“ enthielt. Auch die Vorschläge der Autovervollständigung lassen Vorurteile in Bezug auf Geschlecht und Alter erkennen. Suchanfragen mit „ältere Frau“ führten oft zu Ergebnissen im Zusammenhang mit biologischen Funktionen und körperlicher Attraktivität, während Suchanfragen mit „älterer Mann“ häufig auf intime Beziehungen Bezug nahmen. Das Muster in der Suchmaschine von Google verstärkt Stereotypen, indem es ältere Frauen mit dem Verlust körperlicher Attraktivität in Verbindung bringt und im Falle von Männern die Überzeugung verstärkt, dass sie ihr Leben nach ihren Bedürfnissen und Wünschen gestalten können. Nach dem Amoklauf in San Bernardino, USA, im Jahr 2015, der von Sye Rizwan Farook und Tashfeen Malik verübt wurde, gab es einen raschen Anstieg der Google-Suchen nach dem Begriff „Muslime töten”, was zu voreingenommenen Suchergebnissen für Begriffe im Zusammenhang mit dieser ethnischen Gruppe führte. Obwohl diese Vorschläge korrigiert wurden, zeigen sie, wie leicht Algorithmen schädliche Stereotypen und Fehlinformationen verbreiten können.

Voreingenommenheit in Online- und mobilen Marktplätzen kann zu Diskriminierung offline führen, beispielsweise zu ungleichen Beschäftigungschancen. Auf Plattformen für freiberufliche Arbeit, wie TaskRabbit und Fiverr, die freiberufliche Arbeitskräfte bewerten, unterscheiden sich die Nutzerbewertungen und -rezensionen von Freiberuflern je nach ethnischer Zugehörigkeit und Geschlecht. Der Unterschied ist sichtbar, obwohl die Nutzer möglicherweise ähnliche Qualifikationen oder Erfahrungen haben. Menschliche Voreingenommenheit (schliesslich werden alle Bewertungen von einzelnen Nutzern verfasst) wird durch algorithmische Voreingenommenheit ergänzt, da Suchalgorithmen auf digitalen Plattformen von Geschlecht und ethnischer Zugehörigkeit beeinflusst werden, was zu einer unterschiedlichen Sichtbarkeit der Arbeitnehmer aufgrund dieser Merkmale führt. Algorithmische Voreingenommenheit könnte bestehende Ungleichheiten perpetuieren, indem sie beeinflusst, welche Arbeitnehmer eher für einen Auftrag unter Vertrag genommen werden. Dies zeigt sich deutlich in der Rangfolge der Kandidaten: Wenn ein Algorithmus Kandidaten aufgrund bestimmter Eigenschaften oder Verhaltensweisen priorisiert, die in einer bestimmten Gruppe häufiger vorkommen, kann dies zu einer Unterrepräsentation von Minderheitengruppen führen. Dadurch entsteht eine Rückkopplungsschleife, in der bestimmte Gruppen kontinuierlich bevorzugt und andere diskriminiert werden.

Ein weiteres Beispiel für algorithmische Verzerrung zeigt sich im automatisierten Auswahlverfahren, bei dem weibliche Bewerberinnen diskriminiert werden können. Amazon stand vor erheblichen Herausforderungen mit seinem KI-Rekrutierungstool, das den Prozess der Bewerberbewertung automatisieren sollte. Das Tool wurde anhand eines Datensatzes trainiert, der aus Lebensläufen bestand, die in den letzten zehn Jahren bei Amazon eingereicht worden waren – einem Zeitraum, in dem aufgrund des bestehenden Ungleichgewichts zwischen den Geschlechtern in der Tech-Branche überwiegend männliche Bewerber vertreten waren. Infolgedessen lernte das System, männliche Bewerber zu bevorzugen, und benachteiligte Lebensläufe, die Begriffe wie „Frauen” enthielten, beispielsweise solche, in denen Führungspositionen in Frauenclubs oder Absolventinnen von Frauenhochschulen aufgeführt waren. Die Bemühungen, Verzerrungen durch die Bearbeitung der Begriffe zu neutralisieren, reichten nicht aus, um Fairness zu gewährleisten, da das System möglicherweise andere Wege finden konnte, um zu diskriminieren. Letztendlich stellte Amazon das Projekt ein, da es die Grenzen des Tools bei der Bereitstellung eines fairen und effektiven Auswahlverfahrens erkannte. Andere Online-Rekrutierungstools sind jedoch weit verbreitet.

Voreingenommene Daten und automatisierte Analysen können auch bestimmte Gruppen aufgrund von Merkmalen wie Rasse, Religion, Einkommensniveau oder Bildung diskriminieren. In den Vereinigten Staaten wurden Programme zur Berechnung von Rückfallquoten kritisiert, weil sie rassische Ungleichheiten zum Nachteil von Afroamerikanern und ethnischen Minderheiten aufrechterhalten. Diese Programme basierten auf Daten wie dem Alter oder der Vorstrafenhistorie der Beschuldigten, einschliesslich Details zu früheren Straftaten und der Häufigkeit von Verhaftungen. Es wurden Anstrengungen unternommen, um Verzerrungen in Algorithmen zu beseitigen, sodass die neuesten Programme keine Daten mehr zu Rasse, ethnischer Herkunft und sexuellen Vorlieben kodieren. Indirekte Verzerrungen bestehen jedoch weiterhin aufgrund der im Vergleich zu Weissen überproportionalen Zahl von Festnahmen und Verhaftungen unter Afroamerikanern und Latinos. Faktoren wie das Leben in armen Stadtvierteln erhöhen die Wahrscheinlichkeit von Begegnungen mit der Polizei, selbst bei Routinekontrollen. Darüber hinaus sind diese Gemeinschaften oft mit höheren Arbeitslosenquoten und einer erhöhten Exposition gegenüber Drogen, Alkohol und Bekannten mit kriminellem Hintergrund konfrontiert. All diese Faktoren werden in Algorithmen zur Bewertung der Rückfallwahrscheinlichkeit codiert. Somit spielen Rasse und Wohnort immer noch indirekt eine Rolle. Darüber hinaus tragen automatisierte Entscheidungsprozesse zur Entstehung negativer Rückkopplungsschleifen bei und verstärken negative Auswirkungen, wodurch soziale Ungleichheiten vertieft werden.

Algorithmische Verzerrungen und Fehler sind häufig das Ergebnis komplexer, miteinander verknüpfter Faktoren. Erstens werden Algorithmen anhand historischer Daten trainiert, die möglicherweise verzerrte Entscheidungen, Praktiken und gesellschaftliche Normen aus der Vergangenheit widerspiegeln. Wenn ein Algorithmus überwiegend mit Daten aus männerdominierten Bereichen trainiert wird, kann er eine Verzerrung entwickeln, die Männer begünstigt, wie dies bei Amazons KI-Rekrutierungstool zu beobachten ist. Dies perpetuiert bestehende Ungleichheiten, da der Algorithmus weiterhin vergangene Verzerrungen auf zukünftige Entscheidungen projiziert. Zweitens sind Algorithmen so konzipiert, dass sie unter bestimmten Bedingungen effizient arbeiten. Daher sind sie von Natur aus mit vorprogrammierten Entscheidungen, Werten und Motiven ausgestattet, um die Leistung zu optimieren. Dies zeigt sich besonders deutlich auf Plattformen, die von Gewinnmotiven getrieben sind, wo Algorithmen Inhalte priorisieren, die das Nutzerengagement und die Werbeeinnahmen maximieren. Infolgedessen können digitale Plattformen Inhalte verstärken, die sensationell oder polarisierend sind, da sie tendenziell mehr Klicks und Shares generieren. Andererseits spiegeln Suchmaschinenergebnisse Voreingenommenheit wider, indem sie etablierte Theorien und populäre Institutionen bevorzugen und die Sichtbarkeit von nicht-mainstreamigen Inhalten und neuen Unternehmen oder Organisationen einschränken. In ähnlicher Weise können Inhalte von oder über Minderheiten und benachteiligte Gruppen systematisch unterdrückt werden. Darüber hinaus können Algorithmen unbeabsichtigt die Vorurteile ihrer Entwickler übernehmen und perpetuieren. Bei der Entwicklung von Algorithmen fliessen oft subtile Vorurteile ihrer Schöpfer ein, was zu diskriminierenden Ergebnissen führen kann. Darüber hinaus können Algorithmen falsche Ergebnisse liefern, wenn sie mit fehlerhaften (fragmentierten, falschen, veralteten oder voreingenommenen) Datensätzen arbeiten. Voreingenommenheit kann auch auftreten, wenn der Algorithmus mit einem anderen Algorithmus kollidiert. Ein solcher Konflikt kann zu ungenauen oder unvorhergesehenen Entscheidungen führen. Schliesslich neigen Algorithmen dazu, komplexe menschliche Interaktionen und gesellschaftliche Dynamiken auf quantifizierbare Metriken und logische Modelle zu reduzieren. Nicht quantifizierbare Werte (wie Fairness oder Emotionen) könnten aus der Bewertung ausgeschlossen werden, was zu falschen Schlussfolgerungen und Entscheidungen führt, die die Komplexität der realen Welt nicht genau widerspiegeln.

Ernsthafte Herausforderungen ergeben sich auch aus ungelösten Fragen im Zusammenhang mit dem Datenschutz und der Datensicherheit in Big-Data-Ökosystemen. Memoona J. Anwar und ihre Kollegen identifizieren vier wichtige Problembereiche: (1) menschliche Faktoren wie fehlende Zustimmung der Nutzer, Missbrauch von Wissen, unbefugter Zugriff und ungenaue Analysen; (2) technologische Fehler, darunter unsachgemässe Verwendung von Daten, Lücken in der Technologie, Probleme mit der Aktualität und Herkunft der Daten sowie die Heterogenität von Geräten und Datenformaten; (3) Probleme beim Datenmanagement im Zusammenhang mit den Schwierigkeiten bei der Speicherung und Verarbeitung von Daten aus verschiedenen Quellen sowie deren Verfügbarkeit; (4) Umweltfaktoren wie unzureichende Big-Data-Managementsysteme, unterentwickelte gesetzliche Vorschriften, Widerstand innerhalb von Organisationen und Herausforderungen bei der Etablierung einer datengesteuerten Kultur. Algorithmen können eine umfassende Überwachung und Kontrolle ermöglichen, was die Privatsphäre verletzen und zu einer Gesellschaft führen kann, in der jede Handlung überwacht wird. Eine intrusive Überwachung wirft ethische und rechtliche Bedenken hinsichtlich der Rechte und Freiheiten des Einzelnen auf. Schliesslich kann die zunehmende Abhängigkeit von Algorithmen die digitale Kluft vergrössern und diejenigen marginalisieren, die keinen Zugang zu digitalen Technologien oder den Fähigkeiten zu deren effektiver Nutzung haben.

4. Kommerzielle Voreingenommenheit bei der algorithmischen Kuratierung von Inhalten

Bei der Automatisierung von Inhaltsempfehlungen stehen oft kommerzielle und unternehmerische Interessen im Vordergrund. Plattformen unterdrücken bestimmte Arten von Inhalten möglicherweise nicht unbedingt, weil sie schädlich oder illegal sind, sondern weil sie Werbekunden abschrecken oder behördliche Kontrollen provozieren könnten, was den finanziellen Interessen der Plattform schaden würde. Dieser Ansatz wird weitgehend von dem Wunsch bestimmt, ein breites, allgemeines Publikum anzusprechen und sowohl gegenüber politischen Entscheidungsträgern als auch gegenüber Werbekunden ein verantwortungsbewusstes Image zu präsentieren. Aufgrund ihrer Fokussierung auf Wachstum, Marktkontrollen und Rentabilität sind digitale Plattformen bestrebt, ein breites Publikum anzusprechen und gute Beziehungen zu Werbekunden und politischen Entscheidungsträgern zu pflegen, um kostspielige regulatorische Massnahmen zu vermeiden. Susan L. Gerhart stellt eine Tendenz fest, dass Suchmaschinenergebnisse positive und unumstrittene Inhalte bevorzugen. Online-Suchen leiten Nutzer häufiger zu etablierten Theorien und anerkannten Institutionen weiter. Infolgedessen ist der Traffic, der zu neu gegründeten Unternehmen und Organisationen geleitet wird, begrenzt.

Der Trend zu werbefreundlichen Inhalten ist besonders auf Social-Media-Plattformen sichtbar, die ein Abonnementmodell eingeführt haben. YouTube hat begonnen, längere Videos mit bekannten Prominenten und etablierten Medienunternehmen zu priorisieren. Diese Videos sind zwar nicht so viral wie nutzergenerierte Inhalte, tragen aber dazu bei, eine breite Nutzerbasis aufzubauen und die Bildschirmzeit zu erhöhen, was wiederum die Werbeeinnahmen steigert. Diese Veränderung wurde von unabhängigen Kreativen, deren kurze kreative Videos zum Aufbau der Plattform beigetragen haben, heftig kritisiert. Die Plattform priorisiert nun jedoch Mainstream-Inhalte, die kommerziell attraktiver sind. Diese Veränderung spiegelt einen breiteren Trend in der Branche wider, in der Plattformen ihre Richtlinien subtil anpassen, um ihre Umgebung für Werbetreibende attraktiver zu machen.

Aus dem gleichen Grund, aus dem sie ein werbefreundlicheres digitales Umfeld schaffen, marginalisieren soziale Netzwerke oft Minderheiten oder unkonventionelle Standpunkte. Zu diesem Trend tragen mehrere Faktoren bei. Erstens ziehen Inhalte, die einzigartige oder Minderheitenperspektiven bieten, tendenziell nur ein begrenztes Publikum an, was wiederum keine nennenswerten Werbeeinnahmen generiert. Daher fördern Plattformen eher Mainstream-Inhalte, die im Trend liegen. Zweitens werden Inhalte im Zusammenhang mit Behinderungen oft zum Ziel von Hassreden und Cybermobbing. Solche negativen Interaktionen vertreiben Werbetreibende, da Unternehmen nicht möchten, dass ihre Produkte mit kontroversen oder polarisierenden Inhalten in Verbindung gebracht werden. Daher bemühen sich soziale Plattformen, ein sicheres Umfeld für Werbetreibende zu schaffen, indem sie manchmal Inhalte, die Werbetreibende abschrecken könnten, mit einem Schattenverbot belegen oder aus den Suchergebnissen ausblenden.

Digitale Werbung ist sehr subtil. Zielgerichtete Anzeigen erscheinen in Newsfeeds, Seitenleisten und gesponserten Links und werden mit nutzergenerierten Inhalten vermischt. Sie soll für den Kunden angenehmer und weniger aufdringlich sein als herkömmliche Werbung, auch wenn viele Nutzer sie als störend empfinden, insbesondere wenn zielgerichtete Anzeigen nicht den tatsächlichen Interessen und Bedürfnissen der Kunden entsprechen. Gleichzeitig können die von vielen Werbetreibenden verwendeten Targeting-Strategien invasiv oder undurchsichtig sein. Sie verwenden eine Vielzahl von Targeting-Parametern, von denen viele nicht direkt mit dem beworbenen Produkt in Verbindung stehen. Eine Werbung kann auf die Persönlichkeitsmerkmale einer Person zugeschnitten sein. Schliesslich ist jeder Mensch anders; daher kann das, was für einen Verbraucher überzeugend ist, für einen anderen weniger überzeugend sein. Beispielsweise kann die Anpassung der Werbung an Aspekte wie die Extraversion oder Introversion eines Kunden die Überzeugungskraft der Botschaft erheblich steigern. Ebenso kann die Abstimmung computergenerierter Ratschläge auf den Dominanzgrad eines Verbrauchers die wahrgenommene Glaubwürdigkeit der Quelle erhöhen und die Wahrscheinlichkeit, dass er seine ursprüngliche Meinung aufgrund der erhaltenen Ratschläge ändert.

Online-Marketing sagt oft das psychologische Profil von Verbrauchern voraus, basierend auf den Inhalten, die sie veröffentlichen, der Sprache, die sie verwenden, ihren Aktivitäten in sozialen Medien, den Fotos, die sie liken, und den Inhalten, die sie sich ansehen. Predictive Analytics mit künstlicher Intelligenz kann die Persönlichkeit einer Person anhand ihrer digitalen Spuren genauer einschätzen als selbst ihre Bekannten. Tatsächlich sind wir heute in einer Situation, in der der Algorithmus die Nutzer besser kennt als sie sich selbst. Er kann die unbewussten Werte, Wünsche, tiefsitzenden Ängste und Abneigungen der Nutzer verstehen. Mit diesem Wissen ausgestattet, kann der Algorithmus den Kunden gezielt bestimmte Inhalte präsentieren, um bestimmte Emotionen hervorzurufen und einen fruchtbaren Boden für wirksame Werbung für ein Produkt, einen Politiker oder eine Ideologie zu schaffen. Die Nutzer bleiben sich dieser Einflussnahme jedoch nicht bewusst, genau wie im unten diskutierten Beispiel der individuellen Diskriminierung.

Die von digitalen Plattformen verwendeten Algorithmen zur personalisierten Bereitstellung von Inhalten können das individuelle Medienerlebnis erheblich beeinflussen und Nutzer in Filterblasen einschliessen, in denen sie einer verzerrten Werbeverteilung ausgesetzt sind. Wenn Nutzer über einen längeren Zeitraum bestimmten Inhalten ausgesetzt sind, kann dies zu Fehlwahrnehmungen über die Welt führen, die auf den spezifischen Anzeigen basieren, die sie sehen, was soziale Ungleichheiten weiter verstärkt. Wohlhabende Nutzer sehen möglicherweise eine Welt, wie sie in der Werbung für Luxusgüter und -dienstleistungen dargestellt wird, die direkt auf sie ausgerichtet ist, was ihr Gefühl von Sicherheit und Stabilität verstärkt. Auf der anderen Seite erhalten Nutzer aus weniger wohlhabenden Verhältnissen häufig Werbung für günstige Dienstleistungen oder preiswerte Produkte, die ein Bild von finanziellen Einschränkungen und begrenzten Möglichkeiten vermitteln. Der Bereitstellungsalgorithmus kann die Werbezielgruppe auch nach rassischen oder ethnischen Gesichtspunkten segmentieren. Werbung für Wohnungen in bestimmten Stadtvierteln kann auf bestimmte ethnische Gruppen ausgerichtet sein und so die Wohnsegregation verstärken. In ähnlicher Weise kann die Bereitstellung von Stellenanzeigen nach Geschlecht verzerrt sein. Stellenanzeigen für hochbezahlte Tech-Jobs werden möglicherweise häufiger männlichen Nutzern angezeigt, während Anzeigen für Pflege- oder Verwaltungspositionen häufiger weiblichen Nutzern angezeigt werden, was zu Geschlechterstereotypen und Ungleichheit bei den Beschäftigungsmöglichkeiten führt. Anzeigen für Kreditdienstleistungen wie Darlehen oder Kreditkarten könnten so geschaltet werden, dass bestimmte ethnische oder wirtschaftliche Gruppen bevorzugt werden, was zu einem ungleichen Zugang zu finanziellen Ressourcen führen könnte. Betrachten Sie das folgende Beispiel: Ein junger Mensch aus einkommensschwachen Verhältnissen erhält Werbeangebote, die auf seine finanzielle Situation zugeschnitten sind. Daher sind die Angebote an Dienstleistungen und Waren begrenzt. Werbetreibende, die eine möglichst hohe Rendite für ihre Werbeausgaben erzielen wollen, richten ihre Angebote nur an eine bestimmte Gruppe von Empfängern, die unter anderem durch ihr Einkommen definiert sein kann. Somit wird die Entscheidung, den Kauf eines Produkts oder einer Dienstleistung in Betracht zu ziehen, für den Kunden vom Werbetreibenden oder dem Algorithmus getroffen. Diese Situation kann in Ländern, in denen Bildungs- und Gesundheitsdienstleistungen hauptsächlich vom privaten Sektor angeboten werden, ein noch grösseres Problem darstellen. Ein Verbraucher mit geringem Einkommen erhält keine Bildungsangebote von renommierten Universitäten, deren Abschlüsse zu hochbezahlten Jobs führen. Stattdessen wird er zu Angeboten von Bildungseinrichtungen der unteren Kategorie weitergeleitet. Nach dem Abschluss erhält er personalisierte Stellenangebote, die ebenfalls auf sein Bildungsniveau zugeschnitten sind. Der Werbetreibende und der Algorithmus entscheiden unter Berücksichtigung von Faktoren wie ethnischer Zugehörigkeit, Einkommen, Religion, Weltanschauung und anderen soziodemografischen Faktoren, welcher Kundengruppe ein Kredit gewährt oder die Werbung für einen neu gebauten Wohnkomplex gezeigt wird. Microtargeting ist daher ein Beispiel für zeitgenössische Diskriminierung, die Vorurteile verschärft und zur Stärkung der Dominanz privilegierter Gruppen führt.

Eine ungleichmässige Verteilung von Anzeigen kann verschiedene Ursachen haben. Erstens können Werbetreibende bestimmte Targeting-Parameter (z. B. Alter, Standort, Interessen) auswählen, die von den Plattformen angeboten werden und bestimmte Gruppen ansprechen oder ausschliessen können. Zweitens können auch die von den Plattformen verwendeten Optimierungsalgorithmen, deren Ziel es ist, die Relevanz, das Engagement und andere Geschäftsziele zu maximieren, zu einer ungleichmässigen Anzeigenverteilung beitragen. Es ist jedoch zu beachten, dass die jüngsten Aktualisierungen der digitalen Plattformen die Verfügbarkeit von Targeting-Optionen eingeschränkt haben, die es Werbetreibenden zuvor ermöglicht hatten, ein weitreichendes diskriminierendes Anzeigen-Targeting zu betreiben. Trotz dieser Änderungen kann die Anzeigenverteilung aufgrund der von den Werbetreibenden festgelegten Geschäftsziele, wie Reichweite oder Konversion, weiterhin verzerrt bleiben. Eine grosse Reichweite bedeutet, dass die Anzeige an einen möglichst grossen Teil der Zielgruppe verteilt wurde, während die Konversion sich auf das Ziel des Werbetreibenden konzentriert, eine grosse Anzahl von Anzeigenbetrachtern zu einer bestimmten Handlung zu bewegen, wie z. B. den Besuch der Website oder einen Kauf. Daher könnten Werbetreibende, die sich für hohe Konversionsraten entscheiden, ihre Bemühungen auf bestimmte demografische oder Interessengruppen konzentrieren, wodurch andere möglicherweise ausgeschlossen werden und bestehende Ungleichheiten in der Sichtbarkeit von Anzeigen verstärkt werden. Schliesslich können auch andere Faktoren, die ausserhalb der direkten Kontrolle von Werbetreibenden oder Plattformen liegen, zu Verzerrungen führen, wie z. B. unterschiedliche Online-Präsenz in verschiedenen demografischen Gruppen, tageszeitliche Effekte und unterschiedlicher Wettbewerb um die Aufmerksamkeit der Nutzer unter den Werbetreibenden.

Andererseits belegen zahlreiche Forschungsergebnisse, dass algorithmische Werbung nicht darauf abzielt, Individuen durch hochgradig personalisierte und überzeugende Werbemassnahmen zu verstehen oder zu manipulieren. Vielmehr geht es darum, Individuen anhand gemeinsamer Merkmale und Verhaltensweisen effektiv in breitere Kategorien einzuteilen. Das vorrangige Ziel der Werbetreibenden besteht darin, die Kundenbindung zu stärken, die Wahrscheinlichkeit von Wiederholungskäufen zu erhöhen und den Kundenstamm zu erweitern. Daher nutzen sie Daten, um ihre Marketingstrategien zu verfeinern, anstatt eine invasive persönliche Überwachung durchzuführen.

Unabhängig von den Absichten hinter Werbestrategien ist es wichtig, auf ein erhebliches Risiko hinzuweisen, das mit diesen Praktiken verbunden ist. Insbesondere Mikrotargeting stellt eine besondere Bedrohung für die individuelle Freiheit dar. Wenn Diskriminierung gegen eine Gruppe (z. B. Frauen oder ethnische Minderheiten) gerichtet ist, können sich deren Mitglieder organisieren und für einen sozialen Wandel einsetzen. Wenn jedoch eine Person durch einen Algorithmus eingeschränkt wird, insbesondere wenn dies auf der Grundlage unklarer Faktoren geschieht (schliesslich sind die Funktionsweise von Algorithmen nicht allgemein bekannt), ist es nicht möglich, eine Gruppe von diskriminierten Personen zu identifizieren oder einen gemeinsamen Protest zu organisieren. Die Ursache der Diskriminierung bleibt unbekannt; möglicherweise handelt es sich um eine komplexe Kombination von Faktoren. Erschwerend kommt hinzu, dass Einzelpersonen möglicherweise sich gar nicht bewusst sein, dass sie diskriminierenden Praktiken ausgesetzt waren. Tatsächlich können fortschrittliche Modelle des maschinellen Lernens mehr Variablentypen oder -dimensionen verarbeiten als klassische statistische Methoden, was das Risiko unbemerkter Korrelationen mit geschützten Merkmalen wie Geschlecht, Alter, ethnischer Zugehörigkeit, Religion, politischer Einstellung, sexueller Orientierung, Gesundheitszustand und Behinderung erhöht. Anhaltende und unbemerkte Diskriminierung kann die Kluft zwischen verschiedenen Gruppen vergrössern und den sozialen Zusammenhalt untergraben.

5. Politisches Mikrotargeting

Abgesehen von kommerziellen Vorteilen wird gezieltes Marketing häufig eingesetzt, um politische Vorteile zu erzielen und Wahlergebnisse in demokratischen Gesellschaften zu beeinflussen. Die Informationsasymmetrie zwischen politischen Akteuren und Bürgern in Verbindung mit dem Einsatz personalisierter Mikrozielgruppenansprache wirft Bedenken hinsichtlich der Manipulation von Wählern auf. Ausserdem sind sich die Nutzer nicht bewusst, dass sie mikrotargetiert und manipuliert werden, was die Integrität der politischen Kommunikation und deren Einfluss auf fundierte Wahlentscheidungen in Frage stellt.

Zahlreiche Forschungsergebnisse deuten darauf hin, dass politische Werbung überzeugender ist, wenn sie auf die psychometrischen Profile einzelner Personen zugeschnitten ist. Introvertierte Menschen reagieren tendenziell positiver auf negative, auf Angst basierende Werbung, während extrovertierte Menschen eher für positive, auf Begeisterung basierende Werbung empfänglich sind. Politische Kampagnen nutzen häufig emotionale Strategien, um eine grössere Medienpräsenz zu erreichen, Wähler anzusprechen und ihre Einstellungen und Wahlpräferenzen zu beeinflussen.

Emotionen beeinflussen die Art und Weise, wie Menschen Informationen verarbeiten. Daher werden politische Botschaften gezielt so formuliert, dass sie eine grössere Wirkung erzielen. Auf Angst basierende Kampagnen können die Wachsamkeit erhöhen, die Aufmerksamkeit für aktuelle Ereignisse steigern und Menschen empfänglicher für Überzeugungsarbeit machen. Sie regen Wähler dazu an, überlegter zu denken, mehr Informationen zu suchen und die Bedeutung von Sicherheit zu betonen. Infolgedessen können Wähler sogar politische Massnahmen unterstützen, die ihren üblichen politischen Neigungen widersprechen, wenn sie glauben, dass diese Massnahmen ihre Sicherheit verbessern. Im Gegensatz dazu verstärken auf Abneigung basierende Kampagnen bestehende politische Vorurteile, halten von der Suche nach weiteren Informationen ab und verstärken die Polarisierung der Wähler. Eine zunehmende Polarisierung geht oft über ideologische Unterschiede hinaus und kann negative Gefühle und diskriminierende Einstellungen gegenüber Menschen mit gegensätzlichen politischen Ansichten verstärken. Insgesamt sind Inhalte, die starke emotionale Reaktionen hervorrufen, wahrscheinlich einprägsamer und haben einen grösseren Einfluss auf die Meinungsbildung der Nutzer.

In einem stark polarisierten politischen Umfeld sind Wähler anfälliger für Beeinflussung. Sie verlassen sich oft auf vereinfachte Sichtweisen und ignorieren substanziellere Argumente. Sie lassen sich eher von Abneigung und Verachtung gegenüber politischen Gegnern beeinflussen als von logischen Argumenten. Politische Akteure können dies ausnutzen, indem sie Feindseligkeit, Angst und Hass schüren, anstatt sich auf vernünftige Argumente zu stützen. Diese Taktiken können besonders für politische Parteien von Vorteil sein, denen es an konkreten Programmen mangelt und die stattdessen eine zunehmende politische Polarisierung anstreben.

Was die Rolle von Newsfeed-Algorithmen bei der Meinungsbildung in politischen Fragen angeht, so liefern Forschungsstudien gemischte Ergebnisse. Eine Vielzahl von Studien deutet darauf hin, dass Algorithmen einen erheblichen Einfluss auf die politischen Meinungen in sozialen Online-Netzwerken haben. Die Dynamik der politischen Meinungsbildung wird in hohem Masse von den Interaktionen auf digitalen Plattformen beeinflusst, die sowohl von menschlichen Aktivitäten als auch von algorithmischen Entscheidungen bestimmt werden. Algorithmen, die neue Verbindungen auf der Grundlage struktureller Ähnlichkeiten, wie beispielsweise gemeinsame Bekannte, empfehlen, können zu einer verstärkten Polarisierung der Meinungen führen. Sie bestimmen, welche Inhalte die Nutzer in ihren Feeds sehen, was dann durch Nutzerinteraktionen wie Teilen und Reposten noch verstärkt wird. Darüber hinaus beeinflussen Algorithmen die Zusammensetzung der Netzwerke. Beispielsweise werden Nutzer mit vielen politisch aktiven Freunden eher als politisch interessiert eingestuft, was wiederum ihre Konfrontation mit politischen Inhalten erhöht.

Für viele junge Menschen, die sich für Nachrichten und Informationen stark auf soziale Medien und algorithmisch kuratierte Plattformen verlassen, beeinflussen Algorithmen ihr Verständnis der Welt erheblich. Soziale Netzwerke verwenden Algorithmen, um Nachrichtenfeeds zu kuratieren. Diese kuratierte Darstellung beeinflusst, wie junge Menschen aktuelle Ereignisse und globale Themen wahrnehmen und verstehen. Durch die Personalisierung von Inhalten auf der Grundlage des bisherigen Verhaltens und der Präferenzen der Nutzer können Algorithmen Filterblasen und Echokammern schaffen. Nutzer sehen möglicherweise Inhalte, die ihre bereits bestehenden Überzeugungen und Standpunkte bestätigen, wodurch sie möglicherweise weniger mit unterschiedlichen Perspektiven und Meinungen in Berührung kommen. Die selektive Darstellung kann das Verständnis der Nutzer von der Welt verzerren, da sie möglicherweise keine ausgewogene oder umfassende Sicht auf Nachrichten und Ereignisse erhalten. Wenn Nutzer mehr Nachrichten zu bestimmten Themen sehen, kann dies die wahrgenommene Bedeutung dieser Themen für sie erhöhen. Wenn Algorithmen sensationelle oder unbestätigte Inhalte priorisieren, kann dies zu Fehlvorstellungen und einer verzerrten Sicht auf die Realität führen. Darüber hinaus kann die emotionale Reaktion, die solche Inhalte hervorrufen, auch das Engagement der Nutzer für bestimmte Themen beeinflussen.

Zur leichteren Lesbarkeit wurden die Quell- und Literaturverweise entfernt wie auch das Kapitel zu Estland.

Übersetzung Boris Wanzeck, Swiss Infosec AG

Dorota Domalewska et al. in: Humans in the Cyber Loop – Perspectives on Social Cybersecurity; Brill, Leiden and Boston, 2025
https://creativecommons.org/licenses/by-nc/4.0/

DOI 10.1163/9789004549906


Ganzheitliche Cybersecurity – praxisnah, rechtskonform und auf Ihre Unternehmens-Risiken abgestimmt

Ein dediziertes Team von IT Security-Spezialisten und Penetration Testern unterstützen Sie mit einem breiten Portfolio an Beratungsdienstleistungen und Trainings zum Thema IT-Sicherheit.

Kontaktieren Sie uns und erfahren Sie in einem unverbindlichen Beratungsgespräch, was unsere Spezialistinnen und Spezialisten für Sie tun können: +41 41 984 12 12, infosec@infosec.ch

Hier geht’s zum unserem Angebot:


© Swiss Infosec AG 2025