Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Narrative der Überwachung: Typen, mediale Formen und Entwicklungen

Narrative der digitalen Überwachung

Optical surveillance (CCTV), aerial surveillance, audio surveillance, radio-wave surveillance, GPS surveillance, Email/VoIP surveillance, sensors, computer and internet surveillance, biometrics, genetics, biochemical surveillance, mobile media surveillance – diese hier nur unvollständig wiedergegebene Liste unterschiedlicher elektronischer Überwachungstechniken ist einer Einführung in die Surveillance Studies entnommen, die sich an gleicher Stelle um eine zunächst scheinbar möglichst umfassende Definition der Überwachung bemüht: „Observing, sensing or otherwise determining the presence or influence of persons, activities or phenomena of interest, especially as regards of protection of assets, territory, property, family, personal safety, power, commercial opportunities or social relationships“. Mit den neutral gehaltenen Variablen der Überwachungsanordnung (wer überwacht wen oder was?) verwoben ist – ein wenig überraschend – eine (fast) eindeutige, kausal-finale Bestimmung: Überwachung schützt.  Überraschend ist dies, weil Überwachung zumeist als diskursive Folie für negativ konnotierte Konsequenzen im Zusammenhang mit technischen Entwicklungen genutzt wird. ‚Schutz‘ tritt dabei als Antagonist von ‚Kontrolle‘ und damit als nur vordergründig propagierte Funktion in Erscheinung, die vor allem dazu dient, sinistre Absichten zu kaschieren. Die blosse Funktionalität der (digitalen) Technik wird daher oft zugleich als Zwecksetzung begriffen und entkommt dabei nicht einer sofortigen Wertung, die sich an tradierten Narrativen orientiert. Der vorliegende Beitrag widmet sich daher zunächst drei populären Erzählsträngen, die für die Deutung und Wertung digitaler Überwachung besonders prominent genutzt werden. Sie finden sich in der politischen und medialen Öffentlichkeit genauso wie in der wissenschaftlichen Betrachtung der untersuchten Phänomene. Dies liegt zum einen an der Historizität der genutzten Motivik, die kulturell so sehr naturalisiert ist, dass sie als Referenzfolie eine besondere Wirkmacht entfaltet. Zum anderen sind die Bestrebungen, den soziotechnischen Wandel zu erklären, auch stets mit dessen Dynamik konfrontiert. Eine Strategie, sich diesem gegenüber zu verhalten, ist die Fortschreibung bekannter Narrative, die von Akteur*innen in Wissenschaft, Politik oder Journalismus wechselseitig getragen werden.

Das erste Narrativ, (Digitale) Überwachung zerstört unsere Freiheit (Abschnitt 1), reduziert Überwachung häufig auf ihre technischen Aspekte und erzählt ein Bedrohungsnarrativ weiter, demzufolge Technik immer in einem antagonistischen Verhältnis zum Menschen und seiner Freiheit zu denken ist. Wie sich jedoch zeigen soll, besteht nicht per se ein Widerspruch zwischen individueller Freiheit, Autonomie und Überwachung. Vielmehr sind effektive Überwachungspraktiken als eine Voraussetzung für Herstellung und Schutz individueller Freiheiten zu betrachten, die nicht nur repressiven Charakter haben. Durch ihre feste Einbettung in die geistesgeschichtliche Aufklarung ist die Funktion der Überwachung – die Sichtbarmachung – eine zentrale und konstruktive Figur der Herausbildung bestimmter Formen von Subjektivität. 

Das zweite Narrativ, Digitale Überwachung ist allwissend (Abschnitt 2), erzählt von einer vermeintlichen Objektivität und Omniszienz digitaler Überwachung, die gar zukünftiges Verhalten oder Ereignisse antizipieren kann. Das Narrativ ist einerseits eng verflochten mit judäo-christlichen Motiven (ein wachendes Auge der Vorsehung), andererseits wird in ihm ebenfalls der Impetus der Aufklarung deutlich, nach einer objektiven und universellen Beschreibung der Welt zu streben, die vor allem in der mythischen Überhöhung des Datenwissens zum Ausdruck kommt. 

Das dritte Narrativ, Mithilfe digitaler Überwachungstechniken können wir sehr leicht manipuliert werden (Abschnitt 3), betrachtet daran anschliessende Diskursfiguren, die vor allem das Machtverhältnis zwischen Mensch und Maschine ausdeuten. In unheimlicher Weise intelligente Systeme können Wissen über den Menschen generieren, das er selbst nicht preisgeben will oder das er gar selbst nicht über sich hat. Auf diese Weise gefährdet, sind wir anfällig für gezielte Verhaltensmanipulationen, wie sie sich etwa bei Wahl- oder Konsumentscheidungen niederschlagen. Auch dieses Narrativ schliesst an eine Traditionslinie der Deutung von Medientechnik an, die deren Wirkmacht tendenziell überschätzt.

Abschliessend (Abschnitt 4) wird noch die Frage nach der narrativen Dimension der wissenschaftlichen Einordnung der ‚neuen‘ digitalen Überwachung aufgeworfen. In den theoretischen Konzepten, identifizierten Problemen und Lösungsansätzen stecken auch immer Erzählmuster von Anfang und Ende, von alt und neu. Ihre Widersprüchlichkeit erwächst einerseits aus der ostentativen Präsentation des Neuen und andererseits aus der impliziten Sehnsucht nach der vergangenen Ordnung der Moderne.

1. „(Digitale) Überwachung zerstört unsere Freiheit.“ – Digitalisierung, Surveillance und Spätmoderne

„[A] well documented, tightly reasoned, and frightening analysis of the clash between individual privacy and information-gathering technology in a computer age“ – so lautet das Urteil einer zeitgenössischen Rezension von Arthur R. Millers The Assault on Privacy. Computers, Data Banks and Dossiers (1971). Computer und Datenbanken stunden im Zentrum einer ‚kybernetischen Revolution‘, fasst Bernard A. Berkman zusammen, die in den Worten Millers folgendermassen charakterisiert wird: „dramatically increasing man’s capacity to accumulate, manipulate, retrieve, and transmit knowledge“. Die Leistung der computerbasierten Datennetze, so der Rezensent weiter, habe zwar einen Nutzen, bedrohe jedoch gesellschaftliche Freiheiten und die individuelle Privatheit. Die Warnung wird begleitet von einem Aufruf zu ‚einfallsreicher rechtssprecherischer Flexibilität und Erfindungsreichtum‘, legislativen Kontrollen und administrativen Selbstbeschränkungen. Der weiterhin gelobte ‚logische Aufbau‘ des Buchs lasse auf einen Abschnitt zu den Fähigkeiten der Informationstechnologie eine Abwägung zwischen notwendiger Datensammlung und dem ‚technologischen Angriff auf die individuelle Privatheit‘ folgen: „the most effective portion of the book is the detailed examination of the rapidly developing computerized information-gathering techniques and the way in which they are being used to create dossiers on all our citizens at a maddeningly increasing tempo“.  Neben den staatlichen Praktiken und Institutionen, mit denen Daten über Bürger*innen gesammelt werden, liege ein besonderes Augenmerk auf Unternehmensaktivitäten wie diejenigen privater Kreditgeber*innen: „the pervasive surveillance and fact-gathering techniques that have permitted the compilation and indiscriminate dissemination and sale of personal financial information about some 50 million Americans“. Zu den Befürchtungen zahlen in diesem Zusammenhang auch die Computerisierung von Persönlichkeits- oder IQ-Tests mit Folgen für die wirtschaftliche oder soziale Mobilität einzelner Subjekte.

Als ‚tapferer erster Versuch, das Problem der Computerisierung in Amerika zu beschreiben‘, wie der Rezensent bescheinigt, spinnt The Assault on Privacy wichtige Narrationsmuster, die auch heute nichts an ihrer diskursiven Prominenz eingebüsst haben. Die skizzierten Befürchtungen schreiben ‚Privatheit‘ rhetorisch einen erheblichen Eigenwert zu und finden nicht nur im Lichte gegenwärtiger Diskussionen Widerhall, sie entsprechen diesen in einem erstaunlichen Masse. Grundsätzlich ist in diesem Narrationsmuster bereits das antagonistisch gedeutete Verhältnis zwischen der digitalen, computerbasierten Informations- und Kommunikationstechnologie und den individuellen Freiheitsrechten, insbesondere der Privatheit, angelegt. Computergestützte elektronische Überwachung erscheint per se als Gefahr, die Debatten um den notwendigen Schutz von Daten, Personen und der Privatheit als einem sozialen Wert sowie der demokratisch-freiheitlichen Verfasstheit des Nationalstaats weisen der Technologie die popular-diskursive Rolle eines Aggressors zu. Doch es besteht keine Widersprüchlichkeit zwischen Freiheit und Überwachung. Vielmehr ist Überwachung die Voraussetzung für Freiheit. Jede soziale Einheit – ob eine Paarbeziehung, die Familie oder die Dorfgemeinschaft – kann nur mithilfe bestimmter Regeln aufrechterhalten werden. An diesen orientieren sich das individuelle Verhalten und Interaktionen, sie schaffen gegenseitige Erwartungen und strukturelle Sicherheit als Voraussetzung individueller Freiheit. Die Organisation von Gemeinschaft kennt daher gegenseitige Überwachung, Kontrolle und bedarfsabhängige Sanktionierung. In Dorfgemeinschaften hatten diese Prozesse durch einen hohen Grad persönlicher Bekanntheit sowie relativ starre und homogene Normen weitgehend ohne den Einsatz technischer Hilfsmittel Bestand.

Mit der Ausbildung von Nationalstaaten als grossen administrativen Einheiten in der Moderne jedoch werden neue Instrumente der sozialen Kontrolle notwendig. Betrachtet man diese mehrere Millionen Menschen umfassenden sozialen Einheiten, in denen kodifizierte Regelsysteme gelten, sind im Lichte einer weitgehenden Anonymität der einzelnen Mitglieder der Gemeinschaft sowohl die Praktiken der interpersonalen Überwachung als auch Instrumente persönlicher sozialer Sanktionierung weitgehend ineffektiv. Die Gemeinschaft eines Nationalstaats ist folglich auf andere Mittel gesellschaftlicher Steuerung durch Sanktionen oder Ausschlusse angewiesen, die im Allgemeinen ohne Techniken und Praktiken der Überwachung nicht denkbar sind: „The social order would collapse […] if everyone felt free to lie, steal, rape or cheat whenever he or she could avoid punishment for doing so“, stellt Rule etwa zur selben Zeit wie Miller fest, unterstreicht dabei jedoch auch die Notwendigkeit einer zentralisierten Verarbeitung von Daten zum Zweck sozialer Kontrolle, die stets auch die Voraussetzungen für individuelle Freiheiten sichert. Es überrascht daher nicht, dass Überwachung als das dominante Organisationsprinzip der Spätmoderne identifiziert wird, das über die letzten vier Jahrzehnte immer grössere Auswirkungen auf Machtstrukturen, institutionelle Praktiken und interpersonale Beziehungen entfaltet hat. Trotz der negativen Assoziationen, die oft mit staatlicher Überwachung in Verbindung gebracht werden, wird es gleichwohl als die Aufgabe des Staates betrachtet, die Bedingungen der individuellen Freiheiten sicherzustellen. Wie an anderer Stelle ausgeführt, sind diese Grundsatze ebenfalls als Teil der politischen Moderne und ihrer Organisationsformen zu betrachten. Bürger*innen sind vor Unterdrückung oder Beschneidung ihrer Freiheiten durch Andere zu schützen. Die Umsetzung dieses Prinzips liberaler Demokratien ist undenkbar ohne die Praxis der Überwachung. Sie ist daher nicht als repressiver Antagonist zu freien und freiheitlich organisierten gesellschaftlichen Strukturen zu denken, sondern sichert in einem instrumentellen Sinn ein Regelsystem ab, ohne das individuelle Freiheit nicht möglich ist.

Das Narrativ vom Angriff auf die Privatheit durch computergestutzte Überwachung wird durch eine weitere begriffliche Differenzierung getragen, die im 17. Jahrhundert entstanden ist und Privatheit und Öffentlichkeit als einander wechselseitig ausschliessende Konzepte definiert, die sich schliesslich auch als materiell-lokalisierbare Raume beschreiben lassen. Die Dichotomie ‚öffentlich vs. privat‘ ist seither die Grundlage für normative Rahmenbedingungen liberaler Demokratien. Sowohl der von Miller konstatierte Angriff auf die Privatheit als auch die spiegelbildlich angeordnete und in nicht minder drastischer Metaphorik diagnostizierte ‚Tyrannei der Intimität‘ als ‚Verfall und Ende des öffentlichen Lebens‘ durch die Grenzüberschreitung des Privaten in die Öffentlichkeit bleiben ohne die dichotom angeordnete und normative Referenzfolie ohne Sinn. Vor dem Hintergrund dieser gilt Überwachung daher stets sowohl als staatliches Instrument, das individuelle Rechte auf Privatheit verletzt, als auch als eine Notwendigkeit, um Bürger*innenrechte zu verteidigen. Die negativen Assoziationen mit der Praxis der Überwachung – invasiv, aggressiv, repressiv – sind direkte Konsequenz aus normativen, epistemologischen (u. a. Subjektivität vs. Objektivität, siehe Abschnitt 2) sowie aus diesen politisch-institutionellen Dualismen der Moderne. Das Narrativ, das die digitalen Informations- und Kommunikationstechnologien als Antagonisten der Privatheit und individuellen Freiheit beschreibt, ist ihre Weiterführung. Doch entsteht das Subjekt – dem als einem epistemologischen Anker die individuellen Freiheiten und ein Schutzbedürfnis zugeschrieben werden können – ironischerweise erst aus der Praxis der Überwachung. Wie Foucault bekanntermassen über die panoptische Anordnung der Sichtbarkeit (‚Gefangene‘ und ‚Wächter‘) herausarbeitet, ist sie stets konstitutiv für bestimmte, räumlich definierte Subjektzuschreibungen mit klaren sozialen Rollen in Klöstern, der Psychiatrie, im Krankenhaus, im Gefängnis, in der Fabrik oder in der Schule. Die Anordnung der Sichtbarkeit und Sichtbarmachung des Subjekts hat somit einen produktiven Effekt, sie erlaubt erst die moderne Vorstellung von Subjekten als Ergebnis einer Suche nach der objektiven Wahrheit.

Staat und Bürger*innen, Privatheit und Öffentlichkeit, Beobachtete und Beobachter* innen – dichotom angelegte Begriffe der Moderne prägen sowohl die Konzeptionierung als auch die Evaluation von Überwachungspraktiken. In der Folge orientiert sich auch die Bewertung der Technologie an diesen normativen Bezugsgrössen, verkennt jedoch zumeist die skizzierte komplexe Dynamik der Überwachung als eine notwendige strukturelle Voraussetzung für individuelle Freiheit und zugleich als notwendige und produktive Praxis zur Herstellung eines Subjekts, dem diese Freiheiten überhaupt erst zugeschrieben werden können. Seit einigen Jahren ist eine Veränderung dieser Dynamik zu konstatieren. Die Dichotomie Bürger*innen/Staat, mit der eine hierarchische top-down– Relation der Überwachung einhergeht, wird ergänzt und in Teilen sogar verdrängt von effektiven und umfassenden Möglichkeiten der Überwachung, die durch grosse Unternehmen durchgeführt wird. Die Auseinandersetzung verläuft entlang komplexerer Relationen zwischen Staat, Unternehmen, Bürger*innen oder Konsument*innen (siehe Abschnitt 4). Auch das Begriffspaar öffentlich/ privat wird in seiner wechselseitigen Exklusivität zunehmend in Frage gestellt. Dies liegt in erheblichem Masse an neuen Kommunikationsraumen, die sich von örtlich bestimmbaren und physisch manifesten Raumen (öffentliche Plätze, private Schlafzimmer) gelöst haben. Kommunikationsmedien erlauben eine zwischenzeitlich völlig ‚normalisierte‘, bisweilen sehr öffentliche Kommunikation aus dem Schlafzimmer. Sie sind jedoch nicht als Ursache für den Zerfall dieser Grenze zu identifizieren. Die (medien-)technologischen Praktiken decken vielmehr erst auf, dass das dichotome Schema nie in Reinform existierte. Der (kommunikative) Alltag der Gegenwart ist nicht nur sehr stark ‚durchdrungen‘ von digitalen Medien, sondern vielmehr durch diese konstituiert. Sichtbarmachung, Selbstdarstellung und Transparenz(zwänge) der mobilen Online-Kommunikation verändern den normativen Wert des Privaten. ‚Seeing surveillantly‘ ist zu einer alltäglichen Praxis des Sehens, zu einer Form des Zugangs zu einer sozialen Welt geworden. Auch die zumeist hierarchisch geprägte Zuordnung von Beobachteten, die dem Blick (verborgener) Beobachter* innen ausgeliefert sind, scheint angesichts der gezielten gegenseitigen Sichtbarmachung und Überwachung in der Online-Kommunikation oder der bewussten Inkaufnahme eines Teilens personenbezogener Daten mit Dritten obsolet. Derartig dichotome Kategorien sind nicht mehr sinnvoll anwendbar, das durch ihre normative Struktur gespeiste Narrativ der digitalen Überwachungstechnologien als Aggressor und Gefahr qua Funktionalität setzt sich jedoch fort.

2. „Digitale Überwachung ist allwissend“ – Omniszienz, Vorsehung und Big Data

Auch das zweite bedeutende Narrativ der digitalen Überwachung ist stark verflochten mit einer konzeptionellen Dichotomie der Moderne entstanden, Objektivität und Subjektivität, und vereint sie zugleich mit einer judäo-christlichen Motivik: Allgegenwart und Allwissenheit. Allgegenwärtig ist die digitale Überwachung durch (medien-)technische Entwicklungen (wie Smartphones oder Tracking Devices), die soziale Interaktionen mittels datenbasierter Plattformen ermöglichen und konstituieren. Jede durch diese vollzogene oder dokumentierte kommunikative Handlung erzeugt ein detailliertes Datenwissen, das dem Narrativ zufolge in einer Allwissenheit durch universelle Datafizierung mundet. Daten geben demnach Auskunft über Alter, Geschlecht, Bildung, Arbeitssituation, sexuelle Orientierung und Identität, politische Ansichten, getätigte Einkaufe und Kaufkraft, moralische Ansichten, Kreditwürdigkeit, gesundheitsspezifische Interessen, Religionszugehörigkeit u. v. m. Die Informationen über Nutzer*innen digitaler Dienste werden dabei in Tausende einzelne Kategorien oder Attribute ausdifferenziert. Sie werden in vielen Fällen allein aus dem Online-Verhalten abgeleitet. In der soziologischen und kulturwissenschaftlichen Theorienbildung wird diese Veränderung einer nicht langer auf Präsenz basierten Überwachung in der Regel als Ablösung der panoptischen Allsichtbarkeit durch datenbasierte ‚Kontrollgesellschaften‘ beschrieben. An die Stelle einer visuellen Überwachung in materiell definierten Raumen tritt eine Überwachung der in Daten transponierten Subjekte („data subjects“), die durch permanente Messung, Evaluation und Kontrolle von Leistung und Folgsamkeit am Arbeitsplatz, in Bildungssystemen oder in Kontexten der medizinischen Prävention oder Therapie charakterisiert ist. Die Vorstellung der Überwachung wird damit diffus: Sie wirkt überall, unbemerkt und nicht langer verortet und definiert. Es ist ein pantheistischer Datenglaube, der sich hier mit dem Objektivitätsdiktum der Aufklarung paart. Die Daten sind nicht nur in allem, sie sind konstitutiv für alles.

Trotz einer Verschiebung der Überwachungspraxis von lokalisierten Körpern zu Datensubjekten ist der eng mit dem Panoptismus verbundene Impetus der Aufklarung, die Wahrheit aufzudecken, in den heutigen digitalen Datenpraktiken sehr präsent. Überwachung als Praxis der Sichtbarmachung ist mit den Kulturtechniken der Beobachtung, Vermessung und regelgeleiteten, formalisierten Welterschliessung eine Geste der Aufklarung. Die grossen Datenmengen rücken uns vermeintlich näher an die ersehnte Objektivität heran: Indem unsere sozialen Beziehungen und Interaktionen, unsere Erfahrungen, Erlebnisse, Emotionen und Gefühle vollständig zu einem computerisierbaren Datenkorpus werden, können die nur ausschnitthaften Erkenntnisse über die Welt überwunden werden.  

Der Datenreichtum ist als direkte Fortsetzung des objektivistischen Narrativs von der Abbildung der Welt zu verstehen. Neben einer technologischen (durch eine grössere Quantität von Daten und eine verbesserte Rechenleistung) und analytischen (durch effektivere Identifikation von Mustern) Dimension von ‚Big Data‘ ist die mythische Zuschreibung von Wahrheit, Präzision und Objektivität an das mithilfe dieser Datenbestande konstruierte Wissen entscheidend. Zwar ist der Begriff ‚Rohdaten‘ ein Oxymoron, da Daten niemals in einer reinen, ursprünglichen, unbearbeiteten – eben ‚rohen‘ – Form vorliegen können, und doch gelten sie als transparent, eigenevident, objektiv, als die kleinsten Einheiten der Wahrheit. Die Grundlagen dieses Mythos werden mit den epistemologischen Normen der geistesgeschichtlichen Moderne geschaffen, die Subjekt(ivität) und Objekt(ivität) klar voneinander scheidet und neben der Möglichkeit des Objektiven auch das Streben nach Wissensaggregation und Omniszienz hervorbringt. Dieser Mythos wird in der jüngeren Vergangenheit in regelmässigen Abständen am Leben erhalten und mit den jeweiligen technologischen Bedingungen aktualisiert. Ähnliche Narrative finden sich etwa bereits in den Diskursen der virtuellen Realität: Die Annahme einer Überführung der Welt in mathematisch definierbare Raume, die aus diskreten, manipulierbaren Einheiten (pixel) bestehen, ist nichts weniger als die computertechnische und ästhetische Realisierung des aufgeklärten Traums einer durch Formeln und Repräsentationen erschliessbaren Welt. Die motivischen Verflechtungen mit christlichen Traditionslinien weisen dem Körper eine sekundäre Stellung zu – das schwache Fleisch – und konzentrieren sich auf die alles durchziehenden Informationen als Einheiten der Welt: Geist über Materie.

Die Narrative der Allwissenheit, Allsichtbarkeit und Allgegenwart werden auf der Projektionsflache derzeitiger Daten- und Überwachungspraktiken auf zukünftige Ereignisse oder Handlungen einzelner Individuen ausgeweitet, die vermeintlich antizipiert werden können. Verbunden mit der Idee von Schutz und Strafe findet sich das Auge der Vorsehung motivisch auch in ‚Big Data‘- Diskursen als eine höhere Macht. Mit der Technik des profiling in polizeilichen, administrativen, medizinischen oder sicherheitspolitischen und militärischen Kontexten erlaubt diese Macht einen vermeintlichen Blick auf zukünftige Entwicklungen oder Szenarien. Diese Form der Überwachung des Zukünftigen ist eine Simulation von Überwachung, weil das darin produzierte Wissen kein realisiertes Bezugsobjekt hat. Das durch predictive policing oder predictive diagnostics produzierte Wissen macht virtuelle, in der Möglichkeit vorhandene Ereignisse, die noch nicht eingetreten sind, gegenwärtig und damit real. Die konstruierte Beobachtung dessen, was noch nicht geschehen ist, aber vielleicht geschehen wird, erweitert die ‚Big Data‘-gespeisten Narrative der Allwissenheit und das Motiv des Auges der Vorsehung als Schutz- und Bestrafungsinstanz. Praktisch ermöglicht erst die weitreichende ‚Datafizierung‘ die Extrapolation des Zukünftigen aus dem vermessenen Bekannten.

Medientechnisch und -ästhetisch setzt sich hier die mit den Massenmedien vorgezeichnete Ablösung der Simulation von ihren Referenzobjekten fort. Die simulierte Überwachung drückt sich sprachlich in Begriffen wie pre-crime für eine Praxis in der Kriminologie und ‚Schläfer‘, ‚Gefährder‘ oder Risikosubjekt als Kategorien für Individuen aus. Sie wird durch die kollektiv geteilten Bestrebungen, zukünftige Straftaten zu verhindern oder zukünftig entstehenden Krankheiten entgegenzuwirken, zu einer eigenen Realität vor dem eigentlichen Fakt. Das Profil als Referenzobjekt der simulierten Überwachung muss nicht legitimiert werden, es ‚funktioniert‘, da es sich durch die Angabe seiner eigenen Irrtumswahrscheinlichkeit bereits selbst validiert. Ein falscher Blick in die Zukunft ist somit Teil der prognostischen Überwachung und sichert sie damit auch gegenüber Vorwürfen fehlerhafter Vorsehung ab. Prospektive Überwachung deckt daher keine Wahrheiten auf, sondern konstruiert diese im Akt der Sichtbarmachung. In höchstem Masse problematisch wird dies durch bestimmte Wertungen und Wertigkeiten, die bereits in den Daten angelegt sind. Eines der bekanntesten Beispiele, das die wertende Datafizierung von Subjekten und deren zukünftigem Verhalten dokumentiert, ist die im Jahr 2016 von ‚ProPublica‘ – einer Plattform fur investigativen Journalismus – veröffentlichte Arbeit Machine Bias. Darin wird die Software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) dargestellt, die an US-amerikanischen Gerichten als Werkzeug zur Entscheidungsfindung genutzt wird, um die Wahrscheinlichkeit für eine erneute Straffälligkeit von Individuen automatisiert zu bewerten. COMPAS evaluiert dabei zusätzlich die Notwendigkeiten und/oder Bedürfnisse im Zusammenhang mit einer Resozialisierung der/ des Angeklagten und gibt Empfehlungen dazu ab, wer auf Kaution entlassen werden kann, inklusive der Kautionshöhe. Im Zuge der Recherche von ‚ProPublica‘ wurden die Risikobewertungen von mehr als 7.000 Personen, die in den Jahren 2013 und 2014 in Broward County (Florida) festgenommen worden waren, mit der Anzahl der von diesen tatsächlich neu begangenen Straftaten über einen Zeitraum von zwei Jahren verglichen. Die Autor*innen stellten fest, dass die Risikobewertung bei der Vorhersage gewalttätiger Straftaten ‚bemerkenswert unzuverlässig‘ war; eine entsprechende Prognose war nur in einem Fünftel der Falle korrekt. Neben der sehr hohen Irrtumswahrscheinlichkeit zeigten sich auch deutliche Disparitäten bei der Risikobewertung in Abhängigkeit der Hautfarbe der Straftäter*innen: „The formula was particularly likely to falsely flag black defendants as future criminals, wrongly labeling them this way at almost twice the rate as white defendants. White defendants were mislabeled as low risk more often than black defendants“. 

Neben der Verlässlichkeit der von der COMPAS produzierten Prognosen erscheint auch die Datengrundlage zweifelhaft. Die von der Firma Northpointe (heute: Equivant) entwickelte Software verspricht dabei eine Bewertung von Variablen wie Anger, Criminal Personality, History of NonCompliance, Residential Instability, Substance Abuse, Social Adjustment Problems und Socialization Failure. Als Grundlage der Prognose dienen Daten, die über eine Befragung von straffällig gewordenen Personen generiert werden. Zu den insgesamt 137 Items zählen:

„Based on the screener’s observations, is this person a suspected or admitted gang member?

– No, Yes“

„If you lived with both parents and they later separated, how old were you at the time? – Less than 5, 5 to 10, 11 to 14, 15 or older, does not apply“

„How many of your friends/acquaintances have ever been arrested? – None, Few, Half, Most“

„How often have you moved in the last twelve months? – Never, 1, 2, 3, 4, 5+“

„Thinking of your leisure time in the past few (3–6) months […] How often did you feel bored? – Never, Several times/mo [month, T. C. B.], Several times/wk [week, T. C. B.], Daily“

„I have never felt sad about things in my life. – Strongly Disagree, Disagree, Not Sure, Agree, Strongly Agree“

„A hungry person has a right to steal. – Strongly Disagree, Disagree, Not Sure, Agree,

Strongly Agree“

Neben einer detaillierten Evaluation des sozialen Milieus stehen hier Fragen nach der persönlichen Einstellung zu einem komplexen ethischen Dilemma oder gar die subjektive Einschätzung der Interviewer*innen. Die verzerrte Prognose ist daher nicht etwa die Konsequenz aus einer automatisierten Datenanalyse, sondern vielmehr den Bedeutungen und Gewichtungen geschuldet, die einzelnen Variablen und ihren Werten im Zuge der Operationalisierung zugeschrieben werden. Mit Faktoren wie einer (durch die Interviewer*innen vermuteten) Zugehörigkeit zu einer Gang oder der Anzahl straffällig gewordener Bekannter und Freund*innen, wird die individuelle Strafanfälligkeit u. a. durch soziale Milieus erhoben, die häufig entlang einer identitätsstiftenden ethnischen Zugehörigkeit organisiert sind. Gruppenidentität, indirekt und implizit auch definiert durch Hautfarbe, markiert Individuen.

Jüngere wissenschaftliche Arbeiten stellen die Risiken dieser Art von ‚Dirty Data‘ („inaccurate, skewed, or systemically biased data“) heraus:

Deploying predictive policing systems in jurisdictions with extensive histories of unlawful police practices presents elevated risks that dirty data will lead to flawed or unlawful predictions, which in turn risk perpetuating additional harm via feedback loops throughout the criminal justice system.

Durch die automatisierte Analyse grosser – möglicherweise auch ‚schmutziger‘ – Datenmengen entsteht gleichwohl der Eindruck einer zusätzlichen Objektivierung eines dabei zu Tage geforderten Wissens. Die Fokussierung des Zukünftigen im Narrativ der Überwachung ist eingebettet in den umfassenderen und für die Spätmoderne charakteristischen Diskurs der Risikominimierung und des Vorsorgeprinzips. Von dem ursprünglich deskriptiven Ziel statistischer Auswertungen kommend, über die probabilistischen Aussagen über Risiken und deren Minimierung, verschreibt sich die analytische Vision heute dem Preemptionsparadigma, dem zufolge gar die Entstehungsbedingungen für Risiken identifiziert und verhindert werden sollen. Zu den tradierten Denkfiguren auf dem Weg dorthin zählt daher auch das Vorhandensein sozialer Ordnungsmuster. Begreift man, wie Armin Nassehi es vorschlägt, Digitalisierung als „soziologisches Projekt“, kann seine Erkenntnis, dass „die gesellschaftliche Moderne immer schon digital war“ kaum überraschen, weil er damit lediglich eine Erzählung fortschreibt, die im Ursprung dieses Projekts angelegt ist und sich auf die These verkürzen lasst: Gesellschaft lässt sich in Mustern beschreiben. Neben dem ‚Muster‘ hat auch das ‚Profil‘ eine mit der Moderne verbundene Diskursgeschichte. Hier wurzeln das Verschwinden des Körpers hinter seiner Übersetzung in computerisierbaren Code (‚Biometrie‘) oder die Erschaffung von in Symbole übersetzten, klassifizierbaren Datensubjekten mittels Ausweisen, Fingerabdrucken oder Passwörtern. Die Macht der digitalen Überwachung rührt vom Narrativ ihrer Allwissenheit und Allgegenwärtigkeit her, mit dessen Hilfe Normen und Deutungsmuster als ‚die objektive Wahrheit‘ durchgesetzt werden und kraft technikgestützter Vorsehung gar einen vermeintlichen Blick in die Zukunft ermöglichen.

3. „Mithilfe digitaler Überwachungstechniken können wir sehr leicht manipuliert werden“ – Unheimliche KI, Medienmacht und Vulnerabilität

Das dritte Narrativ knüpft an die Vorstellung der allwissenden digitalen Überwachung an: ‚Deep neural networks are more accurate than humans at detecting sexual orientation from facial images‘, behauptet der Titel einer Studie, in der Fotos von Einzelpersonen genutzt wurden, um Rückschlüsse auf deren sexuelle Identität zu ziehen. Die Einschätzungen menschlicher Proband*innen wurde dabei mit den Klassifikationen eines computergestutzten Analyseverfahrens verglichen. Als Ergebnis verkünden die Autoren: „Given a single facial image, a classifier could correctly distinguish between gay and heterosexual men in 81% of cases, and in 71% of cases for women. Human judges achieved much lower accuracy: 61% for men and 54% for women“. Wie eine Form der Schädelkunde unter digitalen Bedingungen muten die Ausführungen der Autoren an, wenn zu den genutzten ‚Klassifikatoren‘ sowohl die Form der Nase als auch der individuelle „grooming style“ zahlen und sie ausserdem unterstreichen: „Consistent with the prenatal hormone theory of sexual orientation, gay men and women tended to have gender-atypical facial morphology, expression, and grooming styles“.

Der Ansatz ist offen naturalistisch (siehe oben: „consistent with the prenatal hormone theory of sexual orientation“), folgt einem bipolaren Schema der sexuellen Identität und verkennt völlig deren performativen Charakter: Die Auswahl der Bilder entstammt einer US-amerikanischen Dating-Webseite, weshalb anzunehmen ist, dass sich die kulturellen Zeichen der Sexualität in der gewählten Selbstdarstellung besonders deutlich niederschlagen. Wenig überraschend wurde diese Arbeit im populären Diskurs in verbindlich klingende Schlagzeilen wie diese aus der britischen Zeitung The Guardian übersetzt: „New AI can guess whether you’re gay or straight from a photograph“. Das Motiv der Allwissenheit wird dabei in ein Machtverhältnis zu den Menschen gesetzt: Die automatisierte Datenauswertung erkennt besser als wir und blickt in uns; eine unfreiwillige, unbewusste und unheimliche Offenbarung. Dies ist das erste Element im Narrativ der Manipulationsmacht, die den digitalen Überwachungstechniken zugeschrieben wird und dabei oft angereichert ist mit Schlagworten wie ‚Künstliche Intelligenz‘, ‚Deep Neural Networks‘ oder ‚Deep Learning‘. Die ‚Tiefe‘ letzterer, die eine komplexe Binnenstruktur zwischen Eingabe und Ausgabe im informationswissenschaftlichen Modell sogenannter neuronaler Netze beschreibt, hält eine zusätzliche Metaphorik des Unergründlichen, Unverstandenen und Unkontrollierbaren bereit. Unsere Verwundbarkeit gegenüber den Maschinen, die ein Wissen über uns generieren, das wir nicht aktiv bereitstellen, vielleicht gar verborgen halten wollen, wird in einem nächsten Schritt zur Grundlage für effektive Manipulation erklärt.

Als bekanntestes Beispiel hierfür kann die computational propaganda gelten, die als Technik im US-amerikanischen Präsidentschaftswahlkampf des Jahres 2016 zum Einsatz kam. Wie 2018 bekannt wurde, hatte das britische Unternehmen Cambridge Analytica die Kategorisierung von Wähler*innengruppen als Dienstleistung verkauft und damit eine gezielte Adressierung von Nutzer*innen des sozialen Netzwerks Facebook mit selektiven Botschaften ermöglicht.  Instrument hierfür war die Konstruktion von Persönlichkeitsprofilen: Die Vermessung der Psyche (‚Psychometrie‘) sollte besonders empfängliche Zielgruppen identifizierbar machen. Zum Einsatz kam das sogenannte ‚OCEAN-Modell‘, das die Persönlichkeit eines Individuums in fünf Dimensionen beschreibbar machen will: Offenheit für Erfahrungen, Gewissenhaftigkeit, Extraversion, Verträglichkeit (Kooperationsbereitschaft, Empathie) und Neurotizismus (u. a. die erlebte Intensität negativer Emotionen). Seit Jahrzehnten in der psychologischen Forschung angewandt – und kritisch begleitet – kommt es seit einiger Zeit auch im Zusammenhang mit Daten zum Einsatz, die während des Gebrauchs von Medien (z. B. der Nutzung von Apps auf dem Smartphone) generiert werden. Die Ergebnisse dieser Analysen und die zielgerichteten Botschaften, so geht die Narration weiter, funktionieren, sind effektiv und haben massiv das Wahlverhalten beeinflusst. Oft wird diese Erzählung mit dem derzeit populären, aus der Verhaltensökonomie stammenden Begriff nudging verbunden. Hinter diesem steht die Vorstellung einer gezielten – wenngleich in seiner ursprünglichen Modellierung in wohlwollender Absicht verfolgten – Manipulation des Verhaltens, das auf Grundlage eines umfangreichen Datenwissens in seiner Musterhaftigkeit durchschaubar und dadurch vorhersagbar wird. Es handelt sich dabei nicht um Verbote oder finanzielle Anreize, die das individuelle Verhalten ändern, sondern scheinbar viel zurückhaltender um eine Wahl- und Entscheidungsarchitektur, die bestimmte Optionen begünstigt: „Putting fruit at eye level counts as a nudge. Banning junk food does not“. Die sichtbarere Präsentation bestimmter Optionen oder Standardeinstellungen soll eine Auswahl begünstigen, ohne die Wahlfreiheit einzuschränken. In seiner Umsetzung in digitalen Medien wirkt das Konzept nudging etwa durch Interface-Strukturen, die bestimmte Nutzungsweisen ermöglichen und andere ausschliessen (‚affordances‘). Zugleich erfolgt durch eine (mehr oder weniger) prominente Anordnung einzelner Funktionen oder ihre Einbettung in spielerische Kontexte (als gamification z. B. durch das Sammeln von Punkten) auch stets eine Priorisierung und Steuerung von Handlungen. Nicht lange hat es gedauert, bis jemand im Anschluss daran eine sprachlich-konzeptionelle Originalität ersann: ‚Big Nudging‘. Dirk Helbing stellt unter diesem zusammengeschusterten Begriff in apodiktischer Eindeutigkeit fest: „Wer über grosse Datenmengen verfügt, kann Menschen auf subtile Weise manipulieren“. Der „zu Grunde liegende Wissenschaftsansatz wird ‚Behaviorismus‘ genannt und ist eigentlich längst veraltet“ und doch wurden unsere „psychologischen Unzulänglichkeiten ausgenutzt“. Grundlage seien die „oft ohne unser Einverständnis gesammelten persönlichen Daten“, mit denen sich offenbare, „was wir denken, wie wir fühlen und wie wir manipuliert werden können“ und schliesslich kaufen wir „überteuerte Produkte“ oder „solche, die wir nicht brauchen“ oder geben „unsere Stimme einer bestimmten Partei“.

Wenn doch, so mag man einwenden, der Behaviorismus veraltet ist, wie kann uns nudging dann überhaupt in diesem Sinne erzählt werden? Wohl weil eine solche Erzählung opportun und in hohem Masse anschlussfähig an bestehende narrative Strukturen ist. Sie gibt dem Erwartbaren eine Stimme. Das Konzept nudging aber beschreibt Tendenzen, die sich erst in grösseren Populationen zeigen, und folgt keinem behavioristischen Ursache-Wirkungs-Prinzip, dem jede/r Einzelne unterworfen ist. Was hinter dieser dominanten Narrationsstruktur hingegen weniger sichtbar wird, sind die Konsequenzen aus der Fiktion eines klassifizierbaren ‚Psycho-Subjekts‘, das durch die psychometrischen Verfahren und die anschliessende individualisierte Adressierung (etwa im genannten Beispiel der Wahlkampfkommunikation) entsteht. Sie führt zu einer Fragmentierung der Öffentlichkeit in selektive Kommunikationsraume, in denen emotionalisierende oder falsche Informationen Widerhall finden. Dies beschädigt potentiell die öffentliche Debatte, die politische Diskurskultur, kollektiv geteilte Identitäten als Figuren sozialen Zusammenhalts oder die Referenzfigur einer gemeinsamen (Medien-)Realität. Besondere Vulnerabilität schliesslich wird im Zusammenhang mit unseren Gefühlen unterstellt. Einen relativ neuen Diskurs stellt das Paradigma des affective computing dar, in dessen Mittelpunkt eine Mensch/Maschine-Interaktion steht, die gezielt die Emotionen der Nutzer*innen anspricht und diese auch analysieren kann. In der ursprünglichen Definition – „computing that relates to, arises from and deliberately influences emotion“ – ist das manipulative Element dieser Kommunikationsdimension zwischen Menschen und Maschine bereits explizit angelegt. Heute immer populärer werdende künstliche Kommunikationsagenten wie textbasierte chat bots, sogenannte smart speakers (die über eine Sprachsynthesefunktion verfügen und damit eine menschliche Sprechstimme künstlich erzeugen können) und zu einem gewissen Grad auch social bots, nähern sich einer als natürlich empfundenen sprachlichen Interaktion an. Noch stärker anthropomorphisierte Elemente zeigen sich in sozialen Robotern, wie sie etwa bereits in der Pflege zum Einsatz kommen, deren ausgeprägteste Form in einer humanoiden Morphologie liegt. Sie sind als Interfaces mit weitreichenden Funktionen ausgestattet, um verbale, non- und paraverbale Zeichen der menschlichen Kommunikation zu (de-)kodieren und durch eine eigene Körperlichkeit auch – in Mimik und Gesten – zu (re-)produzieren. Dies ist in der Tat ein Novum, da ein solches Interface Wissensbereiche einer computerisierbaren Form zuführt, die bislang als implizit galten. Dazu zählt insbesondere ein nicht eindeutig kodifiziertes Wissen im Bereich der sozialen Normen oder ein körpergebundenes Wissen wie Annahmen über die Emotionen der menschlichen Interaktionspartner*innen.

Diese Entwicklungen befördern nicht weniger als eine direkte soziale Interaktion mit den uns analysierenden Medientechniken. Die natürliche Interaktionsform mit den menschenähnlichen und vertrauenserweckenden Maschinen produziert nicht nur weiteres intimes Wissen über uns, sie steigert auch die Vulnerabilität diesen gegenüber. Doch liegt die Gefahr wohl weniger im manipulativen Potential dieser Techniken selbst, sondern vielmehr in der Bedeutung, die diesem Wissen zugeschrieben wird: Die Rede von Persönlichkeitsmerkmalen, die anhand der Stimme analysiert werden oder einer computergestützten Beobachtung der Mimik, die die ‚wahren‘ Emotionen offenlegt, verweist auf Wissensformen, die sich aus den oben skizzierten Narrativen speisen. Sie geben vor, etwas zu erkennen, das der menschlichen Wahrnehmung entgangen ist, und sie werden zugleich mit dem Nimbus der Objektivität ausgestattet, die einer maschinellen Intelligenz unterstellt wird. Dies sind die Gefahren, die aus den Narrativen der digitalen Überwachung entstehen. Eine Bewerberin, eine Verdächtige, ein Patient – sie alle werden möglicherweise mit einem vermeintlich objektiv qua Körperzeichen generierten Wissen über ihre Persönlichkeit und Emotionen konfrontiert, das zur ‚eigentlichen‘ Realität wird. Es entstehen Fiktionen des Emotionalen, die nicht objektiv vermessen werden, sondern vielmehr emotionale Zustände normieren und mit dem Zwang zur Optimierung negativ konnotierter, unerwünschter oder unproduktiver Ausprägungen versehen. Auch hier hat die Überwachung folglich keine enthüllende Funktion. Mit ihrer Hilfe wird vielmehr ein Wissen konstruiert, das soziale Machtstrukturen durchsetzt und verstärkt. Die Narrationsmuster der manipulativen Macht neuer (Medien-)technologien müssen als historische Konstante angesehen werden. Die Vorstellung, Computer als Persuasionstechnologien einzusetzen, kann auf diskursive Vorläufer wie das Mitte der 1990er Jahre ins Leben gerufene ‚Persuasive Technology Lab‘ der Stanford University zurückblicken, dessen Forschungsziel erklärtermassen die computer- und mediengestützte Verhaltensänderung von Menschen ist (und nicht etwa die Erforschung der Bedingungen, unter denen uns Dritte manipulieren wollen). Blickt man weiter zurück, sei an die dem Kino oder dem Fernsehen in ihrer jeweiligen Frühphase zugeschriebenen Medienwirkungen erinnert und an die befürchteten Auswirkungen von Gewaltdarstellungen in Filmen oder die Angst vor unterschwellig gesetzten Reizen als manipulative Strategien in der Kino- und Fernsehwerbung. Die manipulative Macht der Medien – so zeigt der Blick auf diese historischen Analogien – wird jedoch tendenziell überschätzt. Ihnen liegen typischerweise stark behavioristisch eingefärbte Medienwirkungsmodelle zugrunde, eine ganz offensichtliche Gemeinsamkeit mit den heutigen Ängsten um die digitale Überwachung.

4. Theorien der digitalen Überwachung – Die narrative Dimension von ‚Analyse‘ und ‚Lösung‘

Wissenschaft und ihre Theorienbildung folgen zumeist pflichtschuldig der Geste des Neuen, suchen nach der Zäsur, der Problematisierung und daran anschliessend der Lösung – was war, was ist, was könnte sein? Auch in den Versuchen, der Phänomene der computergestützten, digitalen Überwachung analytisch habhaft zu werden, steckt immer auch eine narrative Struktur, die ihrerseits Erwartungen und Befürchtungen prägt.

Überwachungspraktiken sind historisch betrachtet keine neue Entwicklung und dennoch wird ihre seit vier Jahrzehnten andauernde und stets zunehmende Bedeutung – wie bereits ausgeführt (vgl. Abschnitt 1) – als zentrales Ordnungsprinzip der Spätmoderne identifiziert. Angesichts der Beschwörung einer surveillance society und den surveillance studies als beigeordneter akademischer Disziplin, stellt sich allerdings die Frage, ob es sich bei ihren Gegenständen tatsächlich um Ausprägungen eigenständiger Phänomene handelt, oder durch die Ausrufung eines eigenen Zeitalters die historische Kontinuität der untersuchten Entwicklungen zum Verblassen gebracht wird. Unbestritten ist hingegen, dass qualitative Veränderungen von Überwachungspraktiken und -techniken eine theoretische Ausdifferenzierung erfordern. Am prominentesten wird eine Verschiebung der Machtverhältnisse mit diesen Veränderungen verknüpft, die stets mit einer mehr oder minder impliziten Bedrohungslage assoziiert wird. Die new surveillance der computerbasierten Überwachung erlange ein Wissen, das das beobachtete Subjekt nicht hat. Nicht länger das einzelne Individuum, sondern eine Menge aggregierter Daten seien im Fokus dieser Überwachung. Der Begriff dataveillance beschreibt die technische Praxis des Aufbaus und der Analyse grosser Datenbestände, mit denen Filterfunktionen im Sinne einer Rasterfahndung möglich werden. Begriffe wie electronic superpanopticon stellen sich in Kontinuität zum Panoptismus, betonen jedoch zugleich, dass sich durch die Netzstruktur und die Logik der Datenbank die klassischen Grenzziehungen (innen/aussen, Beobachter*innen/Beobachtete) nicht aufrechterhalten lassen. Die Rede von einer digital enclosure wiederum unterstreicht die Spezifik der digitalen Kommunikationsmedien, in denen neben den Interaktionen selbst auch Daten über diese entstehen (z. B. Ort, Zeit und Dauer). Fuchs et al. betonen den globalen Massstab datenbankbasierter Internet- und Social Media-Überwachung und deren erhebliche sozialen und ökonomischen Implikationen. Zuboff diagnostiziert eine neue Form des Kapitalismus – surveillance capitalism – mit negativen Effekten auf die demokratische Ordnung; Couldry/ Mejias erzählen die universelle Datafizierung vor einer narrativen Schablone des Kolonialismus (data colonialism), in der die massenhafte Datenextraktion als gleichbedeutend mit der Aneignung sozialer Ressourcen begriffen wird. Doch auch eine Neujustierung der Machtverhältnisse findet sich in den wissenschaftlichen Konzepten, die neue Formen der Überwachung beschreibbar machen wollen und sie dadurch zugleich auf eine bestimmte Weise narrativieren: Counter surveillance wendet sich gegen bestehende Hierarchien durch den Mächtigen entgegengesetzte Praktiken der Überwachung. Dazu zählen beispielsweise die Dokumentation von Polizeigewalt durch Smartphone-Kameras, die sich in durch soziale Medien hergestellten Öffentlichkeiten einfach und schnell verbreiten kann, oder auch leaking von geheim gehaltenen Dokumenten. Zusammen mit Formen gegenseitiger Überwachung (der alltäglichen Recherche anderer Personen etwa) als lateral surveillance werden die Machtverhältnisse und -dynamiken diffus und komplexer. Zugleich findet sich aber auch die Gegenfigur des totalen Überwachungsstaats, die derzeit am häufigsten auf China als ein mahnendes Beispiel projiziert wird.

Die derzeit diskutierten Probleme im Kontext der digitalen Überwachung werden bestimmt von Diskursen um den Schutz von Privatheit und personenbezogenen Informationen, um technische Lösungen zur Herstellung von Datensicherheit oder den (Un-)Möglichkeiten, Verantwortungs- oder Haftungsfragen im Kontext der Verarbeitung von Daten eindeutig zu bestimmen. Die konzeptionelle Vielfalt bei der gegenwärtigen Theorienbildung zum Gegenstand der Überwachung bringt folglich auch eine erhebliche Unsicherheit zum Ausdruck. Die Praxis der Überwachung – solange sie aus einer dyadischen Struktur aus Beobachter*innen und Beobachtetem bestand – kannte klare Zuschreibungen von Akteur*innen und damit einhergehende Konzepte. Die ‚moderne Anordnung‘ übersetzt dieses Schema in Relationen wie Staat/Bürger*innen oder Öffentlichkeit/Privatheit. Dies scheint konzeptionell überholt, denn die dyadischen Strukturen bilden vor allem das Verhältnis eines zentral organisierten Staats zu seinen Bürger*innen ab. Wie weiter oben dargelegt, sind die gegenwärtigen Narrative der digitalen Überwachung die direkte Folge aus noch immer prävalenten epistemologischen sowie politisch-institutionellen Dualismen der Moderne, die jedoch – angesichts der ökonomischen Akteur*innen und neuen Praktiken der Sichtbarmachung des Selbst – sowohl in konzeptioneller als auch in struktureller Hinsicht an Gültigkeit eingebüsst haben. Liess sich etwa Verantwortung ehemals einzelnen, klar definierten Akteur*innen zuschreiben, liegt heute eine netzwerkartig organisierte agency vor, in der Verantwortung verteilt ist und gern als Liste von Algorithmen, Programmierer*innen, Hersteller*innen, Nutzer*innen etc. ausbuchstabiert wird. Auch hierin darf man eine (narrative) Verschiebung in der Zuschreibung von Verantwortung mit dem Ziel der Kontingenzreduktion wähnen. Distributed agency führt zu distributed responsibility. Was theoretisch-konzeptionell überzeugt, bleibt jedoch praktisch unbefriedigend. Das Konzept der Verteilung klart Verantwortlichkeit nicht auf, sondern stellt lediglich ihre ‚Diffusion‘ fest und Verantwortbarkeit damit gleichzeitig in Frage. Die Suche nach ‚Lösungen‘ als Antwort auf die diagnostizierten Probleme orientiert sich dennoch an eben jenen klaren Strukturen (z. B. Öffentlichkeit/Privatheit oder Verantwortlichkeit) als einem Ideal. Lösungen weisen damit selbst eine narrative Struktur auf, die auf die ehemals geordneten Verhältnisse rekurriert und das (prinzipiell) unerreichbare Ziel ausgibt, diese unter veränderten sozialen und technologischen Bedingungen wiederherzustellen. Sie müssen an der Praxis scheitern.

5. Schluss

Die nunmehr digitalen Überwachungstechniken und -praktiken sind sowohl symptomatisch als auch konstitutiv für grössere gesellschaftliche und technologische Entwicklungen. Die zahlreichen Widersprüche in ihrer Bewertung rühren nicht zuletzt daher, dass die lange verlässliche Ordnung der Moderne seit Jahrzehnten an Gültigkeit einbüsst. Überwachung – reduziert meist auf eine bedrohlich entworfene Technik – wird als einer der Urheber dieses Zerfallsprozesses inszeniert. Die Sorge um ihre destruktive Macht und um ihre unkontrollierbare Allwissenheit findet Widerhall in den allgemeinen Unsicherheiten der Spätmoderne. Dabei wird nicht nur häufig verkannt, dass Überwachung nicht nur die Bedrohung ist, als die sie erzählt wird. Selbstverständlich kann sie die persönliche Freiheit und Autonomie bedrohen, doch ist sie zugleich ein wichtiges Werkzeug, diese überhaupt erst herzustellen. Auch scheint es, als wurde mit den Gefahrennarrativen zugleich die strukturelle Klarheit und Sicherheit einer modernen Welt zurückgesehnt. Überwachung erfüllt in einem instrumentellen Sinne wichtige gesellschaftliche Funktionen. Sie muss jedoch stets aufs Neue legitimiert und einer kritischen Bewertung unterzogen werden. Die narrativen Muster dürfen dabei ihre Evaluation nicht überlagern: Überwachung darf nie Selbstzweck oder default sein. Wie wird sie gerechtfertigt? Welche Wissensformen werden in ihr generiert und zu welchem Zweck werden sie eingesetzt? Welche Wertungen und Hierarchien werden durch Anordnungen der Überwachung bereits durchgesetzt? Welche Subjekte und sozialen Gruppen werden auf welche Weisen gedeutet? Die Theorie selbst erzählt stets eine eigene Geschichte. Dieser Text ist keine Ausnahme.  

Narrative der Überwachung: Typen, mediale Formen und Entwicklungen; Kilian Hauptmann, Martin Hennig; Hans Krah; Peter Lang GmbH; 2020

https://www.peterlang.com/view/9783631827475/9783631827475.00012.xml

Zur einfacheren Lesbarkeit wurden die Verweiszahlen entfernt. CC

https://creativecommons.org/licenses/by/4.0/


© Swiss Infosec AG 2024