Privatheit und Digitalität – Teil 2

Privatheit und Digitalität – Teil 2

08/2022

 

Problemfelder des selbstbestimmten Lebens in einer digitalen Datenökonomie

 

3.1 Sichtbarkeit – datafizierte Subjektivierungspraktiken

Zeitgenössische Praktiken der digitalen Vernetzung, für die insbesondere digitale Medien wie Facebook oder Instagram reichhaltiges Anschauungsmaterial liefern, unterscheiden sich von historisch früheren Ausrichtungen des Privatlebens sehr weitreichend dadurch, dass ein vergleichsweise breites Aussenden von Informationen über sich selbst zu einer wichtigen Grundlage der Bestimmung des eigenen Selbst wird. Dies ist keineswegs einfach ein disruptiver Effekt digitaler Technologien auf Privatheit, sondern beruht auf der Verstärkung älterer gesellschaftlicher Entwicklungen im Bereich privater Lebensführung, die unter Bedingungen der Digitalität erweiterte Ausdrucksmöglichkeiten finden. Zu solchen Entwicklungen gehört die aus der Romantik hervorgegangene Wertschätzung von Einzigartigkeit, Authentizität, Individualität oder auch Singularität ebenso wie das Bedürfnis nach bzw. eine gewisse Abhängigkeit von sozialer Bestätigung durch Peer Groups. Zwar sind Darstellungen des sozialen Status kein neues gesellschaftliches Phänomen, vergleichsweise jung ist aber die Verbreitung starker Verunsicherungen des Selbstwertgefühls, die zur Suche nach Halt in sozialen Bezugsgruppen antreiben und den dort geltenden Meinungen hohen Orientierungswert verleihen.

Für dieses kulturelle Handlungsprogramm einer Selbstbestimmung, die durch die Suche nach der eigenen Besonderheit und deren soziale Bestätigung und Wertschätzung geprägt ist, bieten die digitalen Plattformen und Netzwerke geeignete Hilfs- und Ausdrucksmittel, deren Nutzung unter Rekurs auf Foucault damit auch als Selbst-Technologie bezeichnet werden kann. Während Tagebücher, Briefe und dergleichen als Selbst-Technologien früherer Epochen gelten, sind Social Network Sites (SNS) paradigmatische Beispiele für deren zeitgenössische Ausformung. Eine zentrale Rolle spielt hierbei das Anlegen digitaler Profile im Rahmen solcher Sites. Sie ermöglichen zum einen die Demonstration der Vielfältigkeit von Interessen und Formen des Welterlebens und zum anderen eine kuratierende Zusammensetzung der verschiedenen Facetten des Selbst zu einem identifizierbaren Ganzen. Mit dieser Arbeit am digitalen Abbild oder Spiegel des Selbst einher geht allerdings zwangsläufig dessen Materialisierung in umfangreichen Datenspuren, deren Informationsgehalte und -wirkungen sich nicht mehr ohne Weiteres kontrollieren lassen.

Neben diesem Aspekt einer datenintensiven Subjektivierungspraxis ist für die Gegenwartsgesellschaft zugleich eine zunehmende Datenabhängigkeit der Selbstbestimmung zu konstatieren. Denn in zunehmendem Maße werden die umfangreichen digitalen Sammlungen und Auswertungen solcher Daten zum eigenen Selbst für dessen Ausformung und Orientierung wichtig. Nicht mehr nur die soziale Peer Group bietet dann den gewünschten Außenhalt des verunsicherten Selbst, sondern maßgeblich auch deren digitale Repräsentationen in Daten und Zahlen. Praktiken des Self-Tracking oder Quantified-Self, welche die Wertschätzung der eigenen Person mittels algorithmisierter Feedbackmechanismen objektivieren und pflegen, sind hierfür exemplarisch. Das Sicherheitsproblem der Kontrolle und Verbreitung personenbezogener Daten, so ließe sich zuspitzen, wird zunehmend vom Problem der Orientierungsunsicherheiten und -bedarfe datenbezogener Personen verdrängt oder doch zumindest überlagert.

Digitalität setzt damit die herkömmliche Sichtweise auf den Zusammenhang von Privatheit und Selbstbestimmung unter Druck. In dieser Sichtweise war die Herstellung von individueller Autonomie an die Verfügung über Möglichkeiten der individuellen Informationskontrolle sowie an Phasen des Rückzugs in die Kontemplation gebunden. Wenn nun aber unter zeitgenössischen Bedingungen dieser Zusammenhang aufgegeben wird, weil Autonomie nicht länger in datensparsamen Praktiken der bürgerlichen Privatheit gewonnen und geschult wird, sondern das breite Aussenden personenbezogener Informationen zum Zwecke der öffentlichen Selbstexploration und der Nutzung digitaler Feedbacktechnologien zwingend erfordert, verändert dies auch den normativen Sinn von Privatheit. Denn ein Festhalten an klassischen Kontroll- und Rückzugstechniken der Privatheit droht nun, die Möglichkeiten der Persönlichkeitsentfaltung durch digitale Unsichtbarkeit und das Kappen potenziell wichtiger Verbindungen und Teilhabemöglichkeiten zu behindern. Ein moralischer Appell an datensparsames Verhalten der individuellen Nutzerinnen digitaler Technologien, wie er bis heute von den Institutionen des Datenschutzes wie selbstverständlich vorgebracht wird, findet mithin in den Subjektivierungspraktiken des digitalen Zeitalters keine robuste Verankerung mehr, sondern verweist im Grunde nur noch auf – durchaus erhebliche – Übergangsprobleme einer soziotechnischen Transformation des selbstbestimmten Lebens.

Für die Lösung dieser Übergangsprobleme kann aber die individuelle Informationskontrolle und -zurückhaltung kaum das probate Mittel sein, da der strukturelle Widerspruch zum Erfordernis der digitalen Sichtbarkeit alltagspraktisch kaum auszubalancieren ist. Gleichwohl setzen sich klassische Praktiken und soziotechnische Muster der Gewährleistung von Privatheit auch unter Bedingungen der Digitalvernetzung zunächst fort. Dies beginnt etwa bei regulativen Maßnahmen zur besseren Informierung über Datenspuren und Sichtbarkeiten und setzt sich fort in Privatsphäreneinstellungen und Verschlüsselungsoptionen, die den Nutzerinnen in Kontexten sozialer Digitalvernetzung erweiterte Möglichkeiten der Informationskontrolle geben sollen. Aber auch kreative und subversive Informationspraktiken der Nutzerinnen selbst versuchen den Widerspruch zu überbrücken, indem sie trotz öffentlicher Sichtbarkeit durch Einflussnahme auf die Datenproduktion Grenzen der Teilhabe für unterschiedliche Publika zu installieren versuchen. Viele wollen in öffentlichen digitalen Räumen sichtbar sein, ohne für ein unbestimmtes Publikum gleichermaßen öffentlich zugänglich zu sein. Sie nutzen dazu weniger technisch-administrativ bereitgestellte Nischen digitaler Plattformen (wie etwa private Chaträume), sondern entwickeln (oder reaktivieren in digitaler Form) Kulturtechniken der Verschleierung von Personenbezügen oder der gezielten Verunreinigung von Daten. Neben der Verfälschung von Profilbildern oder der Vermeidung von Klarnamenangaben sind dies insbesondere Praktiken sozialer Steganographie, d. h. einer kryptischen Kommunikation, deren Botschaften trotz öffentlicher Sichtbarkeit nur von einem begrenzten Adressatenkreis entdeckt und entschlüsselt werden können. Systematisch erweitert werden solche Verschleierungstaktiken durch digitale Techniken der Obfuscation. Damit sind Praktiken bezeichnet, die unter Zuhilfenahme von Anwendungen wie TrackMeNot oder durch bewusste Eingabe von Falschinformationen auf eine Produktion irreführender und mehrdeutiger Daten setzen. Diese technisch orientierte und primär gegen die organisierte Sammlung und Auswertung verhaltens- und personenbezogener Daten gerichtete Obfuscation sei „generally useful in relation to a specific type of threat, shaped by necessary visibility“.

Diese verschiedenen Praktiken und Techniken der Herstellung von Privatheit unter Bedingungen digitalvernetzer Subjektivierung und Selbstbestimmung stellen Kompromisse dar, die den Widerspruch zwischen Zurückhaltung und Entäußerung nicht auflösen können. Sie weisen allesamt Probleme im Umgang mit den konträren Imperativen auf, die auf das Handlungsprogramm der Selbstbestimmung im Zuge seiner soziotechnischen Transformation einwirken. So bürden sie die Kompromissfindung weiterhin isolierten Individuen auf, die ihre digitalen Erfahrungsmöglichkeiten selbst limitieren müssen und nicht länger ohne Reue den Versprechen digitaler Sichtbarkeit nachgehen dürfen. Damit überlasten sie die digitale Alltagspraxis aber nicht nur mit widersprüchlichen Selbstbestimmungszumutungen. Vielmehr überfordern sie diese auch, weil die datenökonomischen Interventions- und Überwachungsmöglichkeiten, die großen Organisationen durch Big Data und Künstliche Intelligenz zur Verfügung stehen, von einzelnen nicht überblickt und damit kaum durch kulturelle Verschleierungstechniken oder technische Obfuscation adressiert werden können. Letztere könne der Rechenmacht der Datenökonomie nicht annähernd beikommen. Womöglich wird mit dem Festhalten an bestimmten Idealen und Praktiken der Privatheit digitale Informationskontrollmacht nur noch simuliert, wo diese gegenüber den Infrastrukturanbietern längst verloren ist. Daher stellt sich die Frage, ob und ggf. wie die mit Privatheit assoziierte Selbstbestimmungsidee auch unabhängig von individueller Informationskontrolle und trotz prämierter Sichtbarkeit gewährleistet werden kann.

 

3.2 Digitalität als Treiber des Wandels in sozialen Infrastrukturen der Privatheit

Neue Medien verändern die gesellschaftlichen Kommunikationsverhältnisse, in denen Privatheit einerseits technisch-materiell durch Beschränkung und Ermöglichung von Informationsflüssen und -teilhabe figuriert, andererseits aber auch durch medial vollzogene, kulturelle Praktiken performativ ausgeformt wird (z. B. durch Praktizierung von Kontextsensibilität, Dramaturgie von Selbstdarstellungen oder erworbene Taktiken und Erfahrungen). Es ist kaum zu leugnen, dass die Erfindung der Schrift und private Briefwechsel, neue Aufzeichnungsapparaturen, die räumliche Interaktionsdichte bei Hofe oder Architekturen asymmetrischer Verhaltensüberwachung (Benthams Panopticon) mit den Bedingungen der Herstellung von Privatheit auch das jeweilige Handlungsprogramm der Selbstbestimmung affizieren und verändern. Es ist daher wenig überraschend, dass solche Transformationseffekte auch mit der Digitalität als neuem soziotechnischem Element der Infrastrukturen gesellschaftlicher Kommunikation einhergehen. Unklar ist hingegen zunächst, welcher Art und welchen Ausmaßes diese Effekte genau sind.

Dazu muss näher in den Blick genommen werden, wie sich Digitalität in den technisch-materiellen und sozial-kommunikativen Infrastrukturen der Privatheit einnistet und ausbreitet. So ist das Neue dieser medialen Infrastruktur schon deshalb nicht leicht zu sehen, weil sich viele ältere Kommunikationstechniken darin fortsetzen: Briefverkehr und Freundschaftspflege, aber auch mündliche Kommunikation und Telefonie, Nachrichtenticker und Werbung sowie Radio, Fernsehen und Fotografie etwa. Das spezifisch Neue der Digitalität liegt demgegenüber zunächst in der Fähigkeit zur Vernetzung und Übersetzung unterschiedlichster Elemente gesellschaftlicher Kommunikation in ein einziges und höchst einfaches Medium maschinenlesbaren Codes. Das ist nur auf der Grundlage enormer infrastruktureller Rechenkapazitäten und -leistungen von Computern und Computernetzwerken möglich, in denen Techniken algorithmischer Datenverarbeitung zum Einsatz kommen. Mit der umfassenden Transformation von Informationen in Daten, die dann in ein einziges, scheinbar grenzenloses soziotechnisches Kommunikationsnetz integriert werden können, geht eine enorme Sogwirkung seitens der Digitalität auf sämtliche Bereiche des gesellschaftlichen Lebens einher: Latent versprechen digitale Infrastrukturen die Verschmelzung der gesamten Gesellschaft mit einer allumfassenden kybernetischen Kommunikationsapparatur.

Nicht nur die gewohnten Praktiken der Privatheit geraten damit unter Transformationsdruck, vielmehr muss Privatheit mit der massiven gesellschaftlichen Expansion digitaler Infrastrukturen als Element von Digitalität neu hergestellt, d. h. aktiv und kreativ re-konstruiert werden. Das ist aber unter den besonderen technisch-medialen Bedingungen der Digitalität etwas gänzlich anderes als das analoge Zurückhalten von Geheimnissen oder physische Zurückziehen hinter Schutzmauern und geschlossene Türen. Denn die Form digitaler Daten und deren Speicherung und Zirkulation in umfangreichen Computernetzen schaffen gänzlich neue Voraussetzungen für das Etablieren und Kontrollieren von Beschränkungen des Informationsflusses – und damit auch für eine Kultur des Takts, für Vergessen, audience segregation oder andere privatheitsrelevante Kommunikationsmuster. Hier stellen sich nicht nur Fragen nach den technischen Möglichkeiten von privatheitsfreundlichen Infrastrukturen im Medium des Digitalen; vielmehr ist auch ganz entscheidend, wer über die mit der Einrichtung soziodigitaler Infrastrukturen verbundene Definitions- und Gestaltungsmacht hinsichtlich des Verhältnisses von Privatheit, Selbstbestimmung und Digitalität verfügt. Wie lässt sich das Handlungsprogramm eines selbstbestimmten Lebens unter Bedingungen erneuern, unter denen vom gesamten Leben eine digitale Spur oder digitale Repräsentation existiert? Was folgt daraus für die soziale Aushandlung, Beteiligung und Gestaltung im Zuge der Entwicklung von Kommunikationsinfrastrukturen? Und kann der Sinn von Privatheit und Selbstbestimmung überhaupt verlustfrei im Rahmen einer allumfassenden kybernetischen Informationsinfrastruktur eingeholt werden?

Diese Fragen stellen sich in allen Bereichen fortschreitender Digitalität, sei es bei der Transformation der Ökonomie durch digitale Plattformen, Digitalisierung der Arbeit und Industrie 4.0, bei der Pflege von Sozialbeziehungen und öffentlichen Kommunikation mittels Social Media Anwendungen wie Facebook, Instagram, WhatsApp oder Twitter oder bei der Durchdringung des Alltags mit Sprachassistenten, Robotik und smarten Endgeräten aller Art. Die emergierenden soziodigitalen Infrastrukturen verändern die gesellschaftliche Kommunikation und die individuelle Lebensführung so massiv, dass Privatheit und Selbstbestimmung davon grundlegend beeinflusst werden. Dies zeigt sich exemplarisch an den infrastrukturellen Möglichkeiten kontinuierlicher Verhaltensüberwachung und intelligenter Feedback-Schleifen, die Mensch und Maschine in Echtzeit verkoppeln. In immer mehr Verhaltensbereichen, vom Schlafen und Musikhören über das Suchverhalten und Einkaufen bis hin zum Autofahren und der körperlichen Bewegung erhält eine adaptive digitale Zwischenschicht in die Strukturen des Alltagslebens Einzug. Diese künstlich intelligenten Infrastrukturen zielen darauf ab, aufgezeichnete Verhaltensäußerungen und -muster als Trainingsdaten zu nutzen, um darüber die eigenen Algorithmen effizienter und lernfähiger zu machen. Zugleich werden aber auch die Erkenntnisse über die Verhaltenslenkungseffekte von infrastrukturellen Situationsrahmungen und Entscheidungsarchitekturen immer feiner, wodurch bestimmte Verhaltensäußerungen und -muster gezielter angeregt oder genudged werden können, etwa um ausgeruhter aufzuwachen, musikalisch ermuntert zu arbeiten, ausgewählte kommerzielle Lösungen für individuelle Probleme zu erwägen, mehr Schritte zu Fuß zu laufen oder vorsichtiger und energiesparender Autozufahren. Beide Anpassungspotentiale digitaler Infrastrukturen – die des machine learnings ebenso wie die der gezielten Verhaltensbeeinflussung – erhöhen die Trefferquote und Vorhersagekraft algorithmisch verarbeiteter Verhaltensdaten, sodass es nicht schwerfällt, sich vorzustellen, dass beides zugleich stattfindet und sich wechselseitig stützt, antreibt, verstärkt und verselbstständigt.

Mit einer solchen Verschmelzung oder Hybridisierung von Mensch und kybernetischer Informationsmaschine durch die Allgegenwart digitaler Infrastrukturen wird Privatheit potentiell selbst zu einem Muster algorithmisch modellierbarer Verhaltensdaten. Informationelle Privatheit erschöpft sich dann nicht mehr in praktischen Entscheidungen darüber, wie sehr das eigene Leben und die eigenen Erfahrungsräume den digitalen Verarbeitungsprozessen überhaupt zugänglich gemacht oder aber verborgen werden. Denn auch das ist etwas, das als Verhaltensmuster sensorisch erfasst, digital verdatet, algorithmisch verarbeitet und probabilistisch vorhergesagt werden kann. Privatheit wird dann eingelesen in die digitale Maschine und darin algorithmisch re-konstruiert und verdoppelt, teilweise aktiv von den Nutzenden unterstützt durch Festlegung von Privatsphäreeinstellungen oder Cookie-Präferenzen, teilweise aber auch durch die Übersetzung rechtlich-normativer Anforderungen in digitalen Code oder die Verwendung künstlich intelligenter Assistenten und Privacy-Nudges. Daraus folgt aber, dass die digitalen Technologien maßgeblich mitgestalten, was Privatheit eigentlich ist und wie diese erlebt wird. Digitalität erzeugt eine neue, zweite Version von Privatheit, deren Parameter in durchaus nicht feststehenden, sondern designten, programmierten, adaptiven und maschinell lernenden IT-Infrastrukturen bestimmt werden, und die faktische Präsenz und empirische Akzeptanz dieser digitalen Muster der Privatheit entfalten normierende Wirkungen auf die Privatheitspraxis der Nutzenden, deren digitale „Repräsentation“ sie sein wollen und sollen.

Einmal angenommen, die Feedback-Schleifen zwischen den praktischen – sei es individuellen, kollektiven oder auch rechtlich-normativen – Privatheitsdispositionen der Handelnden und deren digitaler Repräsentation in den Infrastrukturen führten durch maschinelles Lernen und Verhaltensanpassungen tatsächlich zu einer sehr weitgehenden Konvergenz: Ließe die Hybridisierung das Programm der Selbstbestimmung damit unberührt, weil die infrastrukturelle Stütze doch lediglich eine digitale Kopie dessen wäre, was die Menschen als Privatheit wollen, sollen oder gewohnt sind? Die Antwort lautet nein, weil es in einer solchen hybriden Welt den Verweis auf ein außerdigitales Subjekt der Selbstbestimmung gar nicht mehr geben kann und fortan das, was als Selbstbestimmung gelebt wird, immer ununterscheidbar auch auf jene Handlungsnormierungen zurückgeht, die in die digitalen Infrastrukturen algorithmisch einprogrammiert sind. Der Unterschied ist dabei nicht, dass es nun ein soziotechnisch materialisiertes Privatheitsdispositiv gebe, wohingegen Privatheit vorher völlig frei von solchen infrastrukturellen Rahmungen gewesen sei. Denn wie eingangs betont wurde, sieht die Soziologie in der gesamten Geschichte der Privatheit solche Dispositive und soziomateriellen Figurationen am Werk. Entscheidend für das Neue des digitalen Wandels von Privatheit ist vielmehr, dass diese Infrastrukturen nun zum Objekt der IT-Gestaltung werden und somit die Frage aufwerfen, wer auf die Verschmelzung von Digitalität und Privatheit mit welchen Mitteln und Verfügungsmöglichkeiten Zugriff hat und Einfluss nimmt. Die Frage der Selbstbestimmung ist mithin untrennbar mit der Frage verbunden, wer die Pfade auszurichten und vorzuprägen vermag, auf denen die Verhaltensparameter der Praxis mit ihren Re-Präsentationen in den digitalen Kommunikationsnetzen bis zur Ununterscheidbarkeit konvergieren. Denn diese Pfade und Richtungen sind kontingent und können von einseitigen Interessen und Dienstbarmachungen der Technik dominiert sein. Aus diesem Grunde steht auch die digitalisierte Version von Privatheit unvermeidlich vor der Herausforderung, die mit ihr verbundene Idee der Selbstbestimmung auf der Ebene ihrer soziotechnischen Parameter einzig durch demokratische Prozeduren und Beteiligung an der digitalen Infrastrukturgestaltung sicherstellen zu können. Anders ist sie gegenüber der kybernetischen Maschinerie und ihren Programmierern kaum zu retten.

 

3.3 Verhaltensmodellierung in Geschäftsmodellen der Datenökonomie

Die wichtigsten und treibenden Gestalter und Verwalter soziodigitaler Infrastrukturen sind heute große Privatunternehmen, deren Geschäftsmodelle maßgeblich mitbestimmen, wie Daten über das private Verhalten (einschließlich Privatheits-Verhalten) digital erhoben und verarbeitet werden sowie auf deren Träger über diverse Schnittstellen modifizierend oder stabilisierend zurückwirken. Um zu verstehen, wie genau diese Geschäftsmodelle ihren normierenden Einfluss auf das hybride Handlungsprogramm der Selbstbestimmung entfalten und ausüben, müssen die Strukturprinzipien oder Funktionsweisen der Datenökonomie genauer erfasst werden: Nach welcher Logik erfolgt die ökonomische Verwertung der digital anfallenden Datenmassen, und was folgt daraus für die Praktiken der digitalen Subjektivierung und deren spezifische Ausrichtung?

Der Digitalität ist eine Expansionsdynamik grundlegend eingeschrieben, da die Transformation und Einverleibung von content aller Art in das kybernetische Universum binärer Rechenprozesse ihr vielleicht grundlegendstes Strukturprinzip ist. Aber insbesondere zu Beginn, als die Computer noch sehr geringe Kapazitäten hatten, brauchte es sehr selektive Zugriffe auf die Vielfalt möglicher Informationseinheiten, die zunächst über die berühmten Lochkarten oder über Tastaturen händisch einzugeben waren. An das automatisierte Erfassen und die Vorhersage komplexer Verhaltensmuster in Echtzeit war bei den hierfür auszuwählenden Datenarten und Berechnungsvorgängen nicht zu denken. Die Entwicklung hin zur heutigen Datenökonomie, in der die massenhafte Verwertung solcher Verhaltensdaten ins Zentrum einer riesigen Industrie gerückt ist, erklärt sich daher nicht von selbst, sondern stellt eine kontingente Verlaufskurve dieser Expansionsdynamik dar, in der mehrere Faktoren zusammenkamen. Ab einem bestimmten Punkt übernimmt die Kapitalverwertung in diesem Prozess die Führung und drückt der Ausrichtung des Pfadverlaufs ihren Stempel auf. Zunächst aber mussten die dafür geeigneten datenökonomischen Geschäftsmodelle gefunden werden.

Der kulturelle Trend zur Herstellung von Sichtbarkeit und zur steigenden Abhängigkeit der Persönlichkeitsentfaltung von sozialem Peer-Feedback (s. Abschn. 3.1) kommt einer digitalen Infrastrukturentwicklung, die eine mimetische Verdopplung der Welt verspricht und mit dieser zu einem neuen soziotechnischen Hybrid verschmilzt (s. Abschn. 3.2) ohne Frage entgegen. Die enormen Überschüsse an Verhaltensdaten, die damit generiert und digital verarbeitet werden können, sind aber erst nach und nach zum primären Rohstoff einer ausgreifenden Datenökonomie geworden, die mit dieser Entdeckung auch ein Programm zur systematischen Erschließung dieser neuen Wertquelle aufzulegen beginnt (und so den strukturellen Widerspruch zwischen Sichtbarkeit und Privatheit weiter anheizt). Ein Momentum dieses Programms ist die kapitalistische Landnahme von unerschlossenen Gebieten potenzieller digitaler Verhaltensüberwachung, -vorhersage und -steuerung mittels smarter Technologien und Künstlicher Intelligenz. Diesen Landnahmeprozess hat Shoshana Zuboff in ihrem monumentalen Werk zur Datenökonomie nachgezeichnet: Am prototypischen Beispiel von Google zeigt sie auf, dass es sich bei den lukrativen Verhaltensdaten zunächst um Nebenprodukte und Metadaten handelt, die bei der Nutzung des digitalen Suchdienstes angefallen sind. Zu Beginn der Unternehmensgeschichte wurden diese noch zur Verbesserung der Trefferquoten des Suchalgorithmus verwendet. Als profitabel erwiesen sie sich jedoch erst, als die Möglichkeit erkannt wurde, mithilfe dieser Daten präzise Vorhersagen über zukünftiges Verhalten abzuleiten, die sich an Dritte, d. h. an die eigentlichen „Kunden“ datenökonomischer Unternehmen, verkaufen ließen. So besteht ein Versprechen ökonomischer Verhaltensvorhersagen darin, personalisierte Werbung genau dann präsentieren zu können, wenn eine hohe Wahrscheinlichkeit besteht, dass Personen tatsächlich aufgrund von Werbeanzeigen ihr Verhalten ändern. So erreicht „kaum ein anderes Marketinginstrument als die von Google bzw. Facebook gesteuerte Werbung (...) nahezu die gesamte Weltbevölkerung und kann den (per Datenanalyse vermuteten) individuellen Wünschen und Bedürfnissen angepasst werden.“

Mit der ökonomischen Profitabilität solcher Vorhersageprodukte rückt die Produktion von datenförmig verwertbaren Verhaltensüberschüssen zunehmend ins Zentrum digitaler Geschäftsmodelle und -praktiken, wobei das Verhalten damit selbst zweitrangig und zunehmend für andere Zwecke instrumentalisiert wird. So können das Akquirieren von Freundschaften, das Auswählen von Produkten, das Streamen von Musik, körperliche Erregungszustände oder die alltäglichen Bewegungen durch die smarte Stadt, letztlich alles, was statistisch signifikante Verhaltensmuster offenbaren kann, durch Schaffung geeigneter digitaler Plattformen gezielt evoziert und für datenökonomische Unternehmungen erschlossen werden. Dabei greifen dann bestimmte Strukturbedingungen und Mechanismen, die in das Privatleben eingreifen, dieses nicht unerheblich umformen und dabei auch Privatheitsvorstellungen und -erwartungen tangieren. Neben einer hohen Zahl von Nutzerinnen und den sich daraus ergebenden Netzwerk- und Lock-in Effekten, die einen Wechsel zu anderen Anbietern schwierig machen und zu Monopolbildungen auf den Märkten beitragen, benötigen Unternehmen mit der Durchsetzung dieser Geschäftslogik nämlich die möglichst umfassende datenförmige Erfass- und Verarbeitbarkeit von privaten und sozialen Lebensvollzügen, um ökonomisch gegenüber den dominanten Playern mithalten zu können.

Die resultierenden Privatheitsrisiken betreffen hierbei keineswegs nur die missbräuchliche Verwendung personenbezogener Daten. Denn sobald Verhaltensvorhersagen die wesentliche Grundlage des Geschäftsmodellerfolgs darstellen, kann auch das Potential zur Beeinflussung von Verhalten durch Nudging und andere soziodigitale Feedbackstrukturen zur zentralen wertschöpfenden Technologie werden, die auf eine zunehmende Hybridisierung von menschlichen und digital-algorithmischen Verhaltensparametern hinauslaufen. In diesem Sinne sind Unternehmen, die sich dem datenökonomischen Extraktionsimperativ verschreiben, auf eine Verankerung und Ausweitung datenbasierter Subjektivierung zunehmend angewiesen. Offen bleibt damit nur noch die Frage, welche Konsequenzen die infrastrukturelle Verankerung dieser ökonomischen Imperative durch Unternehmen der Datenindustrie für das moderne Handlungsprogramm der Selbstbestimmung zeitigt.

 

3.4 Resultierende Paradoxien digitaler Selbstbestimmung

Datenintensive Subjektivierung wird im Rahmen der beschriebenen Konstellationen mit dem Ziel angereizt, einen „Verhaltensüberschuss“ zu generieren und so möglichst gut steuerbares Userverhalten zu erzielen. Die daraus gewonnenen Daten werden in erster Linie nicht zur Verbesserung von Produkten oder Dienstleistungen genutzt, sondern sind Bestandteil eines Vermarktungsapparats. Sie werden somit als mehrwertgenerierende Ressource betrachtet, was schließlich in einen Imperativ des Datensammelns umschlägt. Um Verhaltensdaten erzeugen zu können, muss es Datenökonomien allerdings zunächst gelingen, soziale und kulturelle Prozesse in die eigenen digitalen Infrastrukturen hineinzuziehen und entsprechende Anreizsysteme zu schaffen. Datenökonomische Strukturen docken hierfür an jene soziokulturellen Dispositionen an, die für die Datenproduktion förderlich sind und locken so Nutzerinnen in ihre Netzwerke.

Ein paradigmatisches Beispiel hierfür liefern Self-Tracking-Apps aus dem Bereich der Health- und Fitnessplattformen. Sie stellen den Nutzerinnen der Plattformen in erster Linie eine Infrastruktur zur Formung datenbasierter Subjektivität bereit. Die mobilen Anwendungen auf dem Smartphone spiegeln das eigene Gesundheitsverhalten in Form aggregierter und modifizierter Daten an die Nutzerinnen zurück und wollen diesen so ermöglichen, auf ihr eigenes Gesundheitsverhalten gezielt einzuwirken, etwa durch Änderung des Lebensstils oder die Nutzung passgenauer Trainingspläne. Sie nehmen damit auf das moderne Handlungsprogramm der Selbstbestimmung direkt Bezug, dass allerdings die Nutzung digitaler Datendienste und die Bereitschaft zur Ko-Produktion erforderlicher Datensätze und -schätze nunmehr voraussetzt. Hierbei stellt sich allerdings das Problem ein, dass somit auch das moderne Selbstbestimmungsideal instrumentalisiert und zu einem Mittel wird, Targeting-Objekte für die Werbeindustrie zu erzeugen. Wenn sich in das Handlungsprogramm der Selbstbestimmung über die Verhaltensrelevanz digitaler Daten ökonomische Konzerninteressen mischen, wird „die vordergründig versprochene selbstbestimmte Selbst-Bestimmung (...) zur fremdbestimmten Bestimmung des Selbst“. Die resultierenden Kapazitäten zur Verhaltenssteuerung werden gezielt dafür eingesetzt, die Profitabilität am Markt zu erhöhen. Datenbasierte Selbstbestimmung wird zum bevorzugten und vielversprechenden Zielobjekt all jener Geschäftsmodelle, die unter dem ökonomischen Regime des Überwachungskapitalismus das Potenzial digitaler Infrastrukturen zur Verhaltensformung zu erschließen und einzusetzen trachten.

Damit wird die diagnostizierte Verschmelzung von Privatheit und Digitalität vermittelt über die Gestaltungsmacht datenökonomischer Konzerne an kommerziellen Zwecken ausgerichtet und geraten hergebrachte Vorstellungen von Selbstbestimmung in einem doppelten Sinne unter Druck: Nicht nur wird das Festhalten an einem Konzept von Privatheit fraglich, das die Verantwortung für das Ausbalancieren der ökonomisch induzierten oder gesteigerten Paradoxien datenbasierter Selbstbestimmung in erheblichem Maße beim individuellen Rechtssubjekt verankert sieht; vielmehr wird zugleich die politische Frage aufgeworfen, wie lange diese ökonomische Rahmung und Übersetzung eines mit Privatheit verbundenen Selbstbestimmungsprogramms mit den Normen und Konventionen kollektiver Selbstgesetzgebung in einem demokratischen Gemeinwesen noch vereinbar sind. Denn während aktuell noch an regulatorischen Konzepten informationeller Selbstbestimmung festgehalten wird, die die einzelne Nutzerin adressieren, obgleich beispielsweise ein Informed Consent weitere Mitsprache jenseits einer – häufig binären – Eingangswahl weitgehend auszuschalten gestattet, zeigt sich die erheblich folgenreichere Entscheidungsgewalt auf der Ebene jener Gestaltungsakteure, die über das Potenzial digitaler Infrastrukturen zur Verhaltensbeeinflussung und Handlungsnormierung verfügen. Folglich bleibt das Recht auf individuelle Selbstbestimmung halt- und kraftlos, wenn es nicht durch ein Recht auf kollektive Selbstbestimmung abgesichert und gestützt wird, wie es sich in der Idee demokratisch verfasster Gemeinwesen ausdrückt, die wiederum auf kritisch kompetente Bürgerinnen angewiesen bleiben. Um diesem Konstitutionszusammenhang auch in Zeiten Geltungskraft zu erhalten oder zu verleihen, in denen digitale Infrastrukturen das selbstbestimmte Leben prägen und formen, wird die Verfügung über datenökonomische Gestaltungsmacht, deren rechtsstaatliche Kontrolle und zivilgesellschaftliche Verankerung, zu einer demokratischen Schlüsselfrage.

 

Fazit: Soziodigitale Privatheit demokratisch gestalten!

In Deutschland und Europa gibt es das breite Bekenntnis, verhindern zu wollen, dass demokratische Selbstbestimmung, demokratische Grundrechte und demokratische Werte und Ordnungsprinzipien durch digitale Überwachung ausgehöhlt werden. Zur Rhetorik dieses Bekenntnisses gehört auf der einen Seite die Abgrenzung gegenüber dem Digitalisierungspfad der USA, wo die Gestaltungsmacht über soziodigitale Infrastrukturen in den Händen weniger privater IT-Konzerne konzentriert ist, die das Geschäftsmodell digitaler Verhaltensbeobachtung und -führung zur Blüte gebracht haben. Auf der anderen Seite wird ebenso kritisch auf autoritäre Regime verwiesen, die diese Gestaltungsmacht unter staatliche Kontrolle bringen und die behavioralen Lenkungseffekte soziodigitaler Infrastrukturen und Überwachungstechniken wie beim chinesischen Social-Credit-System an eigenen normativen Standards ausrichten und top down diktieren. Beide Entwicklungspfade der Digitalität – verstanden als neue, transformierende Schicht, die in die gesellschaftlichen Kommunikationsverhältnisse Einzug erhält und mit diesen zur ununterscheidbaren Soziodigitalität verschmilzt – gelten hierzulande als privatheitsfeindlich und widersprechen den normativen Prinzipien der Selbstbestimmung, wie sie in der europäischen Tradition angelegt und verstanden werden und die Entfaltung des demokratischen Gedankens maßgeblich geprägt haben.

Doch bei all diesem Bekenntnis bleibt unklar, wie eine alternative demokratische Ausgestaltung der soziodigitalen Privatheit eigentlich aussehen müsste und ob der eingeschlagene Pfad europäischer Datenschutzpolitik hierfür geeignete Antworten parat hält. Denn die demokratische Rhetorik kann sich in eine problematische Legitimationsfassade verwandeln, wenn der dritte Weg digitaler Verhaltens- und Privatheitsnormierung seinerseits bloß rechtsgültige Auslegungen der informationellen Selbstbestimmung top down als Parameter einer Infrastrukturgestaltung zu implementieren trachtet, die ansonsten ganz in der Hand privatökonomischer Initiative verbleibt. Denn die eingezogenen Schranken der Verbreitung und Nutzung personenbezogener Daten durch Prinzipien der Datensparsamkeit oder des Privacy by Designs könnten sich als – durchaus nicht unwichtige, aber – schwache Elemente einer Infrastruktur erweisen, deren Ausrichtung im Ganzen darauf hinausläuft, der gesellschaftlichen Kommunikation und individuellen Lebensführung ein digitales Skelett einzuziehen, das nach Eingewöhnung als neue, dritte Natur erscheint. Eine digital ausgerichtete Privatheit kann immer noch Teil einseitig kontrollierter datenökonomischer Verhaltensprogramme sein und verhindert solche Machtasymmetrien nicht zwingend. Es gilt etwa in Rechnung zu stellen, dass das digital konfigurierte Privatheitsverhalten, welches sich in der sorgsamen Limitierung von Browser-Cookies, der Einschränkung von Sichtbarkeit oder der Verschlüsselung von Mitteilungen manifestiert, irgendwann nur noch der „Simulation“ eines selbstbestimmten Lebens dienen könnte, wodurch die gesellschaftliche Transformation in ein postdemokratisches Regime asymmetrischer Verhaltensüberwachung zwar milder erschiene, dessen Akzeptanz aber gesteigert würde. Privatheitsfreundliche Digitalität könnte sich somit als perfides Mittel erweisen, den Kontrollprogrammen neuer und alter Ordnungsmächte die erforderliche Massenloyalität zu verschaffen und Verhaltenskonformität abzusichern.

Soll ein solcher postdemokratischer Transformationspfad in die neue, soziodigitale Lebenswirklichkeit verhindert oder im Namen der Selbstbestimmung zumindest ernsthaft bekämpft werden, sind weitere demokratische Selbstbestimmungsprinzipien in der soziodigitalen Infrastrukturgestaltung zu verankern. Anstelle einer restriktiven Privatheitskultur wäre – auch vor dem Hintergrund des langen Zivilisationsprozesses, der mit der Geschichte von Privatheit verbunden ist – an die Schaffung und Absicherung einer Vertrauenskultur zu denken, die maßgeblich all jene adressiert, die mit sensiblen Daten hantieren und daraus digitale Verhaltensrepräsentationen und -feedbacks formen. Angesichts der Wirkmacht datenökonomischer Imperative ist allerdings nicht anzunehmen, dass sich eine Beschränkung der mit massenhaften Verhaltensdaten verfügbaren Gestaltungsmacht von selbst etabliert. Es braucht dafür schon Gegenkontrollmacht und -mechanismen sowie insbesondere auch einen ehrlichen öffentlichen Streit über das gesamte normative Gerüst der neuen soziodigitalen Kommunikationsverhältnisse. Eine Konzentration allein auf Privatheit droht den Gehalt von Selbstbestimmungsnormen nicht mehr wirklich ernst zu nehmen und stattdessen allein auf Sicherheit, Stabilität und liberale Ordnung zu setzen. Demokratische Selbstbestimmung ermöglichen die verschiedenen rechtlich-institutionellen Elemente und intermediären Stützen einer soziodigitalen Vertrauenskultur sowie öffentlichen Problematisierungen soziodigitaler Normativität erst dann, wenn sie eine zentrale Kompetenz individueller ebenso wie kollektiver Selbstbestimmung nicht unterminieren, sondern stärken, nämlich die Fähigkeit zur Kritik der normierenden Gehalte und Effekte soziodigitaler Infrastrukturen. Denn auch Kritik ist nicht unabhängig von soziotechnischen Verhaltenskonfigurationen.

Sie kann aber – verglichen mit formal-rechtlicher Privatheit – einen robusteren Widerstand gegen die Tendenzen und ökonomischen Imperative verankern, die auf eine digitale Fremdprogrammierung des Lebens hinauslaufen. Sie ist daher auch unter soziodigitalen Bedingungen der entscheidende Schlüssel für ein selbstbestimmtes Leben.

Die oft angemahnte Transparenz von verhaltensnormierenden Algorithmen, ohne die sich ihre diskriminierenden Effekte gewiss kaum identifizieren ließen, kann hierfür allerdings nur eine notwendige, keine hinreichende Bedingung liefern. Denn sie setzt die Kompetenz zur Kritik bereits voraus, deren Reproduktion unter soziodigitalen Lebensbedingungen jedoch nicht mehr unabhängig von den algorithmischen Rahmungen des Verhaltens gegeben und gesichert ist. Folglich ist es erforderlich, Kritikabilität und Kritikfähigkeit nicht in einem imaginativen Außen der Digitalität zu verorten, etwa in der reinen Innerlichkeit des Privatsubjekts oder der Unparteilichkeit einer technikneutralen Rechtsordnung, sondern als Element der ganz und gar unreinen soziodigitalen Hybridität selbst zu verankern, etwa durch ein „design of our supposedly smart architectures […] based on agonistic debate, built-in falsifiability and a robust constructive distrust. This should result in testable and contestable decision systems“. Wohl hat der öffentliche Diskurs ein gewisses Problembewusstsein für mögliche manipulative Praktiken auf und mittels Plattformen erzeugt und die betreibenden Unternehmen zu korrigierenden Eingriffen gezwungen. Mit der Einrichtung von Kontrollgremien (z. B. Facebooks Oversight Board) und freiwilligen Transparenzmaßnahmen wehren diese die Herausforderungen jedoch nur oberflächlich ab. Um Kritikfähigkeit in soziodigitalen Umgebungen zu erhalten und systematisch zu fördern, braucht es ein genaueres Verständnis für die Reproduktionsbedingungen dieser Kompetenzen: Diese sind auf das Einüben von Urteilsfähigkeit in praktischen Situationen angewiesen, in denen eindeutige Urteilsalgorithmen nicht zur Verfügung stehen, wie es die ubiquitäre Digitalität fälschlich suggeriert, sondern aus einer Pluralität von Konventionen und Rechtfertigungsordnungen heraus praktisch entschieden und begründet werden muss, was richtig ist und was falsch, was gut ist und was schlecht. Dazu braucht es aber nicht nur den Zugang zu den Konventionen, d. h. die Sichtbarkeit jener impliziten normativen Ordnungen, mit denen Informationen in soziodigitalen Kommunikationsnetzen erzeugt, prozessiert und bewertet werden, sondern auch ein öffentliches Bewusstsein von deren Kontingenz, die reflektierende Exploration von Alternativen sowie einen demokratischen Zugriff auf ihre infrastrukturelle Ausgestaltung. Nur wenn die Kommunikationsinfrastrukturen effektiv gewährleisten, dass der Faden zur kritischen Praxis nicht reißt, die die (algorithmischen) Urteilsroutinen immer wieder mit den Unbestimmtheiten und Konflikten des sozialen Lebens konfrontiert und mit einer Pluralität an normativen Registern der Rechtfertigung begründend zu vermitteln sucht, kann Privatheit unter soziodigitalen Bedingungen ein Ort der Selbstbestimmung bleiben.

 

CC BY

Lamla, J., Büttner, B., Ochs, C., Pittroff, F., Uhlmann, M. (2022). Privatheit und Digitalität. In: Roßnagel, A., Friedewald, M. (eds) Die Zukunft von Privatheit und Selbstbestimmung. DuD-Fachbeiträge. Springer Vieweg, Wiesbaden.

https://doi.org/10.1007/978-3-658-35263-9_4

Zur einfacheren Lesbarkeit wurden die Quellenverweise und Fussnoten entfernt.

 

Datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen