Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Privacy als Paradox

04/2023

1. Problemaufriss

Der Streit um Daten und Datennutzung ist eine der zentralen Machtfragen unseres Jahrhunderts. Datenschutz und Datennutzungsrechte stehen in komplexen Spannungsverhältnissen zueinander. Digitaler Privatheitsschutz und Datenschutz als Konzept sind kontroverse, politisierte Themenfelder. Auf der individuellen Ebene von Nutzer:innen hat sich Privatheitsschutz durch Datenschutz zudem zunehmend zu einer unlösbaren Aufgabe entwickelt: Die Verbreitung persönlicher Informationen erscheint nicht mehr kontrollierbar. Das ist vor allem dann problematisch, wenn diese Preisgabe und Verarbeitung persönlicher Daten nicht mehr der autonomen Entscheidung der Betroffenen entsprechen. Die Annahme ist naheliegend, insbesondere in dem durch informationelle Machtasymmetrien und Vormachtstellung einzelner globaler Unternehmen geprägten digitalen Raum des Internets. Der Allgemeinplatz, dass Datenschutz nicht Daten, sondern Personen schützt, gerät aus dem Fokus. Denn Privatheits- und Datenschutz wird oft als innovationshindernd, paternalistisch und ineffektiv wahrgenommen. Auch das so genannte Privacy Paradox scheint mit einer Argumentationsstruktur für effektiveren Schutz zu brechen. Menschen verhalten sich höchst widersprüchlich was den Schutz ihrer Privatsphäre betrifft: sie folgen schlicht nicht ihren eigenen, zumindest kommunizierten Präferenzen. Das Privacy Paradox ist damit ein relevantes und juristisch lohnenswertes Beispiel, um die Reflektion menschlichen Verhaltens durch Recht zu untersuchen. Der Beitrag skizziert Definition, Grundlagen, und Konsequenzen des Privacy Paradox aus rechtswissenschaftlicher Perspektive und entwirft Vorschläge für Reaktionen des Rechts.

Das Privacy Paradox beschreibt das Phänomen, dass Menschen nach außen bekunden, ihre Privatheit und den Schutz ihrer persönlichen Daten besonders zu wertschätzen, dieser Selbsteinschätzung aber keine Taten folgen lassen. Ihre innere Einstellung divergiert von ihren tatsächlichen Verhaltensweisen: Der betonten Wichtigkeit von Privatheit zum Trotz geben viele Personen niedrigschwellig oder gar anlasslos höchstpersönliche Informationen über sich preis – das erscheint widersprüchlich. Das Credo, dass Privatsphäre schützenswert ist und vor allem akzessorisch andere Rechtsgüter schützt, scheint nicht mehr zu greifen. Die Divergenz zwischen inneren Einstellungen und Verhaltensweisen ist zunächst nichts Ungewöhnliches, sondern ein allbekanntes Alltagsphänomen. Das Privacy Paradox ist ebenfalls ein leicht erklärbares Verhaltensmuster, aber andererseits eine akademische Fragestellung, welche vielfach und interdisziplinär untersucht wird, jedoch immer noch umstritten ist.

In Bezug auf Privatheit und rechtliche Regulierung ist das Privacy Paradox auch deshalb interessant, da Privatheitsschutz, grundrechtlich im Recht auf informationelle Selbstbestimmung verankert, als Ausfluss persönlicher Autonomie angesehen wird. Dazu gehört auch, auf eben diese Privatheit zu verzichten.

Muss das Recht dennoch die Menschen „vor sich selbst“ schützen? Rechtliche Regulierung kann neben dem – online in großen Teilen versagenden individuellen Selbstschutz und der ebenfalls nicht sehr erfolgreichen Selbstregulierung der Industrie – ein Schutz- und Ermöglichungsmechanismus sein. Oder ist ein Regulierungsansatz, der wie im Datenschutzrecht den individuellen Rechtsgüterschutz abstrakt sehr stark betont, aber erheblichen Vollzugsdefiziten unterliegt, deshalb grundlegend falsch? Sollte Privatheit als Rechtsgut allgemein überdacht werden?

Meine Ausgangsthese ist, dass Privatheitsschutz durch Datenschutz erstrebenswert ist, auch wenn einzelne Personen sich nicht privatheitsschützend verhalten oder gar gegenläufige Präferenzen äußern; das vermeintliche Paradoxon der Privatheit ist hierfür kein Gegenargument.

2. Grundlagen des Privacy Paradoxes

Die Grundlagen des Privacy Paradox setzen sich aus dem theoretischen Verständnis von Privatheit (2.1) und der empirischen Erforschung von Verhalten zusammen (2.2), das im vermeintlichen Widerspruch zur Vorstellung von Privatheit steht.

2.1 Konzeption von Privatheit und Datenschutz im Kontext des Privacy Paradoxes

Privatheit ist seit Jahrhunderten ein kontroverses Thema und wurde bereits lange vor dem Siegeszug digitaler Technologien diskutiert. Grundsätzlich zielt Privatheit im Verständnis des Selbstbestimmungsrechts darauf ab, Menschen Autonomie zu ermöglichen und zu sichern. Deshalb ist die Idee einer universellen Definition von Privatheit auch nicht realisierbar, da sie letztlich in der individuellen autonomen Entscheidung der einzelnen Person wurzelt.

Juristisch betrachtet ist Privatheit ein unbestimmter Rechtsbegriff, der nicht explizit von Gesetzen definiert oder benannt wird. Privatheit ist gewinnbringend aus rechtswissenschaftlicher Perspektive vor allem im Hinblick auf normative Konsequenzen zu beurteilen. Ein rechtlicher Hebel für die Umsetzung ist das Datenschutzrecht, denn dieses zielt durch den Schutz personenbezogener Daten auch auf Privatheitsschutz. Privatheitsschutz und Datenschutz sind nicht deckungsgleich, haben aber viele Überschneidungspunkte. Datenschutz ist kein Selbstzweck, sondern wurzelt, ebenso wie Privatheit, im Autonomieschutz. Diese Differenzierung und gleichzeitige Rückführbarkeit auf gemeinsame Schutzgüter ist auch in den Rechtsgrundlagen reflektiert. Sowohl das Recht auf informationelle Selbstbestimmung als auch das Recht auf Datenschutz in der Charta der Grundrechte der Europäischen Union zielen auf den Schutz autonomer Entscheidungen von Individuen über ihre persönlichen Daten ab. Die Verfügungsgewalt über persönliche Daten kann den Schutz von Privatheit ermöglichen. Datenschutz hängt deshalb eng mit dem Verständnis von Privatheit und Privatheitsschutz zusammen.

Der Schutz von Privatheit dient in erster Linie der Bewahrung persönlicher Entscheidungsfreiräume, wobei die Funktionen vielfältig sind. Viele Konzeptionen von Privatheit fußten auf einer Trennung verschiedener Sphären, einem räumlich geprägten Verständnis von Öffentlichkeit und privaten Raum. Das Private findet danach „hinter verschlossenen Türen“ statt, durch die Fenster des eigenen Hauses sollte niemand schauen dürfen. Die dazu konträre öffentliche Sphäre war außerhalb dieses privaten Raumes angesiedelt, dadurch aber auch klar erkennbar. Die digitale Transformation verändert das Verständnis von Privatheit, die Vorstellung von individueller Kontrolle des Zugangs zu persönlichen Informationen ist letztlich überholt. Denn digitale, online-basierte Anwendungen brechen mit dem Verständnis der Abgrenzung durch Räumlichkeit, da sie durch ihre Konzeption selbst entgrenzend wirken. Bis heute werden diverse Konzepte von Privatheit diskutiert, welche die Entwicklungen von Privatheit in unterschiedlichen Kontexten beleuchten. Privatheit entfaltet auch eine gesellschaftliche, demokratietheoretische Dimension, die dafürspricht, auch Datenschutz nicht nur aus individueller Perspektive zu betrachten.

Die meisten Autor:innen stimmen darin überein, dass Privatheit durch quantitative Datenanalysen in digitalen Kontexten gefährdet ist und daraus negative Konsequenzen für den ökonomischen und sozialen Zugang von Bürger:innen und deren gesellschaftliche Teilhabe folgen. Andere hingegen meinen, dass nicht die gefährdete individuelle Privatheit problematisch ist, sondern fehlende Sicherheit und Sanktionen. Die Verfügbarkeit von Informationen sei kein Problem, sondern ihr Missbrauch. Überwachung durch Staat und Wirtschaft seien kein Grund zur Beunruhigung. Denn es gäbe keine Anhaltspunkte dafür, dass Menschen weniger frei seien, wenn sie weniger Privatsphäre hätten. Diese Ansicht gewichtet den Aspekt zu gering, dass die eigene Entscheidung darüber, welche Informationen preisgegeben werden, der autonome Akt ist und nicht die daraus folgenden Konsequenzen. Für die Folgen von Privatheitsverletzungen können auch der generelle Missbrauch wirtschaftlicher oder politischer Macht verantwortlich gemacht werden. Diese Faktoren beziehen sich aber auf die mittelbaren Folgen und nicht auf die Entscheidung des Individuums. Die Konsequenzen aus Privatheitsschutz sind auch nicht zwingende Geheimhaltung und Intransparenz auf allen Ebenen, sondern Entscheidungsalternativen über Informationspreisgabe.

Eine abschließende Klärung des Begriffs der Privatheit ist nicht erforderlich, um Grundlagen für die rechtliche Handhabung daraus abzuleiten. Unzweifelhaft begegnet der Schutz von Privatheit in digitalen und vernetzten Umgebungen neuen individuellen und gesellschaftlichen Herausforderungen; schon deshalb, da bei allen Onlineaktivitäten z.B. auch ohne bewusste Preisgabe von Informationen Meta- und Nutzungsdaten generiert werden. Zudem werden behaviorale und psychologische Prozesse gezielt genutzt, um die Preisgabe persönlicher Informationen zu befördern. Grundlegende Informationsasymmetrien können verhindern, dass das eigene Verhalten überhaupt den geäußerten Präferenzen angepasst werden kann.

2.2 Empirische Grundlagen: Privacy Calculus oder Privacy Paradox?

Grundlage des Privacy Paradox ist auch das Verständnis darüber, was Menschen motiviert und wie sie Entscheidungen treffen, d.h. was leitend für menschliches Verhalten ist. Dabei können persönliche Daten selbst freigegeben werden, oder es werden schlicht keine Maßnahmen getroffen, die persönlichen Daten zu schützen – was oft zwei Seiten derselben Medaille sind.

Zur Erklärung des Privacy Paradox werden unterschiedliche Theorien diskutiert. Die Argumentationsstränge unterscheiden sich vor allem darin, wie viel Rationalität den Entscheidungsträger:innen zugesprochen wird: entweder richtet sich das Verhalten nach einer Gegenüberstellung von Risiken und Vorteilen oder es erfolgt schlicht keine Risikoevaluation. Ob sich die sich von der Selbsteinschätzung divergierenden Verhaltensweisen durch rationale Kosten-Nutzen-Abwägung (2.2.1), oder Impulsivität und Irrationalität (2.2.2) begründen lassen, ist umstritten. Zudem sind Resignation und gewolltes Unwissen (2.2.3), Beeinflussung und Manipulation (2.2.4) sowie informationelle Asymmetrien und Kontextabhängigkeit (2.2.5) zu beachten.

2.2.1 Ausfluss rationaler Entscheidung

Die Idee des Privacy Calculus beruht auf der rational-choice theory und geht davon aus, dass Personen eine Kosten-Nutzen-Analyse vornehmen, bevor sie persönliche Informationen offenlegen. Die ökonomische Theorie beurteilt diese Einschätzung von Personen als handlungsleitend. Danach geben Konsument:innen dann persönliche Daten preis, wenn sie davon ausgehen, dass der erwartete Nutzen die Risiken übersteigt. Dieser kann in monetären (Rabatte, Gutschein), persönlichen (Anpassung, Individualisierung) oder sozialen Faktoren (Zugehörigkeit bei sozialen Netzwerken, Aufbau von Sozialkapital) bestehen. Ziel ist es daher nicht, stets möglichst hohen Privatheitsschutz herzustellen, sondern dass eine Balance gefunden wird und Daten bereitgestellt werden, wenn es sich für die Person lohnt.

Der Privacy Calculus hat allerdings keine Erklärung für die Preisgabe persönlicher Daten, wenn schlicht keine Vorteile bestehen, diese nicht erkennbar oder nur geringwertig sind. Denn wenn der Schutz personenbezogener Daten einen vergleichsweise hohen Stellenwert genießt, wäre nach dem Rationalitätsmodell eine Datenpreisgabe nur bei erheblichen Vorteilen zu erwarten. Diese Erwartungen werden nicht durch das tatsächliche Verhalten von Verbraucher:innen bestätigt, insbesondere im Onlinebereich bzgl. Konsum und in sozialen Netzwerken.

2.2.2 Verzerrte Risikoabwägung

Zahlreiche verhaltenspsychologische Studien haben aufgezeigt, dass Menschen sich nicht stets rational verhalten, sondern Verhaltensanomalien auftreten. Diese Urteilsfehler führen dazu, dass Informationen falsch eingeschätzt oder nicht korrekt verarbeitet werden. Es ist nicht möglich, stets alle Argumente und Informationen objektiv korrekt zu verarbeiten und danach zu entscheiden. Komplexere Risikoabwägungen sind für Menschen schwierig zu vollziehen; um Entscheidungen zu treffen, nutzen wir einfache Entscheidungsregeln, sog. Heuristiken. Diese sind Ausfluss einer begrenzten Rationalität, denn viele Personen tendieren dazu, Risiken, die mit positiv konnotierten Dingen verknüpft sind zu unterschätzen und gleichzeitig zu überschätzen, wenn sie mit Sachverhalten oder Dingen verknüpft sind, die sie nicht mögen. Auch besteht eher die Bereitschaft, sogar sensible Informationen gegen Vergütung preiszugeben als diese gegen anfallende Kosten zu schützen.

Die zeitliche Dimension bzgl. der Schadenswahrscheinlichkeit kommt hinzu: Privatheit wird in konkreten Entscheidungssituationen ein sehr geringer Stellenwert beigemessen, selbst wenn der Preisgabe ein extrem geringer Nutzen gegenübersteht – dadurch wird eine Delegation der Kosten in die Zukunft ermöglicht. Diese hyperbolische Diskontierung beschreibt, dass die zukünftigen Kosten den Vorteilen der gegenwärtigen Nutzung überproportional unterliegen. Im digitalen Bereich stellt sich die Problematik von unterschätzten Risiken und impulsivem Handeln (z.B. Clickbait) in besonderem Maße. Danach läge also kein Widerspruch zwischen Selbsteinschätzung und Handeln vor, sondern eine verzerrte bzw. fehlerhafte handlungsleitende Risikoeinschätzung.

2.2.3 Resignation und gewolltes Unwissen

Online basierte Warenkäufe und Dienstleistungen sowie smart wearables sind inzwischen so alltäglich geworden, dass die meisten Menschen diese Angebote auch wahrnehmen, wenn sie nur ein geringes Vertrauenslevel haben, es also „gar nicht so genau wissen wollen“. Neben dem praktisch unüberwindbaren Aufwand, stets die privatheitsfreundlichste Einstellung zu wählen besteht ein Wissensdefizit, welches sich gerade im Internet multipliziert. Dauerhaft informierte Entscheidungen über die tausenden involvierten Webseiten unterschiedlicher Firmen, Apps und ihren Modalitäten der Datenverarbeitung zu treffen, kann durch Einzelpersonen nicht erreicht werden. Versuche des Privatheitsschutzes enden deshalb auch oft in Resignation. Wenn Nutzer:innen ständig selbst entscheiden müssen, ob ihre Daten verarbeitet werden dürfen, führt dies nicht in wenigen Fällen zu einer „Consent-Fatigue“ und wahllosen Klicks, um weiter fortfahren zu können. In diese Richtung zielen auch die Erklärungen der Konsistenztheorien, z.B. wenn online die Dissonanz zwischen allgemeinen Bedenken und situativen Hinweisreizen zugunsten letzterer aufgelöst wird und damit z.B. die Bedeutung einer Datenschutzrichtlinie ignoriert wird.

2.2.4 Beeinflussung und Manipulation

Die rechtlichen Implikationen von Nudging und „Dark“ Patterns werden kontrovers diskutiert. Sowohl Nudging zugunsten der Nutzer:inneninteressen z.B. zur Wahl einer datenschutzrechtlichen Voreinstellung als auch Beeinflussung entgegen deren eigentlichen Interessen („Dark“ Patterns) nutzen Verhaltensanomalien gezielt aus. Mechanismen und Gestaltungen, die Nutzer:innen keine echte Wahlmöglichkeit eröffnen, z.B. die Auswahl datenschutzfreundlicher Einstellungen erschweren oder Widerspruchsmöglichkeiten nicht auffindbar in Webseiten verstecken, sind ein weiterer Umstand, der bei der Bewertung des Widerspruchs zwischen geäußerten Präferenzen zu Privatheit und tatsächlichem Verhalten berücksichtigt werden sollte.

2.2.5 Informationelle Asymmetrie und Kontextabhängigkeit

Das Privacy Paradox kann als Ausfluss fehlender bzw. begrenzter Rationalität gedeutet werden. Menschen werden von systematischen Verhaltensanomalien, sozialen Normen und Emotionen, persönlicher Erfahrung, Netzwerkeffekten und Persönlichkeitszügen beeinflusst. Einige sind der Auffassung, dass sich die wahren Präferenzen der Verbraucher:innen nur in ihrem Verhalten widerspiegeln, z.T. werden die Studien zum Privacy Paradox deshalb methodisch kritisiert. Aus rechtlicher Perspektive lässtsich die Frage darauf zuspitzen, ob schutzbezogene Vorgaben sich an der Selbsteinschätzung und ggf. auch den Wünschen der betroffenen Gruppe oder nach deren Verhalten orientieren sollten.

Hierbei ist wichtig, dass die Kontextabhängigkeit insbesondere bei Entscheidungen von Verbraucher:innen eine besondere Rolle spielt. Präferenzen werden schon deshalb nicht stets konsistent sein können, da die Situationen der Präferenzkundgabe und der tatsächlichen Datenfreigabe im digitalen Raum nicht deckungsgleich sind. Generelle Bedenken sind nicht mit situativen Bedenken gleichzusetzen. Die Absicht, sich selbst privatheitsschützend zu verhalten, kann mit situativen Problemen in Konflikt geraten und durch fehlendes Wissen, fehlende technische Expertise oder mangels Alternativen verstärkt werden. Es kommt deshalb darauf an, welche Daten wem gegenüber offenbart werden. Auch die Persönlichkeitsmerkmale der Nutzer:innen können eine entscheidende Rolle spielen.

Unabhängig von den verschiedenen Theorien zu handlungsleitenden Faktoren besteht im digitalen Raum ein erhebliches Ungleichgewicht zwischen Nutzer:innen und Anbieter:innen digitaler Produkte. Deshalb ist eine rationale Entscheidungsfindung aufgrund unvollständiger Informationen, höchst komplexen Verarbeitungsvorgängen und Unkenntnis über die Datenverarbeitungen erheblich erschwert.

Rechtlich entscheidend für eine Einordnung des Privacy Paradoxes sind zudem die abstrakte Erkennbarkeit und das Verständnis darüber, welche Daten überhaupt wem gegenüber preisgegeben werden. Informationelle Asymmetrien und das systemische Ungleichgewicht zwischen Verbraucher:innen und Firmen bspw. im Kontext von Onlinedienstleistungen müssen bei der Bewertung des Verhaltens berücksichtigt werden.

3. Rechtliche Implikationen des Privacy Paradox

Dass sich die Selbsteinschätzung nicht oder nur geringfügig im Verhalten von Nutzer:innen niederschlägt, führt zu der Frage, mit welchen Verhaltensannahmen Schutz durch Recht operiert und wie sich diese auf rechtliche Vorgaben auswirken. Das Privacy Paradox beschreibt damit im digitalen Bereich wohl vor allem ein Problem der mangelnden Informationsgrundlage und die erschwerte Möglichkeit rationaler Entscheidungen. Das Recht reflektiert diese realen Voraussetzungen von Privatheit bisher unzureichend, wie die Beispiele der datenschutzrechtlichen Einwilligung und des Wettbewerbsrechts zeigen.

3.1 Datenschutzrecht: Einwilligung als untaugliches rechtliches Instrument im digitalen Raum

Die DSGVO fordert stets eine Rechtsgrundlage für die Verarbeitung personenbezogener Daten nach der Grundregel des Art. 6 Abs. 1 DSGVO. Praktisch höchst relevant ist die zweckgebundene Einwilligungserklärung der von der Datenverarbeitung betroffenen Person nach Art. 6 Abs. 1 UAbs. 1 lit. a) DSGVO. Im digitalen Raum wird von dieser Ermächtigung zur Datenverarbeitung flächendeckend Gebrauch gemacht (Cookie-Banner, die bei jedem Webseitenbesuch über die Verarbeitung personenbezogener Daten informieren und dazu entsprechende Einwilligungen erfordern). Die Kritik am Instrument der Einwilligung bleibt nicht auf die DSGVO beschränkt: Auch das TTDSG in Umsetzung der e-Privacy-Richtlinie setzt in § 25 auf die Einwilligung als zentrales Instrument bei der Regulierung von Cookies und Tracking, wobei dort aber dieselben Anforderungen wie nach Art. 4 Nr. 11 DSGVO gelten.

Die datenschutzrechtliche Einwilligung wird durch das Privacy Paradox weiter entwertet. Denn dass Personen in digitalen, durch Algorithmen kreierten oder gesteuerten Kontexten eine tatsächlich freie und vor allem informierte Entscheidung über die Zustimmung zur Verarbeitung ihrer persönlichen Daten treffen, kann nur schwer angenommen werden. Die Einwilligung geht, wie die Rational Choice Theory, von einer informierten Entscheidung aus. Rational kalkulierte Kosten-Nutzen-Analysen sind bei Informationsasymmetrien aber in vielen Fällen nicht möglich. Nutzer:innen müssten umfassend unsichere, kaum greifbare und durch komplexe Prozesse entstehende Folgen ihrer Entscheidung berücksichtigen. Eine vollständig rationale Entscheidung wird umso unwahrscheinlicher, je komplexer und unübersichtlicher der zu entscheidende Sachverhalt und die daraus folgenden Konsequenzen sind, z.B. auch die Auswirkung der eigenen Datenfreigabe auf andere Personen.

Die Komplexität und Quantität der Datenverarbeitung wird durch transparenzsteigernde Maßnahmen wie Bildsymbole und privacy agents auch nur bedingt reduziert, sondern vor allem verlagert. Denn auch eine gut illustrierte Datenschutzerklärung, die u.U. mehrere Dutzend Verarbeiter:innen und Zwecke umfasst, wird wieder unübersichtlich. Auch Einwilligungsmanagementsysteme (Personal Information Management Systems

– PIMS), müssen für eine informierte Nutzer:innenentscheidung über alle möglichen Folgen der Datenverarbeitungsvorgänge, z.B. des Trackings, informieren. Dies erfordert einen erheblichen Detailgrad, der sich konträr zu dem abstrakt-generellen Ansatz solcher stellvertretenden Systeme verhält.

Das Privacy Paradox spricht deshalb für eine Untauglichkeit der Einwilligung bei den großen social-media- und anderen Plattformen, im Onlineshopping und -dienstleistungsbereich und allen digitalen Umgebungen, die weitreichende quantitative Datenanalysen für und über Dritte ermöglichen. Daneben spielen sozialer Druck und Monopolstellungen eine Rolle. Dadurch produzierte Informationsasymmetrien verhindern, dass eine informierte Entscheidung getroffen werden kann, weil z.B. die Konsequenzen der eigenen Datenpreisgabe für andere Nutzer:innen gar nicht bekannt ist. Somit kann das eigene Verhalten auch nicht adäquat den geäußerten Präferenzen angepasst werden.

Zudem ist die Einschätzung der Privatheitsrelevanz und damit die informierte Einwilligung praktisch gesehen auch deshalb erschwert, weil Maßstäbe zur Bewertung fehlen. Bei monetär-basierten Austauschgeschäften ist eine größere Vergleichbarkeit gegeben: Ein teureres Produkt verspricht, vereinfacht gesagt, oft eine höhere Qualität. Bei der Inanspruchnahme vermeintlich kostenloser Dienste gibt es hingegen keine Preisvergleichbarkeit. Verstärkt wird diese durch eine die Monopolstellung der globalen Plattformbetreiber, da es bereits an unterschiedlichen Angeboten fehlt. Es gibt beispielsweise keine Möglichkeit Google kostenpflichtig zu nutzen, ohne dass Daten gesammelt werden. Auch lassen die Anbieter:innen keine Verhandlungen über die Nutzungsbedingungen zu, auch wenn diese offenkundig rechtswidrig sind.

Das gängige Bild, wonach Vebraucher:innen mit ihren Daten „bezahlen“, trägt deshalb nicht. Es besteht kein vergleichbares Bewusstsein über die Modalitäten der Datenverarbeitung wie bei der monetären Bezahlung über einen bestimmten Betrag, weil die „Kosten“ der Daten nicht sichtbar sind. Unternehmen verarbeiten Daten auf unterschiedliche Weise, weshalb aus Perspektive der Verbraucher:innen eine Einschätzung, die mit einer einheitlichen Währung vergleichbar wäre, nicht möglich ist. Digitale Dienstleistungen sind deshalb näher an Vertrauensgütern, deren Wirkung weder vor noch nach dem Bezug valide eingeschätzt werden kann, ähnlich wie andere Bereiche in denen Expertise erforderlich ist, z.B. im medizinischen Sektor. Solange Menschen Onlinedienste nutzen, online mit anderen interagieren oder staatliche Leistungen in Anspruch nehmen werden zudem stets neue Daten erzeugt, die dann keine begrenzte oder erschöpfliche Ressource mehr darstellen.

Aus einer ökonomischen Perspektive stellt sich die Frage, ob digitale Märkte mit ihren jetzigen Angeboten die Privatsphäre-Präferenzen von Nutzer:innen erfüllen oder ob ein Marktversagen vorliegt. Dies führt zu Datenschutz als Wettbewerbsfaktor und zum Verbraucher:innenschutz.

3.2 Wettbewerb und Verbraucherschutz

Privatheitsschutz durch Datenschutz kann theoretisch ein relevanter Wettbewerbsfaktor sein. Durch das fehlende privatheitsschützende Verhalten der Nutzer:innen hat sich ein hohes Datenschutzniveau aber bisher kaum praktisch auf die Marktstellung von Unternehmen auswirken können: datensparsame Angebote haben sich trotz eines höheren Datenschutzniveaus nicht flächendeckend gegenüber datenintensiven Unternehmen und Angeboten durchsetzen können. Bisher ist damit allein die Datenmacht bzw. der Datenbestand selbst ein positiver Wettbewerbsfaktor.

Große Datenmengen, konzentriert bei wenigen Unternehmen, können den Wettbewerb hingegen negativ beeinflussen und ggf. auch Missbrauch fördern. Das Privacy Paradox verstärkt diesen Effekt noch, wenn die Wahl der Verbraucher:innen nicht auf datenschützende Angebote fällt. Fraglich ist aber, ob Verbraucher:innen überhaupt noch eine echte Wahl haben. Durch die Konzentration auf Plattformen (insbesondere in sozialen Netzwerken) ist eine Abhilfe durch Wettbewerb schwierig. Gerade dort, wo es um Vernetzung und Austausch geht, profitieren Anbieter:innen von Diensten mit besonders vielen Nutzer:innen; eine größere Anzahl an Alternativen ist gerade nicht gewünscht, sondern andernfalls eine alternative Konzentration. Für Verbraucher:innen bestehen damit hohe Kosten, wenn sie sich über die Vor- und Nachteile informieren wollen. Lock-In- und Netzwerkeffekte erschweren einen Wechsel und damit ebenfalls eine andere Nachfrage.

3.3 Argument gegen Regulierung?

Aus dem Privacy Paradox wird zum Teil gefolgert, dass Privatheitsschutz von der überwiegenden Mehrheit nicht gewünscht wird, Privatheit ein überholtes Rechtsgut sei und die rechtliche Regulierung mit dem Schutz­ ziel Privatheit, insbesondere durch Datenschutzrecht, ins Leere laufe. Dies fügt sich in eine generelle Kritik an Privatheitsschutz ein, wonach die Instrumente des Datenschutzes den Herausforderungen der digitalen Transformation nicht mehr gewachsen seien; rechtliche Regulierung sei stets zu spät oder ausgeschlossen. Andere sehen die digitale Transformation als zwingende Entwicklung, die unumkehrbaren systemischen Logiken folgt. Entscheidend für Legitimität und Akzeptanz sei allein das Funktionieren digitaler Technik.

Die Einwände tragen aus verschiedenen Gründen nicht, denn die Entscheidungsfindung von Individuen ist von zahlreichen Faktoren abhängig, die im Kontext von privatheitsrelevantem Verhalten z.T. verzerrt oder nicht gegeben sind. Unvollständige oder asymmetrische Informationen führen dazu, dass viele Personen sich den mit ihrem Verhalten verbundenen Datenanalysen nicht bewusst sind, aber dennoch der Datenweitergabe an Dritte zustimmen. Durch die Unmöglichkeit eines monetären Referenzpunktes für die eigenen Daten wird die Einschätzung von „Leistung und Gegenleistung“ zusätzlich erschwert. Bereits die Unterscheidung zwischen Metadaten, Nutzungsdaten und selbst freigegebenen persönlichen Daten (self-disclosure) spielt eine entscheidende Rolle. Denn die verschiedenen Arten von Daten sind unterschiedlich kontrollierbar. Es geht eben nicht nur darum, keine sensiblen persönlichen Informationen auf sozialen Netzwerken zu posten, sondern es werden Daten durch die schlichte Nutzung verarbeitet und neue Daten entstehen durch den Vorgang der Kommunikation an sich. Die Verarbeitung von Meta- und Nutzungsdaten hat mit der rechtlichen Idee der autonomen Entscheidung des Individuums über persönliche Informationen nicht mehr viel gemein, da sie individuelle Eigenschaften und Verhaltensweisen ebenso offenlegen können.

Diese Diskrepanz zwischen Selbsteinschätzung und realem Verhalten sollte vom Recht nicht unbeachtet bleiben, entscheidend ist aber die Frage der Konsequenz. Zum einen legt das Privacy Paradox das Dilemma offen, dass die Einschätzung und das tatsächliche Verhalten von Menschen stets kontextabhängig zu betrachten sind, Kontextverlust aber gerade das Ziel von quantitativer Datenverarbeitung ist, weil gerade eine multifunktionale Verwendung angestrebt wird. Als tragfähiges Argument gegen Regulierung, Daten- und Privatheitsschutz taugt das Privacy Paradox deshalb nicht. Das Privacy Paradox spricht nicht gegen eine Regulierung, sondern nur dafür, dass die bisherigen Mechanismen unzureichend sind. Denn gegen die Straßenverkehrsordnung (StVO) spricht auch nicht, dass sich viele Menschen nicht an Verkehrsregeln halten, das Erfordernis für die Regelungen der StVO ist, dass viele Menschen am Verkehr teilnehmen. Dies ist auf den Daten- und Privatheitsschutz im digitalen Zeitalter übertragbar.

3.4. Privacy Paradox als Mythos?

Die Kritik am Privacy Paradox zielt primär auf unzutreffende Grundannahmen aufgrund der bereits geschilderten Gegebenheiten in digitalen Sphären. Verhaltenspsychologische Implikationen sollten nicht generell-abstrakt, sondern kontextualisiert betrachtet werden. Das Privacy Paradox hingegen sei ein Mythos.

Das Privacy Paradox ist weder Mythos noch ein tatsächliches Paradox, sondern ein Dilemma. Es illustriert, parallel zu vielen rechtlichen Vorgaben, dass im digitalen Bereich immer noch aufgrund unzutreffender Grundannahmen operiert wird, die im analogen Bereich effektiv sein mögen, aber in online-basierten Umgebungen ins Leere laufen.

Es gibt inzwischen immer weniger Möglichkeiten online aktiv zu sein, ohne Daten mit den global führenden Onlineunternehmen zu teilen. Alternativangebote z.B. zu Googles Suchmaschine, haben sich zwar gehalten, sind aber Nischenprodukte geblieben. Zudem wird die Onlinepräsenz immer mehr mit sozialem Kapital verbunden. Technologien wie biometrische Gesichtserkennung in Echtzeit bieten den Menschen gar nicht die Möglichkeit, Privatheit überhaupt paradox erscheinen zu lassen – sie haben schlicht keine Wahl solchen Maßnahmen, wenn sie bspw. auf öffentlichen Plätzen angewendet werden, zu entgehen. Für Widersprüche zwischen Selbsteinschätzung und Verhalten bleibt dann kein Raum mehr. Selbiges gilt für das omnipräsente Tracking als unwissentliche Speicherung von Daten in digitalen Umgebungen, was zu einer Intransparenz gegenüber den Folgen des eigenen Handelns führt, da keine Nachvollziehbarkeit mehr gegeben ist, und Verhaltensmanipulationen ermöglicht werden.

Die Grundannahme des Privacy Paradox, dass es Ausdruck der eigenen Autonomie ist, Daten selbst preiszugeben, setzt reale und effektive Entscheidungsmöglichkeiten voraus. Um entscheiden zu können, sind Alternativen und Informationen erforderlich. Die Funktionsweise der prädiktiven Analytik führt dazu, dass Verhaltensweisen und Charakteristiken von Personen dauerhaft prognostiziert werden. Die Verletzung der Privatsphäre erfolgt dann nicht durch die gezielte Zweckentfremdung oder Entwendung vorhandener Daten, sondern dadurch, dass sensible Informationen vorhergesagt werden. Die Privatsphäre wird nicht durch die Preisgabe, sondern durch die Entstehung neuer Daten verletzt: durch die Prognose bestimmter Verhaltensweisen aus einem kollektiven Datenpool. Selbst wenn der eigenen Datenverarbeitung widersprochen wird, kann die kollektive Datenanalyse Rückschlüsse auf die eigene Person zulassen. Damit haben es Bürger:innen sowohl bei staatlichen als auch bei privaten prädiktiven Analysen nicht mehr selbst in der Hand, durch eigenes Verhalten einer Erfassung und digitalen Datenverarbeitung zu entgehen. Dies führt ebenfalls dazu, dass bereits keine Divergenz zwischen Selbsteinschätzung und Verhalten entstehen kann, da die Privatheitsverletzung bereits vor dem tatsächlichen Verhalten stattfindet.

4. Reaktionen des Rechts: Privacy kein Paradox

Das Privacy Paradox ist ein Anwendungsfall für Grundfragen der Verhaltensannahmen im Recht und durch Recht. Rechtswissenschaft betrachtet menschliches Verhalten nicht voraussetzungslos, sondern unter dem Blickwinkel einer Norm, weshalb auch kein rechtswissenschaftliches Verhaltensmodell existiert. Die Diskussion effizienter rechtlicher Regulierungen setzt unter anderem voraus, dass zutreffende Annahmen über menschliches Verhalten gemacht werden müssen. Als Strategien gegen das Privacy Paradox wird die verstärkte Nutzbarkeit von Wissen, insbesondere auch von prozeduralem Wissen, keine Pathologisierung von Onlineverhalten sowie anwendungsbezogene Strategien im Umgang mit Internetangeboten diskutiert.

Das größte Problem sind aber weiterhin solche Daten, die Personen ohnehin nicht kontrollieren können. Dagegen schafft das Bewusstsein darüber, an welchen Stellen persönliche Informationen generiert und verarbeitet werden nur bedingt Abhilfe, wenn dies ohnehin Dauerzustand ist. Die Schaffung von mehr Wissen hilft Ausflüssen wie dem Real-Time Bidding nicht ab und führt ohne reale Handlungsmöglichkeiten zur Resignation. Dass digitale Umgebungen inzwischen wichtige Infrastrukturen sind, entkräftet das Argument einer individuellen Entscheidung, diese Dienste nicht zu nutzen. Der gesellschaftliche Aspekt des sozialen Kapitals und der Auswirkungen digitaler Anwendungen spricht gegen die schlichte Ablehnung der Nutzung datenintensiver Dienste in der Verantwortung des Einzelnen. Entsprechend ist eine institutionelle oder systemisch Regulierung auch erforderlich, die bspw. durch Zertifizierung, datenschutzfreundliche Entscheidungen erleichtert.

Privatheit als Konzept in der Vorstellung vieler Menschen kann unendlich viele Facetten abdecken, die sich nur teilweise oder auch gar nicht mit konkreten persönlichen Verhaltensweisen überschneiden. Der Schluss von menschlichem Verhalten als nach außen gerichtetem Akt auf innere Einstellungen wie das Verständnis von Privatheit muss kritisch hinterfragt werden. Das Privacy Paradox illustriert diese verschiedenen Probleme von Privatheitsschutz in digitalen Kontexten.

Maßstab für die Regulierung im Datenschutzrecht kann deshalb nicht nur sein, dass Nutzer:innenverhalten zu untersuchen, sondern zu klären, welche Normen und Erwartungen durch die Datenverarbeitung verletzt werden. Vielmehr sollte Regulierung sich auch auf die andere Seite der Datennutzung konzentrieren und nicht alles in Nutzer:innenhand legen.

Transparenz wird oft angeführt, z.B. wenn es um Datenschutzerklärungen geht. Transparenz allein ist nicht ausreichend, es braucht Verständlichkeit und freie Wahl mehrerer Optionen. Mehr Entscheidungsoptionen führen nicht automatisch zu mehr Kontrolle. Nur wenn auch tatsächlich vollständige Informationen als Entscheidungsgrundlage vorliegen, ist die kalkulierte „informationelle Selbstgefährdung“ Ausdruck der individuellen Autonomie. Eine umfassende Transparenz und Offenlegung über alle relevanten Faktoren erreichen allein noch keine informierte Entscheidung. Im Kontext von Onlinediensten erscheint dies ohnehin illusorisch, da die Vorgänge der Datenverarbeitung schlicht zu komplex sind. Die Menge an Informationen würde nicht zu tatsächlichem Verständnis führen, sondern ins nächste Paradox: nach dem „transparency paradox“ wird zwar Transparenz durch detaillierte Aufklärung erzeugt, die Quantität der Informationen erschwert aber den Blick auf das Wesentliche.

Es sollte deshalb generelle Ziele des Privatheitsschutzes geben, der möglicherweise nicht nur als subjektives Recht zu konstruieren ist. Das kann auf Tatbestands- oder Vollzugsebene passieren, wie durch privacy by default and by design, Art. 25 ff. DSGVO. Situationsspezifische Besonderheiten sind zu berücksichtigen, z.B. durch besondere Darlegungspflichten in der konkreten Transaktion. Die europäische Verbandsklagerichtlinie hat zudem bspw. erstmals über Art. 80 DSGVO hinaus explizite kollektive Rechtsschutzmöglichkeiten gegen Datenschutzverstöße eingeführt.

Zudem ist das Credo der rein individuellen Risikobewertung in digitalen Kontexten nicht ausreichend. Das Internet führt zwangsläufig zu einem Kontrollverlust über die eigene Selbstdarstellung, da es keinen zumutbaren Überblick mehr über die personenbezogenen gespeicherten Daten gibt. Dem wirken Entwicklungen wie das „Recht auf Vergessen“ oder dem „Right to reasonable inferences“ nur sehr punktuell entgegen und setzen vor allem die Kenntnis der Datenspeicherung voraus. Neben individuellen Faktoren sind systemische Gegebenheiten, wie faktische Monopolstellungen großer Digitalkonzerne in bestimmten Bereichen der Sozialen Medien oder Messengerdienste, relevante Einflüsse. Rechtliche Regulierungsansätze sollten systemische Risiken und die Strukturen von Datenverarbeitung, -übermittlung und -bereitstellung stärker in den Blick nehmen anstatt den Privatheitsschutz als rein subjektive Angelegenheit des jeweiligen Verarbeitungsvorgangs zu begreifen. In einigen Bereichen, wie z.B. bei Kindern, sollte die Einwilligung als Rechtmäßigkeit der Datenverarbeitung ausgeschlossen sein. Zudem sollte erwogen werden, die Einwilligung in Situationen, in denen sie offensichtlich ihren Zweck nicht erfüllt (Beispiel: Cookie-Banner) unter erhöhte Rechtmäßigkeitsanforderungen zu stellen, wie eine Evaluation der tatsächlichen Wahrnehmung und Verarbeitung der Informationen durch vorgegebene Zeiten zur Anzeige der Einwilligungserklärung oder Kontrollfragen, die sich auf das Verständnis beziehen. Dadurch wird die Einwilligung im Massengeschäft unattraktiv und Anbieter:innen wären angehalten, sich z.B. um eine Zertifizierung zu bemühen.

Vermeintliche Regulierungen von Technik allein sind nicht zielführend, tatsächlich adressieren diese ohnehin die rechtsrelevanten Auswirkungen von Technik. Zukünftige Regelwerke sollten den Einfluss auf Privatheit individuell und in der Breite stärker in den Blick nehmen. Dazu gehört es auch, sozialwissenschaftliche und psychologische Implikationen stärker zu reflektieren. Konkrete datenschutzrelevante Anwendungsszenarien, insbesondere bei der Verhaltensbeeinflussung oder -steuerung können risikobasiert klassifiziert werden. In diese Richtung deutet auch der Vorschlag der Europäischen Kommission zum Artificial Intelligence Act, der allerdings in der jetzigen Fassung zu weitreichende Ausnahmen für bestimmte KI-Anwendungsszenarien vorsieht, welche grundrechtlich problematisch sind. Bestimmte, besonders privatheitsgefährdende Praktiken, wie z.B. KI-basierte Echtzeitgesichtserkennung oder andere biometrische Analysen sollten mit Verboten belegt werden.

5. Conclusio

Das sogenannte Privacy Paradox ist kein Paradox, sondern ein Dilemma, welches durch digitale Umgebungen, Techniken und ihre Strukturen bedingt ist, auf die Einzelpersonen keinen oder nur wenig Einfluss haben. Privacy by default and by design sind ergänzende, verheißungsvolle technische Lösungen, müssten aber konkretisiert und durchsetzbar gemacht werden. Das Privacy-Dilemma lässt sich durch den Abbau asymmetrischer Machtstrukturen zumindest abschwächen, bspw. wenn die Gruppe der Verbraucher:innen eine tatsächliche Kalkulation aufgrund einer vollständigen Informationsgrundlage und daraus abgeleiteten informierten Risikoeinschätzung treffen kann, durch institutionelle Unterstützung, wie z.B. Zertifizierung. Letztlich sollte der Fokus auf kollektive Aspekte von Privatheit und Datenschutz gelenkt werden, um die Konzentration auf die Verantwortlichkeit des Individuums aufzulösen und dadurch schließlich auch das Privacy Paradox. Das Ziel, Machtasymmetrien auszugleichen, ist keine paternalistische Bevormundung, sondern die notwendige Schaffung eines Freiheitsraumes. Ein anderer Weg ist es, anonyme Kommunikationsräume für die breite Nutzung zu popularisieren. Eine vollständige Ökonomisierung oder Tokenisierung aller Güter und damit auch der persönlichen Daten, über die Nutzer:innen ihre Daten dann an Anbieter:innen im Web 3.0 verkaufen können, wird hingegen das Problem der Machtasymmetrie nicht lösen, sondern reproduzieren.

Hanna Ruschemeier in: Künstliche Intelligenz, Demokratie und Privatheit; Nomos Verlagsgesellschaft mbH & Co. KG, 76530 Baden-Baden; 2022

DOI: https://doi.org/10.5771/9783748913344

https://creativecommons.org/licenses/by/4.0/deed.de

Zur einfacheren Lesbarkeit wurden die Fussnote und Quellenverweise entfernt.


© Swiss Infosec AG 2024