Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Privatheit, Ethik und demokratische Selbstregulierung in einer digitalen Gesellschaft – Teil 1

Persönliche Lebensgestaltung und politisches Handeln

Wenn von Datenschutz und informationeller Selbstbestimmung die Rede ist, dann steht in der Regel vor allem der Bereich der privaten Lebensführung im Zentrum. Im Zusammenhang der Digitalisierung spielen hier die für moderne Informationstechniken charakteristischen individuellen Nutzungsformen – insbesondere in Form von Sozialen Medien und personalisierten Anwendungen – eine hervorgehobene Rolle. Durch diese Nutzugsweisen wird eine umfassende technische Dokumentation des individuellen Verhaltens ermöglicht. Quellen für die massenhafte Datenerhebung sind sowohl die bewusste und unbewusste Interaktion mit informationstechnischen Systemen als auch die Interaktion von Mensch zu Mensch über die natürliche Sprache in Sozialen Medien, E-Mail und vielen digitalen Fernseh- oder Presseformaten.

Digitale Informationstechniken und insbesondere die Sozialen Medien ermöglichen Informationsverbreitung in zwei Richtungen: durch ihre Nutzer:innen und über ihre Nutzer:innen. Mehr und mehr können durch die Analyse und Auswertung von digitalen Plattformen Informationen über das Verhalten und die Kommunikation der einzelnen Nutzerinnen und Nutzer gewonnen werden. Durch die Sammlung und Auswertung von Daten in einer datafizierten Gesellschaft werden auf diesem Wege Informationen generiert, die den alltäglichen Handlungsroutinen von Menschen und entsprechenden Datenbanken aus Wissenschaft, Industrie und Verwaltung entstammen. Die Auswertung von Massendaten bzw. die Nutzung von Big Data baut so auf den zahlreichen direkten und indirekten Spuren des individuellen Handelns auf, die durch die Durchdringung der Alltagswelt mit Informationstechniken zu erfassen sind.

Die Möglichkeiten zur Auswertung großer Datenmengen werden immer häufiger im Zusammenhang ihres Nutzens für die Verbesserung politischer Entscheidungen und der gesellschaftlichen Wohlfahrt diskutiert. Kennzeichnend hierfür sind zum Beispiel die Auseinandersetzungen mit den Chancen und Risiken von Datenauswertungen für die politische Entscheidungsfindung, wie dies etwa die US-amerikanische Regierung, die Europäische Union und auf lokaler Ebene mehr und mehr Städte und Kommunen unterschiedlichster Größe praktizieren. Durch die Auswertung von Massendaten ist mit den digitalen Informationstechniken ein Mittel zur Erzeugung vorgeblich gesicherten und unmittelbaren Wissens an die Hand gegeben. Entsprechend werden Algorithmen und moderne Datenindustrie zunehmend für die Entscheidung über „gültige“ Information und „richtige“ Handlungsempfehlungen genutzt.

Gleichzeitig treten mit den Erhebungen über gesellschaftliche Lebens-/Arbeits-/Umgebungssituationen jedoch Prozesse in den Vordergrund, die elementare Grundlagen der demokratischen Selbstorganisation schwächen könnten. Die Bedrohung liegt hierbei nicht nur in den häufig genannten repressiven Effekten, die das Gefühl überwacht zu werden hervorrufen kann, sondern – und diese These soll im Folgenden im Vordergrund stehen – in einer Aushebelung der Demokratie durch die Nutzung individueller, privater Datenspuren für die politische Entscheidungsfindung. Dieser Rekurs auf Datenauswertungen für die gesellschaftliche Steuerung wird real in Prozessen für ein „intelligentes“, „data driven“ Management in der Politik und in Unternehmen oder dem Ruf nach einer evidence based policy.  Als problematisch zeigt sich dieser Rekurs insbesondere dann, wenn den daten- und softwaregetriebenen Analysen gegenüber politischen, öffentlichen bzw. gemeinschaftlichen Verständigungsprozessen der Vorzug gegeben wird.

Privates Handeln und öffentliche Meinungsbildung

Was passiert, wenn das private, individuelle Handeln zum Maßstab politischen Handelns wird? Was auf den ersten Blick und angesichts der emanzipatorischen Einbettung des Privatheitsbegriffs (vgl. das Kapitel von Lamla u. a. in diesem Band) als begrüßenswert erscheint, offenbart bei genauerem Hinsehen Fallstricke.

Private Handlungen sind in der Regel individuelle Handlungen und diese sind zu einem guten Teil Alltagshandlungen. Sie beziehen sich z. B. auf die Organisation des Familienlebens oder die Wahl des Verkehrsmittels und entsprechen nicht-öffentlichen Entscheidungen, teils in klassischen privaten Bereichen wie der eigenen Wohnung. Obwohl diese gelebte Handlungspraxis auf individuelle und private Entscheidungen zurückgeht, kann sie durch Datenanalysen erfasst und kategorisiert werden. Datenerhebungen erscheinen anders als Abstimmungsprozesse häufig als evident und neutral. Unter Umständen können Daten sogar eine größere Realitätsnähe beanspruchen und damit ein anscheinend genaueres, „wahreres“ empirisches Wissen hervorbringen. So zeigen viele empirische Untersuchungen, dass Menschen bei Selbstauskünften häufig ihr Verhalten ganz anders bewerten und andere Wünsche angeben, als es tatsächlich der Fall ist (z. B. in Bezug auf das Essverhalten oder die Mediennutzung).

Generell ist die Nutzung wissenschaftlicher Erkenntnisse ein anerkanntes Instrument, um zu besseren politischen Entscheidungsgrundlagen zu kommen. Rückt der wissenschaftliche Zugang jedoch stärker ins Zentrum, dann werden Diskussionen über die sogenannte Expertenherrschaft angestoßen, welche die politische Philosophie seit ihren Anfängen begleiten und auch unter dem Begriff Technokratiedebatte bekannt sind. Technokratie bezeichnet ursprünglich ein Konzept zur Regulierung der gesellschaftlichen Organisation. Danach übernehmen „mechanische“ Elemente der wissenschaftlichen und technologischen Zivilisation die Rolle von politischen Regelungen. Der Vorteil liegt aus dieser Perspektive in einer effizienten gesellschaftlichen Steuerung, die vor unsachgemäßen ideologischen Strukturen und Entscheidungen geschützt sei. Statt des politischen Souveräns steht in einer Technokratie die optimierte Selbstorganisation des Menschen durch Wissenschaft, Arbeit und Technik im Vordergrund.

Technokratische Regierungsformen werden vor dem Werthorizont und dem Rechtsverständnis demokratischer Rechtsstaaten weitgehend zurückgewiesen, insbesondere, weil sie die Rolle des politischen Souveräns und den Grundsatz der demokratischen Selbstorganisation unterlaufen. Darüber hinaus belegen zahlreiche Arbeiten, dass das Wie und Ob des Einsatzes von Techniken als auch die Technologien selbst eben nicht neutral beziehungsweise nicht unideologisch sind, sondern immer auch Ausdruck bestimmter, teils impliziter Wertentscheidungen. Zur Einordnung des Stellenwertes technisch-wissenschaftlicher Verfahren sind stattdessen demokratische, diskursorientierte Prozesse das adäquate Mittel zur Repräsentation des politischen Souveräns. Für das demokratische Modell des liberalen Rechtsstaates steht für die demokratische Selbststeuerung ein normativer Begriff von Öffentlichkeit im Vordergrund, der sich auf die Bedeutung von Öffentlichkeit für die gesellschaftliche Selbstorganisation wie auch die Kritik und Kontrolle staatlicher Einrichtungen konzentriert. Nach dieser normativen Bestimmung dient Öffentlichkeit der Ermöglichung innergesellschaftlicher Verständigung als Bedingung zur Reproduktion einer funktionsfähigen Demokratie. Entsprechend dient Öffentlichkeit auch zur institutionellen Absicherung einer gemeinschaftlichen Handlungsfolgenkontrolle in gesellschaftlicher Verantwortung.

In diesem demokratietheoretisch grundlegenden Konzept von Öffentlichkeit bestimmt die Kommunikation zwischen „natürlichen“ Personen oder Personengruppen (mittels Medien) über den politischen Diskurs und Vorstellungen zum Allgemeinwohl. Zum Zustandekommen solcher kommunikativer Öffentlichkeitsformen gehört insbesondere, sich der Teilhabe an einer öffentlichen Kommunikationssituation bewusst zu sein. Die individuelle Entscheidung, an Öffentlichkeit teilzuhaben, geht somit einher mit dem Bewusstsein der Kommunikationspartner:innen zu ihrer Kommunikation als öffentliche und einer entsprechenden Haltung. Sie drückt sich damit aus im Verhalten der Kommunikationspartner:innen und der Wahl des Kommunikationsgegenstands, beispielsweise in einer überindividuellen Themenwahl, die in der Regel mit politischer Relevanz verbunden ist.

Aus der Kommunikationssituation als öffentlicher, die zugleich auch immer eine (indirekte, medial vermittelte) Kommunikation zwischen Personen ist, gehen außerdem bestimmte Reziprozitätsannahmen hervor. Die Kommunizierenden haben insofern gegenseitige Erwartungen aneinander, die konzeptionell vor allem in der Diskursethik offengelegt und formuliert werden. Sie betreffen die Wahrheit, die Wahrhaftigkeit und die normative Richtigkeit von verständigungsorientierter Kommunikation. Öffentliche Kommunikation unterliegt daher dem Anspruch, in besonderer Weise „wertvolle“ Kommunikation in Hinsicht auf Verständigung, Perspektivenübernahme und das Bemühen um gültige und durchdachte Diskursformen zu sein. Zu den Charakteristika normativer Vorstellungen von öffentlicher Kommunikation gehören also die Annahmen, in einem gewissen Maß vernunftgeleitet zu sein, auf gegenseitige Erwartungshaltungen zu rekurrieren und sich auf bestimmte Themen zu fokussieren. Wichtig ist darüber hinaus, dass die jeweiligen Kommunikationsverhältnisse transparent sind, sich die Beteiligten an der Herstellung von Öffentlichkeit ihrer Situation bewusst sind, ihr Handeln danach ausrichten und eine Wahl treffen können.

Eine bloße Verhaltens- und Zustandsanalyse, wie bei Datenauswertungen der Fall, schließt diese kommunikativen Prozesse aus. Bei Datenanalysen stehen nicht Themenwahl und Diskurs, sondern Erhebungen zum Verhalten einer abstrakten Allgemeinheit im Vordergrund. Es handelt sich um eine Allgemeinheit, die bei einer letztlich maschinellen Modellierung dessen, was (vermeintlich) „der Fall ist“, verharrt, aber nicht selbstreflexiv ist in dem Sinne, dass sie ihre eigene Funktionsweise und Wirkung kognitiv als Gemeinwohlüberlegung einbeziehen würde.

Das wird besonders deutlich, wenn man sich den häufig beobachteten Widerspruch von Einstellung und Handeln vor Augen führt, bekannt zum Beispiel unter Begriffen wie Attitude-Behavior Gap oder Value-Action Gap. Demnach handeln Menschen privat häufig anders als es ihren Überzeugungen entspricht. Dieser Punkt wurde indirekt bereits angesprochen, als es um die „Wahrheit“ von Verhaltensanalysen gegenüber Umfragen ging. Viele Menschen sind zum Beispiel für artgerechte Tierhaltung und Tierwohl, kaufen ihr Grillfleisch jedoch im Sonderangebot beim Discounter; sie lehnen „Trash-TV“ ab, sehen sich die entsprechenden Sendungen jedoch an; viele weiße Menschen haben nichts gegen People of Color, wollen aber nicht neben ihnen wohnen. Genau dieses Verhalten wird jedoch in Datenauswertungen abgebildet und fließt teils sogar automatisiert und intransparent durch das maschinelle Lernen in Steuerungssysteme ein, zum Beispiel durch personalisierte Werbung, Wohnwertberechnungen oder die „intelligente“ Regulierung von Verkehrsflüssen. Im Unterschied zu diskursiven Öffentlichkeiten entsteht bei einer Entscheidungsfindung über Datenerhebungen und algorithmische Mustererkennung eine statische Form der Allgemeinheit, die weder intersubjektiv verfasst noch für die einzelnen Subjekte bewusst zustande gekommen ist, aber dennoch eine Wirkung in Hinblick auf politische und wirtschaftliche Entscheidungsprozesse entfaltet. Auf diesem Wege werden individuelle und private Handlungen durch ihre technische Agglomeration und Auswertung zu überindividuellen und öffentlichen Strukturbedingungen.

Bei dieser Form der anonymen Strukturpolitik arbeitet die („intelligente“) Auswertung von Massendaten mit der Identifizierung von Korrelationen. Es geht hier nicht um das Auffinden von Begründungen und die Priorisierung von Bedeutungen, sondern um das Erkennen von Mustern in Datenagglomerationen. Eine konsequente Nutzung von algorithmischen Systemen und Big Data für politisches Handeln schließt insofern die Analyse von kontrafaktischen und ggf. auch moralischen Motiven und Begründungszusammenhängen aus der politischen Reflexion aus. Statt einer bewussten (innovativen oder kritischen) Steuerung der Themen im öffentlichen Diskurs schreiben algorithmische Systeme gesellschaftliche Analysen auf das empirisch Vorhandene fest. Insofern reproduzieren Datenanalysen immer nur das ohnehin Vorhandene und reduzieren die Darstellung der gesellschaftlichen Verhältnisse auf eine affirmative, bestätigende Perspektive.

Um diesem Mechanismus zu begegnen, ist die Aufrechterhaltung des Eigensinns der unterschiedlichen gesellschaftlichen Sphären und ihrer spezifischen Funktion für die gesellschaftliche Ordnung essenziell. An dieser Stelle setzen Theorien des Privaten an, die seine Rolle für eine Grenzziehung zwischen unterschiedlichen Gesellschaftsbereichen mit ihren je eigenen Logiken und Normen betonen.

Privatheitstheorien bauen einerseits auf dem überindividuellen Aspekt der Sphärentrennung auf und fokussieren andererseits über den Begriff der informationellen Selbstbestimmung auf den individuellen Zugang zur Kontrolle der persönlichen Daten und dem Schutz der Privatheit. Über die Abgrenzung des Privaten entscheiden somit überindividuelle gesellschaftliche und normative Kontexte wie auch Individuen durch verschiedene Adressierungen von Informationen und personenbezogenen Daten.

Überindividuelle Konzepte einer privaten Sphäre

In den frühen Theorien wurde der Wert des Privaten dadurch begründet, dass Privatheit den willkürlichen Zugang von Dritten auf bestimmte Kommunikationsinhalte restringiert. Gleichzeitig sollte Privatheit schützend für bestimmte Räume wirken, in denen eine freie Identitätsbildung und Rolleneinübung möglich wird. Privatheit wird dabei als ein Sozialraum beschrieben, in dem Autonomie, Selbstverwirklichung, körperliche Integrität, Würde sowie freie Meinungs- und Willensbildung ihre Geltung erlangen und bewahren können. Letztlich ist es dieser Strauß an Werten, welcher – zumindest gemäß der liberalen Tradition, aus der das Konzept des Privaten stammt – als konstitutiv für „gesunde“ Öffentlichkeiten und Praktiken demokratischer Teilhabe und Mitbestimmung gilt. Aus diesem Grund ist von verschiedenen Seiten immer wieder argumentiert worden, dass Privatheit kein rein individualistischer, sondern ebenso ein kollektiver Wert ist. Im Zuge der Abgrenzung des Begriffs der Privatheit von dem der Öffentlichkeit erhält Privatheit somit eine überindividuelle, gesellschaftsstrukturierende Bedeutung.

Im historischen Kontext und auf der Ebene sozialer und politischer Gesellschaftsverhältnisse stellt sich die Unterscheidung zwischen privat und öffentlich als Trennung von Gesellschaftssphären dar. Wirtschaftsliberale Modelle verstehen die Unterscheidung von privat und öffentlich als solche zwischen Staat und Privatwirtschaft, also als Verfügungsrecht über Privatsachen. Aus sozialgeschichtlicher und verschiedenen feministischen Perspektiven wiederum wird die Trennlinie zwischen privat und öffentlich zwischen dem familiären beziehungsweise häuslichen Bereich auf der einen Seite und dem politischen und ökonomischen auf der anderen beschrieben und kritisiert. Von Seiten des gesellschaftspolitischen Liberalismus wird die Unterscheidung jedoch anders gerahmt und als Gegenüberstellung von politisch-bürgerschaftlicher Zivilgesellschaft einerseits und Markt und Staat andererseits bestimmt. „Administrative Steuerungssysteme“, etwa Geld oder Macht, dürfen nicht bis in die Bereiche der privaten Lebenswelt hineinwirken. Habermas nennt diesen Bereich einer in diesem Sinne privatisierten bürgerlichen Gesellschaft auch „nicht-vermachtete Öffentlichkeit“, in dem sich private Autonomie und politische Willensbildung als zwei Ausprägungen der bürgerlichen Gesellschaft Geltung verschaffen können. Der Wert der Privatsphäre besteht demnach in der Schaffung eines geschützten Raumes, welcher die Voraussetzung dafür ist, dass Personen angesichts der invasiven Kräfte einer in die Lebenswelt eindringenden Wirtschaft sowie eines mit weitreichenden Befugnissen ausgestatteten Staates eine selbstbestimmte Persönlichkeit ausbilden und erhalten können.

Ein solcher Begriff einer bürgerschaftlich geprägten Öffentlichkeit von „Privatleuten“ schließt an die emanzipatorischen Erwartungen an, die zu Beginn seines Aufkommens auch mit dem Internet in Bezug auf Pluralismus, Mitbestimmung und Selbstorganisation verbunden waren (Helbing, u. a.). Wichtig für einen solchermaßen verstandenen Begriff einer öffentlichen Privatsphäre ist die Schaffung von Voraussetzungen für die Bildung von sozialen und kulturellen Identitäten, persönlichen Netzwerken und Erfahrungsräumen in Absehung von ökonomischen oder staatlichen Vorgaben. Auf diesem Wege machen die Privatleute den Eigensinn ihrer individuellen Lebensführung für die Teilhabe an Öffentlichkeit als regulatorischem Netzwerk eines demokratischen Gemeinwesens nutzbar.

Privates Handeln bezeichnet somit einen Freiraum persönlicher Lebensgestaltung, aber der Schutz des Privaten und der hiermit verbundene Schutz der informationellen Selbstbestimmung ermöglicht eine überindividuell und politisch relevante Grenzziehung zur Abwehr hegemonialer kommerzieller und administrativer Macht. Privatheit und der Eigensinn privater Lebensführung dienen auf diesem Wege als Ressource für gesellschaftliche Pluralität und unabhängige politische Meinungsbildung. Ein solcher Privatheitsbegriff bezieht sich auf das Handlungspotenzial einer autonomen Privatsphäre. Angesichts dessen ist die Sicherung von Freiheitsrechten durch Datenschutz und Informationelle Selbstbestimmung nicht ausreichend für den nachhaltigen Bestand einer lebendigen Demokratie. Möglichkeiten wie z. B. das Verbergen persönlicher Daten durch Datensparsamkeit oder Verfahren wie Privacy by Design sind zwar eine notwendige, jedoch keine hinreichende Voraussetzung zur Wahrung einer nicht bloß defensiv, datenschutzrechtlich verstandenen Privatsphäre.

Vor allem jene Privatheitstheorien, die den Begriff des Privaten von einem individualistischen auf einen intersubjektiven Fokus verlagern, argumentieren in diesem Zusammenhang, dass Privatheit nicht mehr individualistisch nur lebensweltliche Autonomie beschützen soll, sondern – im Sinn relationaler Autonomie – intersubjektiv beziehungsweise relational gedacht werden muss. Aus dieser Perspektive verringert sich die vermeintliche Spannung zwischen individueller Freiheit und kollektiver Wohlfahrt sowie sozialer Gerechtigkeit. Privatheit wird somit zum Gemeingut, indem gezeigt wird, dass sämtliche soziale Sphären – jenseits der Dichotomie von Privatheit und Öffentlichkeit – durchzogen sind von Informationskontexten, die sich über Konventionen des angemessenen Flusses von Informationen und insbesondere personenbezogenen Daten konstituieren.

Vor diesem Hintergrund muss zwischen dem Schutz und der Herstellung von Privatheit unterschieden werden. Das Recht auf informationelle Selbstbestimmung sowie der Anspruch auf und der Wunsch nach Privatheit beruhen auf dem Idealbild des autonomen Individuums, das für den Wertekatalog moderner Demokratien und das hiermit verbundene Menschenbild vorherrschend ist. Während der Schutz der Privatheit insbesondere für die Wahrung der Integrität der Person von Bedeutung ist, zielt eine Kombination von Schutzansprüchen und Verfahren zur aktiven Herstellung eines Privatbereichs auf die gesellschaftspolitische Bedeutung der Privatsphäre als Raum einer lebensweltlichen Ressource zur Kontrolle administrativer und ökonomischer Macht. Diese Funktion kann nur dann bestehen, wenn eine Trennung gesellschaftlicher Sphären intakt ist und verschiedene Norm- und Geltungssysteme miteinander in einen produktiven Widerstreit treten können. Bei dieser Trennung von verschiedenen gesellschaftlichen Handlungssystemen kommt der Privatsphäre für die Wahrung individueller und demokratischer Freiheitsrechte eine besondere Bedeutung zu, denn sie kennzeichnet den Anspruch des Individuums auf einen Bereich, in dem konzeptionell persönliche Unverfügbarkeit, Selbstbestimmung und Zwanglosigkeit im Vordergrund stehen. Aus Perspektive derjenigen, die Privatheit beanspruchen, geht es um den Erhalt von selbstorganisierten, autonomen Handlungsräumen, die sich über die Freiheit von Fremdbestimmung durch eine übergeordnete Struktur (in Staat, Markt, Öffentlichkeit usw.) bestimmt. Privatsphäre konstituiert sich auf gesellschaftlicher Ebene somit durch den Schutz einer Differenz zwischen verschiedenen Handlungsregimen. Bei dieser Bestimmung ist die Bedeutung der Leitdifferenz für den Schutz vor einer vereinheitlichenden, totalitären Ordnung ausschlaggebend. Bei der Wahrung von Privatheit und informationeller Selbstbestimmung geht es also grundlegend um die Abwehr und Einhegung hegemonialer beziehungsweise totalitärer Ansprüche über individuelle und gesellschaftliche Lebens- und Handlungsbereiche.

Die Aufteilung der verschiedenen Handlungssphären selbst ist fragil und Gegenstand immer neuer Aushandlungsprozesse, was ja auch die scheinbare Beliebigkeit von „privaten“ und „öffentlichen“ Zuordnungen historisch und in unterschiedlichen sozialen und kulturellen Kontexten zeigt. Zudem herrschen auch in der jeweils als privat titulierten Sphäre teils repressive Ordnungen und nicht zuletzt die feministischen Bewegungen haben verdeutlicht, dass umfassende rechtliche (bzw. öffentliche) Regeln gerade für den häuslichen Bereich ein befreiendes Potenzial haben können. Trotzdem kommt der Privatsphäre als Ressource und Gegenmodell zu präformierten und fremdbestimmten Möglichkeitsräumen eine elementare Rolle für gesellschaftliche Selbstorganisation und individuelle Freiheit zu. Sie schafft erst die notwendigen Strukturbedingungen für die Auslebung oder Substantiierung von Freiheitsrechten, „weil mit der bloßen Sicherung von Freiheit […] noch nicht notwendig und zugleich die Bedingungen dafür gesichert sind, dass wir die Freiheiten so leben können, wie wir wirklich wollen“. Während Freiheitsrechte also formal die Bedingungen für ein selbstbestimmtes Leben sichern, steht Privatheit für die Ausgestaltung des Rechts auf eine selbstbestimmte Lebensführung in individueller und demokratischer Perspektive. Vor diesem Hintergrund, der die Bedeutung des Eigensinns und der Trennung verschiedener Gesellschaftssphären vor Augen führt, rückt der Blick auf technische Infrastrukturen in den Vordergrund.

In diesem Zusammenhang werden vor allem drohende oder sich tatsächlich ereignende context collapses diskutiert. Hierbei geht es um Informationskontexte, welche voneinander getrennt werden sollen, sich faktisch jedoch vermischen, mit dem Resultat des illegitimen informationellen „Eindringens“ von Drittakteuren in eigentlich geschützte Informationsbestände. Problematisiert wird dabei insbesondere die Nichteinhaltung der Anpassung von Informationsflüssen. Diese Angemessenheit wird bestimmt durch kontextspezifische Normen, welche den Verbreitungsradius von personenbezogenen Informationen bestimmen sollen. In diesem Sinne entzündet sich der Protest gegen neue digitale Technologien gerade an deren unkontrollierbaren, kontextübergreifenden Informationsverarbeitungsmöglichkeit. Als Treiber dieses Kontrollverlusts sind unter anderem der hohe Vernetzungsgrad digitaler Technologie und deren hohe Speicher- sowie Berechnungskapazitäten zu benennen wie z. B. beim Cloud-Computing sichtbar.

Beispiel Cloud: Regulierung zentralistischer Infrastrukturen

Infrastrukturen bestimmen über die technischen Grenzen der Kommunikation in und über Gesellschaftssphären hinweg wie auch über die individuellen Eingrenzungen von Informationsflüssen. Für den Schutz und die Ausgestaltung des Privaten spielen nicht nur individuelle Entscheidungen oder staatliche Überwachung eine Rolle, sondern vor allem auch die technische Gestaltung. Die Informationsgesellschaft benötigt sowohl Informationstechnologien wie Computer, Smartphone und andere Endgeräte, aber auch Infrastrukturen und vermehrt auch Plattformen und Netzdienste.

Insbesondere bei IT-Infrastrukturen lässt sich in den letzten Jahren ein Trend hin zu zentralisierten Angeboten und Technologien beobachten. Hier werden zum einen die Effekte der Plattformökonomie diskutiert. Zentralisierungsaspekte liegen dabei vor allem auch im Netzwerkeffekt: Große Plattformen sind attraktiver und haben Wachstumsvorteile, weil die Menschen dahin gehen, wo sie sich mit anderen verbinden können – wie das langjährige Wachstum Facebooks und seiner Dienste trotz harscher Kritik zeigt. Problematisch wird hierbei gesehen, dass diese Plattformen enorme Macht konzentrieren, welche für demokratische Gesellschaften gefährlich sind. Zum anderen hat Shoshana Zuboff einen weitbeachteten Beitrag unter dem Schlagwort „Überwachungskapitalismus“ formuliert, in dem sie Plattformanbietern systemische und inhärente Eigenschaften attestiert: Datenextraktion, Verhaltensvorhersage und Verhaltensmodifikation. Dieses Geschäftsmodell bewertet Zuboff als „zutiefst demokratiefeindlich“. Für solche demokratiefeindlichen Geschäftsmodelle stehen insbesondere die Zentralisierungstendenzen in IT Infrastrukturen im Cloud Computing.

Cloud Computing bedeutet, dass IT-Programme und -Dienste nicht auf Computern vor Ort laufen, sondern in großen Rechenzentren, die die Leistung über eine Netzverbindung bereitstellen. Die Vorteile liegen vor allem in den geringeren Investitions- und Wartungskosten sowie ökonomischen Skaleneffekten, aber auch in Sicherheitsüberlegungen. Unternehmen und Nutzer:innen können Serverkapazitäten und Anwendungen nach Bedarf mieten und schnell anpassen – wodurch die Investitionskosten und das nötige Wissen für IT und IT-Sicherheit reduziert werden. Dieser Trend ist sowohl bei Unternehmen und Organisationen als auch bei Konsumenten und Privatpersonen zu beobachten und wird von den großen IT-Plattformen vorangetrieben. Die Dienste werden auf den Nutzeroberflächen der Computer oder Smartphones angezeigt, aber dort werden sie nicht bearbeitet oder die Daten gespeichert – sondern in großen Rechenzentren, die sich viele Organisationen und Nutzer:innen teilen.

Diese Technologien haben auf den Schutz der Privatheit in verschiedenen Aspekten Auswirkungen. Auf grundsätzlicher Ebene ist das Cloud Computing ein zentraler Sammel- und Verarbeitungsraum der Daten aus sämtlichen gesellschaftlichen Teilbereichen. Cloudinfrastrukturen lösen somit die sozialen Grenzen zwischen verschiedenen Informationstypen und verankern zumindest auf technischer Ebene einen permanenten context collapse. Zum einen fallen bei den sowohl kostenlosen als auch bezahlten Cloud-Anwendungen für Konsument:innen sehr viele Nutzungsdaten an und werden ausgewertet, die bei einer lokalen Installation des Dienstes nicht oder nur in geringerem Maße anfallen würden. Wer Musik über Spotify hört, Filme streamt, seine Dokumente in der Cloud bearbeitet, wird getrackt. Häufig mit dem Hinweis auf den Beitrag zur Verbesserung des Nutzungserlebnisses. Eine vollständig anonyme Nutzung ist praktisch nicht vorgesehen oder gar möglich.

Zum anderen gibt es Privatheitsprobleme natürlich nicht nur für die Nutzungsvorgänge, sondern auch für die in der Cloud gespeicherten Daten selbst. Cloud-Anbieter haben – außer bei der Verwendung von Ende-zu-Ende-verschlüsselten Lösungen – Einblick in die bei ihnen gespeicherten Daten. Das ist zum einen relevant, wenn man sich als Privatperson dazu entscheidet, Cloud-Dienste statt lokaler Anwendungen und Speichermöglichkeiten zu verwenden. Aber es wird darüber hinaus wichtig, wenn die Unternehmen, Kontaktpersonen und Einrichtungen, die Daten über Privatpersonen speichern und verarbeiten, diese in Cloud-Umgebungen auslagern. Wenn das Krankenhaus, das mich behandelt, Microsofts Cloud-Produkte einsetzt, liegen meine Daten damit auch bei Microsoft – ohne, dass ich davon direkt Kenntnis erlange. Manche Unternehmen lagern ihre komplette IT und ihre Software-Angebote in Cloud-Rechenzentren aus – Tendenz steigend.

Hier gibt es kurz umrissen zwei Bewertungsmöglichkeiten. Die eine folgt der Überzeugung, dass eine Zentralisierung von Datenspeicherung und Anwendungen in Cloud-Rechenzentren die IT-Sicherheit erhöht und damit auch eine spezifische Form der Privatheit verbessert: Expert:innen kümmern sich rund um die Uhr um die Integrität der Systeme, erkennen Sicherheitslücken und Angriffe. Wenn Daten bei kleinen Unternehmen oder im Keller der Psychotherapeutin auf veralteter und nicht gewarteter Konsumentenhardware liegt, sind sie weniger gut geschützt als bei Konzernen, die Millionenbudgets für IT-Sicherheit bereitstellen, Erfahrung haben und durch die zentrale Organisation auch Schwachstellen unter Kontrolle haben, die dezentral unentdeckt blieben oder unerreichbar für eine Lösung sind.

Gleichzeitig haben aber eben diese Cloud-Provider potenziell Einblick in die Daten und ihre Nutzung, können Sie je nach Dienst komplett oder pseudonymisiert auswerten, daraus Wettbewerbsvorteile erreichen und Macht aufbauen. Außerdem ziehen zentrale Datenansammlungen nicht nur Angriffe und Hacking an, sondern wecken auch Begehrlichkeiten von Seiten staatlicher Überwachung. Darüber hinaus ist zu beachten, dass die Cloud-Infrastruktur natürlich in einem anderen Rechtssystem angesiedelt sein kann – mit abweichenden Privatheitsschutzstandards, Sicherheitsanforderungen und staatlichen Zugriffsregelungen.

Aktuell zeigt die Betrachtung und Analyse von Cloud-Projekten in Europa, dass die Antwort auf Privatheitsfragen im Bereich des Cloud-Computings immer häufiger mit territorialen Grenzen verknüpft wird. Die Microsoft Cloud Germany wollte ihren Erfolg durch die Garantie der Datenspeicherung in deutschen, treuhändisch durch die Deutsche Telekom betreuten, Servern erreichen. Das Projekt GAIA-X setzt auf die Ausgestaltung eines europäischen Cloud-Ökosystems, das „europäische Werte“ und europäische Datenschutzstandards durch Lokalisierung der Cloud-Infrastruktur und damit eine Dezentralisierung und Abkehr von dominanten Cloud-Providern vorsieht. Datenschutz, digitale Souveränität und europäische Werte werden Schlagworte dieser Entwicklungen und es wird versucht, diese in Technik abzubilden und sie so zu gestalten, dass sie den Normen europäischer demokratischer Gesellschaften entspricht oder zumindest nicht zuwider läuft (der wirtschaftliche Konkurrenzkampf mit US-amerikanischen und chinesischen Anbietern ist natürlich ein weiterer Aspekt).

Ein klassischer Ansatz der privatheitsschützenden Technikgestaltung, der auch als Empfehlung seinen Einzug in die europäische Datenschutzgrundverordnung gefunden hat, ist Privacy by Design. Ausgehend von der Beobachtung, dass bestehende Listen über die Religionszugehörigkeit der niederländischen Bevölkerung es den Nazis sehr einfach machte, jüdische Menschen zu verschleppen und umzubringen, präsentierte John Borking 1995 sogenannte Privacy Enhancing Technologies. Technologie sollte niemals mehr dazu verwendet werden können, solche Verbrechen durchzuführen. Er argumentierte dafür, nur notwendige Daten zu speichern und verarbeiten und Technik so zu gestalten, dass sie Menschenrechte und Privatheit schützt. Ann Cavoukian, damals Datenschutzbeauftragte in Kanada, erweiterte diese Idee in den 1990ern durch die Einbeziehung positiver Ziele statt reiner Verbote und veröffentlichte das Konzept Privacy by Design. Cavoukian argumentiert: „Privacy by Design advances the view that the future of privacy cannot be assured solely by compliance with regulatory frameworks, rather, privacy assurance must ideally become an organization’s default mode of operation“.

Gerade in Hinblick einer umgreifenden Technisierung demokratischer Gesellschaften und vor dem Hintergrund einer Konzentration von Daten, Funktionalität und damit Macht nicht nur bei Unternehmen, sondern in der Infrastruktureigenschaft selbst, ist eine bewusste, grundrechtsschützende und demokratiefördernde Technikentwicklung wichtig. Konzepte wie Privacy by Design, aber auch die kritische Begleitung und bei Bedarf der regulatorische Eingriff in Infrastrukturentwicklung und -gestaltung sind Grundlagen heutiger und zukünftiger demokratischer Gesellschaften.

CC BY

Heesen, J., Ammicht Quinn, R., Baur, A., Hagendorff, T., Stapf, I. (2022). Privatheit, Ethik und demokratische Selbstregulierung in einer digitalen Gesellschaft. In: Roßnagel, A., Friedewald, M. (eds) Die Zukunft von Privatheit und Selbstbestimmung. DuD-Fachbeiträge. Springer Vieweg, Wiesbaden.

https://doi.org/10.1007/978-3-658-35263-9_5

Zur einfacheren Lesbarkeit wurden die Quellenverweise und Fussnoten entfernt.


© Swiss Infosec AG 2024