Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Datenschutz und Technikgestaltung Die Geschichte des Datenschutzes – Teil 13

3.3 Das Problem des Datenschutzes

In der frühen Datenschutzdiskussion gab es nicht eine konsentierte Problembeschreibung, sondern eher eine Sammlung von als konzeptionell verbunden verstandenen Problemfeldern, die von unterschiedlichen Beteiligten als mehr oder weniger eng zusammenhängend verstanden wurden.

Das zeigt sich etwa schon an der Trennung zwischen Datenschutz im engeren Sinne und Daten-schutz im weiteren Sinne. Einer der Hauptgründe dafür liegt wohl darin, dass diese Diskussion vorwiegend von Juristinnen geführt wurde, von denen viele nicht sauber zwischen Problem-beschreibung, Problemlösung und der Umsetzung dieser Lösung im Recht unterschieden, und deshalb die jeweils als Prämisse spezifisch gesetzte Regelungsintention die Problembeschreibung selbst notwendig beschränkte – vergleichbar zum Grundproblem aller Privatheitsdebatten, die sich geradezu sklavisch an den Begriff „privat“ gebunden haben und binden, und insoweit nur Probleme sehen können, die sich als „privat“ markieren lassen.

Als die Datenschutzdebatte begann, war der „Organisationsvorsprung“, also der spezifische Machtvorsprung der Organisationen als Organisationen – begründet in der strukturell besseren Fähigkeit, Informationen zu verarbeiten und Entscheidungen zu treffen –, gesellschaftlich, vor allem durch das Recht, bereits eingehegt. Immer deutlicher wurde jedoch, dass die überkommenen Einhegungsmechanismen, also die Mechanismen, wie sie im Recht konkretisiert und umgesetzt worden waren, unter den Bedingungen der automationsgestützten Informationsverarbeitung nicht mehr funktionierten. Die Datenschutzdebatte versucht, auf dieses Problem eine Antwort zu finden und stellt dabei relativ schnell fest, dass es nicht ausreichen würde, ein paar Änderungen an einzelnen bestehenden Regelungen vorzunehmen. Stattdessen musste das Verhältnis zwischen Organisation, Information, Informationsverarbeitung und Macht grundlegend neu analysiert und auf die Folgen untersucht werden, die entstehen, wenn die Freiheits- und Partizipationsversprechen sowie die Strukturschutzprinzipien und -mechanismen der modernen bürgerlichen Gesellschaft auf Organisationen treffen, die im Zuge und mit Hilfe moderner Informationsverarbeitung diese Versprechen, Prinzipien und Mechanismen strukturell unterminieren.

Vor diesem Hintergrund soll nachfolgend das in der damaligen Debatte oft nur aspektbezogen diskutierte Datenschutzproblem, das sich als Folge der Rationalisierung, Maschinisierung und Automation der Informationsverarbeitung und Entscheidungsfindung in Organisationen ergibt, strukturiert rekonstruiert werden. In einem ersten Schritt werden dazu die dadurch erzeugten oder verbesserten und tendenziell auf Dauer gestellten Potentiale moderner Organisationen zur Steuerung oder Beeinflussung individueller, kollektiver oder institutioneller Betroffener und ihrer Handlungen sowie der Prästrukturierung ihrer Handlungsmöglichkeiten dargestellt. Anschließend werden solche Folgen betrachtet, die sich aus der konkreten Art und Weise der Informationsverarbeitung und Entscheidungsfindung in Organisationen ergeben. Dabei handelt es sich etwa um die Folgen, die sich daraus ergeben, dass Organisationen der Informationsverarbeitung Modellannahmen zugrunde legen (müssen), über die sie selbst die Modellierungshoheit haben, die Informationsverarbeitung grundsätzlich nur gemäß ihrer eigenen Programme und der dieser zugrunde liegenden Funktions- und Verfahrenslogik durchführen können und sie dabei tendenziell zur Aufhebung getrennter Kontexte mit deren jeweiligen Eigenlogiken und spezifischen Rollen und Rollenerwartungen neigen.

3.3.1 Das Problem der Datenmacht

Die durch Rationalisierung, Maschinisierung und Automation verbesserten Informationsverarbeitungs- und Entscheidungsfähigkeiten von Organisationen führen zu einer gegenüber dem schon vorhandenen, sich etwa bereits aus der Arbeitsteilung ergebenden, Organisationsvorsprung nochmals deutlich gesteigerten Leistungsfähigkeit der Organisationen, ihre jeweilige Umwelt wahrzunehmen und in dieser Umwelt – aus ihrer Sicht und in ihrem Interesse – angemessen zu agieren. Es verbessert sich die Fähigkeit der Organisation, Sachverhalte, vergangene und gegenwärtige Ereignisse, die daran beteiligten Akteurinnen und deren Beziehungen zu den Ereignissen und zueinander sowie deren Auswirkungen zugleich umfassender und in höherer Detailschärfe, schneller und effizienter zu erfassen, intern als Modelle – Informationen – abzubilden und als Daten zu speichern, zu verbreiten, mit anderen Informationen in Zusammenhang zu setzen und zu vergleichen, zu bewerten und darauf basierend Entscheidungen darüber zu treffen, wie sie damit umgeht oder darauf reagiert. Darüber hinaus steigt ihre Fähigkeit, das zukünftige Verhalten der modellierten Objekte vorherzusagen – genauer: sie können die Treffsicherheit ihrer Vorhersagen steigern –, und damit steigen die Erfolgsaussichten, dieses Verhalten zu beeinflussen, zu beschränken oder gar zu verhindern. Die Verdateten – Personen, Gruppen, ganze Bevölkerungen, aber auch andere Organisationen oder Institutionen – werden also, während sie durchleuchtet, verdatet, wahlweise entindividualisiert oder versippenhaftet, jedenfalls aber objektiviert und nummeriert werden, tendenziell unvergessen in Bezug auf die Vergangenheit, vorhersagbar in Bezug auf die Zukunft und mithin kontrollierbar in der Gegenwart. Für eine Einschränkung der Handlungsfreiheit reicht es, wenn die Verdateten damit rechnen müssen – oder auch nur nicht ausschließen können –, dass ihnen diese Handlungen später in solchen vermachteten Verhältnissen zum Vorwurf gemacht werden oder anderweitig Nachteile bescheren. Die konkreten Folgen sind jeweils davon abhängig, in welchem Verhältnis die Organisationen zu den von ihren Entscheidungen Betroffenen stehen. Zu den damals diskutierten Beispielen gehören die Möglichkeit, zum Ziel staatlicher, vor allem polizeilicher Maßnahmen zu werden, neue oder gerichtsfeste Ablehnungsgründe, die sich für eine öffentliche Verwaltung gegenüber Antragstellerinnen eröffnen, Preisdiskriminierungsmöglichkeiten für Unternehmen gegenüber ihren Kundinnen, Entscheidungsmöglichkeiten für Arbeitsgeberinnen über die Begründung oder Beendigung von Arbeitsverhältnissen, für Finanzinstitute über die Kreditkonditionen sowie für Versicherungen über die Versicherungskonditionen. Andere in der Debatte problematisierte Be-reiche betreffen Marktbeeinflussung und Monopolisierungstendenzen im Wirtschaftsbereich, das Verhältnis zwischen Arbeitsgeberinnen und Belegschaften in Mitbestimmungsfragen, zwischen Politik und Öffentlichkeit, zwischen Legislative und Exekutive oder zwischen zentralen und de-zentralen Organisationseinheiten des Staates.

Einige Eigenschaften dieser Folgenbetrachtung verdienen besondere Aufmerksamkeit: Erstens lädt die abstrakte Beschreibung des Problems dazu ein, es als nur abstrakt existierendes Problem zu ignorieren oder ihm die praktische Relevanz abzusprechen. Zweitens lädt sie dazu ein, es auf der gleichen abstrakten Ebene lösen zu wollen. Das ist etwa beim Code of Fair Information Practices oder bei den OECD Guideline geschehen, die deshalb statuieren, dass die Informationsverarbeitung „fair“ zu erfolgen habe. Drittens transformiert auch die am häufigsten umgesetzte Antwort des Rechts auf eine solche Klasse von Problemen, die Prozeduralisierung, das Problem nur: Wer entscheidet dann nach welchen Maßstäben, und wie sind der Entscheidungsprozess, die konkrete Abwägung und das Ergebnis für wen überprüfbar? Die Maßstäbe sind dann gerade das vierte Problem, denn die Bewertung der Folgen in jedem Einzelfall ist hochgradig interessen- und wertgebunden. Und selbst eine Systematisierung nach „Verwendungszusammenhängen“ kann fünftens nicht verhindern, dass die spezifische Systematik – vor allem im privaten Bereich – immer hochgradig umstritten bleiben wird, und darüber hinaus, wie jetzt im öffentlichen Be reich bereits zu beobachten, zu einer Flut von im Verhältnis zueinander immer inkonsistenter werdenden Regelungen führt.

3.3.2 Das Problem der Rationalitätsverschiebung

Der zweite Aspekt, der in der historischen Datenschutzdebatte breit diskutiert wurde, betrifft die Rationalitätsverschiebung und deren Folgen. Organisationen bilden die Objekte aus der Umwelt auf der Basis von Modellannahmen, die unter Modellierungshoheit der Organisationen gemäß den organisationseigenen Zwecken produziert werden, intern ab, unterwerfen sie dann der organisationseigenen Funktions- und Verfahrenslogik und verarbeiten sie entsprechend ihrer eigenen Programme. Sie entscheiden dabei zugleich selbst, welche Objekte sie abbilden und welche nicht. Die Folgen fehlender, falscher, veralteter oder für die intendierten Entscheidungen anderweitig unpassender Informationen tragen jedoch in erster Linie die Betroffenen. Gleiches gilt für die damals wie heute weitverbreitete Unterstellung, dass Informationen in Akten und informationstechnischen Systemen sowohl objektiv wie auch korrekt seien, weil sie in Akten stehen oder in Computern gespeichert sind. Das liegt auch daran, dass Organisationen zum Ignorieren, Verschweigen oder Verstecken ihrer Modellierungshoheit tendieren. Deutlich wird dies etwa bei Statistiken, aber auch Simulationen: Eine Organisation entscheidet, welche Rohdaten auf der Basis welcher Fragestellungen und mit welchen Methoden erhoben werden – und welche nicht –, wie sie gefiltert, verarbeitet, verknüpft und analysiert werden – und dann wird damit „Politik“ gemacht, etwa mit der Polizeilichen Kriminalstatistik oder Bevölkerungsprognosen, oder „Wissenschaft“ wie bei Google Trends. Mehr noch: Weil die Zwecke die Modellannahmen (mit-)produzieren, kann Korrektheit grundsätzlich allenfalls für den Zweck sichergestellt werden, der den Modellannahmen zugrunde gelegt wurde. Auch über Sachverhalte treffen Organisationen Vorentscheidungen in einer Weise, die dazu führten, dass nur noch entschieden werden kann, was die Organisationen an Entscheidungsspielraum noch übrig gelassen haben. Ob es sich dabei um Kundinnen gegenüber Unternehmen, Rezipientinnen gegenüber Inhaltsanbieterinnen, Gerichte gegenüber Geheimdiensten, politische Gremien gegenüber der öffentlichen Verwaltung oder die Wahlbevölkerung gegenüber dem Staat handelt, führt strukturell zum gleichen Ergebnis: Ohne Aufdeckung der Vorentscheidungen und der zugrunde liegenden Entscheidungsprämissen lässt sich für die Betroffenen nicht effektiv prüfen, welche Entscheidungsalternativen weggefallen sind und ob die verbleibenden nicht zufällig alle die Eigenschaft haben, den Interessen der Organisationen zu dienen. Im Ergebnis okkupieren damit die Organisationen die ursprünglich den Betroffenen gehörenden Entscheidungsräume – ein Problem, das in den 1970ern vor allem am Beispiel der Machtverschiebung zwischen Parlament und Ministerialbürokratie in Gesetzgebungsverfahren diskutiert wurde. Hinzu kommt, dass die in diesen Informationsverarbeitungsprozessen erzeugten „Datenschatten“ nicht an das Objekt gebunden sind, das sie „hervorgebracht“ hat. Ihrer beliebigen Speicherung, Verwendung und Weitergabe steht damit nichts mehr im Weg. Sie verstetigen damit nicht nur alte – und möglicherweise überholte – Sachverhalte, sondern sie ersetzen zugleich das Objekt, das sie repräsentieren, und ermöglichen es damit der Organisation, Entscheidungen über die verdateten Betroffene zu treffen, ohne mit der Betroffenen interagieren zu müssen.

Dieses von der Organisation erzeugte Problem findet seine Entsprechung im Bereich der in-formationstechnischen Systeme. Während die Debatte in den Anfangsjahren vor allem auf die Substitution menschlicher Informations- durch technische Datenverarbeitung in den Organisationen zielte und dabei etwa problematisierte, dass Code an die Stelle von Recht trete, aber nicht öffentlich und damit auch nicht überprüfbar sei, sind später auch Endnutzerinnensysteme in den Blick genommen worden, etwa als mit ISDN plötzlich für Angerufene sichtbar wurde, wer anruft – Verwaltungen konnten nun vor dem Abheben schon zwischen erwünschten und unerwünschten Anruferinnen, etwa Journalistinnen und anderen Querulantinnen, unterscheiden. Inzwischen haben sich die Bereiche, in denen Probleme mit versteckten Modellannahmen und der Entscheidungsraumokkupation auftreten können, bedeutend ausgeweitet – von Googles Entscheidung, aus Berechenbarkeitsgründen Relevanz aus Empfängerinnensicht durch Relevanz aus Senderinnensicht zu ersetzen, bis zu Facebooks Kontrolle über die Auswahl der Quellen für den Newsfeed und die Trending Topics.

3.3.3 Das Problem der Entdifferenzierung

Die zunehmende Integration von Informationssystemen führt, so lässt sich der dritte große Diskussionsgegenstand der Datenschutzdebatte zusammenfassen, zur tendenziellen Aufhebung der die moderne, funktional differenzierte Gesellschaft prägenden Trennung zwischen gesellschaftlichen Subsystemen, Feldern oder Kontexten mit jeweils spezifischen Eigenlogiken. Die Versuche der Organisationen, die differenzierten Rollen, in denen Menschen in modernen Gesellschaften mit Organisationen interagieren, zusammenzuführen, um „das »Eigentliche« der Person“ aufzudecken und zur Grundlage der eigenen Informationsverarbeitung und Entscheidungsfindung zu machen, gefährdet dabei nicht nur die Menschen, die sich in der Folge mit rollenfremden Erwartungen konfrontiert sehen. Sie gefährdet auch die moderne Gesellschaft und die Existenz der gesellschaftlichen Autonomiebereiche schlechthin, denn diese basieren gerade auf der Aufrechterhaltung ihrer jeweiligen Eigenlogiken gegenüber den Eigenlogiken anderer Bereiche – „sachwidrige Koppelung“ ist ein Gesellschaftsstruktur-Problem, nicht nur ein individuelles. Als besonders schweres, nämlich als Problem des Schutzes der Menschenwürde wird das Problem der Aufhebung der Rollentrennung gefasst, wo es in individualisierter Form als Problem der Erstellung umfassender Persönlichkeitsbilder adressiert wird, denn den Menschen in seiner ganzen Persönlichkeit zu erfassen, degradiere ihn zum Objekt. Aus Sicht der Datenverarbeiterin jedenfalls bestimmt sich, so viel dürfte heute klar sein, die Umfassendheit eines Profils nach dem Zweck, den die Datenverarbeiterin verfolgt, und das liegt mindestens dann vor, wenn „es das künftige Verhalten der Person prognostizierbar macht oder den Rollenwechsel des einzelnen [. . . ] unmöglich macht.“ 

3.3.4 Schlussfolgerungen

Der Kern des Datenschutzproblems sind also die strukturellen Machtimbalancen, die durch die Rationalisierung, Maschinisierung und Automation gesellschaftlicher Informationsverarbeitungs-prozesse erzeugt, verstärkt oder verfestigt werden, und deren Folgen für Individuen, Gruppen, Organisationen und die Gesellschaft insgesamt. Der gesellschaftliche Bedarf nach Datenschutz als „Lösung“ des Datenschutzproblems entsteht demnach, wenn die Freiheits- und Partizipationsversprechen sowie die Strukturschutzprinzipien und -mechanismen der modernen bürgerlichen Gesellschaft auf Organisationen treffen, die im Zuge und mit der Industrialisierung der gesellschaftlichen Informationsverarbeitung diese Ver-sprechen strukturell unterminieren. Datenschutz ist demnach die informationelle Dimension der „Lösung“ des allgemeinen gesellschaftlichen Machtproblems.

Die einzelnen Problembereiche wurden für verschiedene Konstellationen unterschiedlich um-fassend und tiefgehend analysiert. Schon damals bildeten Analysen, die Personen als Betroffene in den Blick nehmen, mit großem Abstand die Mehrheit der Ausarbeitungen, und inzwischen wird fast nichts anderes mehr betrachtet. Das Problem des Gruppendatenschutzes, im 1971er Gut-achten noch ein wichtiger Teil des Individualdatenschutzes, blieb lange eher unterbelichtet oder wurde in Nebensätzen abgehandelt, die sich im Kern mit Personendatenschutz beschäftigten. Inzwischen scheint dem Gruppendatenschutz jedenfalls wieder ein wenig mehr Aufmerksamkeit zuteil zu werden. Wenn überhaupt eine Diskussion zu Organisationen oder Institutionen als Betroffenen von Datenmacht stattfand oder stattfindet, dann fast nie im Rahmen der Datenschutzdebatte, jedenfalls nicht nach den 1970er Jahren. Das Gleiche gilt für die Gesellschaft als Ganzes.

Ein Grund für diese Schlagseite der Debatte findet sich darin, dass gerade die Arbeiten, die die ganze Breite der Betroffenen in den Blick genommen haben, den Fokus der Analyse auf die Datenverarbeiterinnen legen und versuchen zu ermitteln, wie sich aus welchen Gründen welche Machtverschiebungen zugunsten dieser Organisationen ergeben. Es handelt sich hier in gewisser Weise um das ebenso problematische Gegenstück zu einem Großteil der privacy– und Privatheitsdebatte: Indem in Akteurskonstellationen ein zu starker Fokus auf eine Seite dieser Konstellationen gelegt wird – in der Datenschutzdebatte auf Organisationen als Datenverarbeiterinnen, in der privacy-Debatte auf Personen als Betroffene –, bleibt die andere Seite fast notwendig unterbelichtet. Im organisationsfixierten Teil der Datenschutzdebatte sind die Betroffenen oft dann einfach nur „Alle“, während in der personenfixierten privacy-Debatte dieses „Alle“ auf die Angreiferinnen verweist.

Ein zweites – und fast noch größeres – Problem liegt im inzwischen ausnahmslosen Fokus auf ein spezielles Mittel, das in den Angriffen der Organisationen auf die Betroffenen verwendet wird: den personenbezogenen Informationen. Diese, jeder Analyse schon vorausgehende, Fixierung auf personenbezogene Informationen stellt eine mehr als fragwürdige Selbstbeschränkung hinsichtlich des Untersuchungsgegenstandes dar und produziert dabei fast schon absurde Konsequenzen: Es wird als privacy-, surveillance– und Datenschutzproblem für Alice und ihre Freiheitsausübung wahrgenommen, wenn diese Freiheitsausübung im Zuge oder infolge der Verarbeitung personenbezogener Informationen über Alice beschränkt wird, nicht aber, wenn das im Zuge oder infolge der Verarbeitung personenbezogener Informationen über Bob geschieht. Diese Selbstbeschränkung, die in der wissenschaftlichen Debatte schon konsentiert war, bevor die Datenschutzdiskussion Ende der 1960er Jahre begann, ist zwar an einigen Stellen „umgangen“ worden, etwa wenn die Machtverschiebungen mit einem ausschließlichen Fokus auf die Organisationen, die diese Machtverschiebung verursachen, beschrieben wurden, aber in der Mehrzahl der Arbeiten wurde sie einfach unreflektiert übernommen, wenn nicht sogar gepriesen.

Im Grunde ist für die Grenzziehung zwischen Informationen, deren Umgang problematisiert werden soll, und solchen, die aus dem zu betrachteten Gegenstandsbereich ausgeschlossen werden, nur für die innere Grenze, also die Einbeziehung von bestimmten Informationen, eine Begründung – ob wissenschaftlich oder politisch – gegeben worden. Die Außengrenze jedoch wurde nie begründet, sondern nur statuiert. Die hingegen wahrlich oft zu findende Aussage, die ausgeschlossenen Informationen würden gerade ausgeschlossen, weil sie nicht personenbezogen seien, ist gerade keine Begründung dafür, dass nur personenbezogene Informationen betrachtet werden, sondern schlicht das Ergebnis der notwendig scheiternden Subsumtion dieser Informationen unter den Personenbezugsbegriff.

Jörg Pohle; Humboldt-Universität zu Berlin; 2019

Open-Access-Erklärung: https://edoc-info.hu-berlin.de/de/nutzung/oa_hu

https://edoc.hu-berlin.de/handle/18452/19886

Zur leichteren Lesbarkeit wurden die Quellenverweise entfernt. Bei Interesse finden Sie sie im obigen Link.


© Swiss Infosec AG 2024