Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Datenschutz und Technikgestaltung Die Geschichte des Datenschutzes – Teil 12

3.2 Die Umwelt des Datenschutzes

In den frühen Arbeiten zur Datenverarbeitung und zum Datenschutz wird die Gesellschaft durch-gängig als moderne, funktional differenzierte Massen-, Industrie- und Informationsgesellschaft verstanden. Schon in den 1960er Jahren sind viele Datenschützerinnen der ersten Generation – so etwa Fiedler, Bull, Simitis und von Berg – an der rechtswissenschaftlichen Debatte um die Verwaltungsautomation beteiligt, andere wie Podlech und – etwas „verspätet“ – Steinmüller arbeiten an der Verbindung von Recht und Informatik. Sie alle waren begeisterte Automatisierungsbefürworterinnen und wurden auch von anderen so wahrgenommen. Sie kämpften dabei gerade auch mit dem Widerstand von Leuten, die ihnen nur ein paar Jahre später den Vorwurf der Automatisierungsfeindlichkeit entgegenschleuderten – die Datenschutzkritikerinnen der 1970er Jahre waren nicht selten die Automationskritikerinnen der 1960er!

Die meisten Datenschützerinnen der ersten Generation hatten einen juristischen Hintergrund. Wenig überraschend hat das die Debatte stark geprägt. Überraschender ist, dass nicht wenige der Beteiligten über ein oder mehrere weitere disziplinäre Standbeine verfügten: Herbert Fiedler hat zusätzlich Mathematik und Physik studiert und in Jura und Mathematik promoviert, Wilhelm Steinmüller hat neben Jura auch Theologie, Philosophie und Volkswirtschaft studiert, hat die Rechtsinformatik mitbegründet und wurde später als Professor für angewandte Informatik an die Universität Bremen berufen, und Adalbert Podlech hat vor dem Jurastudium Philosophie, Geschichte und Theologie studiert, sowohl in Philosophie wie in Jura promoviert, bei IBM PL/1 gelernt und später an der Technischen Hochschule Darmstadt versucht, einen Studiengang für Rechts- und Verwaltungsinformatik aufzubauen.

Die theoretische Basis war wenig überraschend stark strukturalistisch geprägt und von Kybernetik und Systemtheorie – sowohl der allgemeinen Systemtheorie Bertalanffys als auch der aufkommenden soziologischen Systemtheorie Luhmanns – beeinflusst. Den größten Einfluss hatte aber sicherlich Max Webers Bürokratietheorie.

Und nicht zuletzt spielte die Erfahrung mit dem Nationalsozialismus eine wesentliche Rolle und die Ende der 1960er und Anfang der 1970er Jahre aus den Diskussionen um die Bayerische Informationszentrale und das „allgemeine arbeitsteilige Informationsbankensystem“ folgende Erkenntnis, in welchem Umfang es der Staatsbürokratie offenbar gelingt, ihre langfristigen Datenverarbeitungsprojekte fast unverändert auch über gesellschaftliche Umbruchzeiten hinweg weiterzuverfolgen. Und gerade dabei handelt es sich um eine der Formen der Verselbständigung von Staatsgewalt, die der Rechtsstaat zu verhindern sucht.

In der Debatte wird von den Datenschützerinnen durchgängig der Primat des Rechts gegen-über der Technik vertreten, zugleich aber auch der Primat des Politischen gegenüber dem Recht.

3.2.1 Das Bild der Organisation

Der Analyse des Datenschutzproblems liegt im engeren Sinne keine Organisationstheorie zugrunde, vor allem keine ausgearbeitete. Dennoch lässt sich anhand der in den verschiedenen Texten referenzierten Werke und der verwendeten Begriffe, der Art ihres Gebrauchs und der daraus gezogenen Schlussfolgerungen klar erkennen, dass die Vertreterinnen der Datenschutztheorie die informationsverarbeitenden Organisationen, die sie in den Blick nahmen, als rationale Bürokratien im Weberschen Sinne betrachteten. Explizite Erklärungen dazu, dass gerade Webers Modell zugrunde gelegt wird, sind sehr selten. Christoph Mallmann und – viel später – Alexander Roßnagel stellen die Ausnahme dar.

Weber beschreibt die moderne Staatsverwaltung und große private Organisationen als „bürokratische Anstalten“. Bürokratie ist dabei die spezifische Form der modernen, rationalen Verwaltung: „Regel, Zweck, Mittel, »sachliche« Unpersönlichkeit beherrschen ihr Gebaren.“ Im zweckrationalen Modell Webers ist der Zweck der zentrale Bezugspunkt der Organisationen, der von der Organisation in Bäume von Zwecken und Unterzwecken zerlegt wird, wobei die Unterzwecke jeweils die Mittel zur Erreichung der darüberliegenden Zwecke darstellen. Die Rationalität der Organisation spiegelt sich dann einerseits in der Rationalität der Produktion dieses Zweck/Mittel-Schemas, andererseits in der durch hierarchische Strukturen geprägten und dem Schema angepassten Organisationsgestaltung wider.

Als organisierte Systeme „faktischen Entscheidungsverhaltens“ organisieren sich Organisationen selbst, um Entscheidungsprozesse zu strukturieren, Entscheidungsbedarfe zu regeln und die für die Entscheidungen notwendigen Informationen zu verteilen.

Die Organisationen werden in den einzelnen Arbeiten zum Datenschutz wahlweise als „Organisationen“, „Verwaltungen“ oder „Bürokratien“ bezeichnet, die entweder als „privat“, „öffentlich“ oder „staatlich“ qualifiziert werden, wobei oft aber auch schlicht „Bereich“, „der Staat“, „der Staatsapparat“, „die Wirtschaft“ oder „die Unternehmen“ als Bezeichner genutzt wird. An wenigen Stellen wird die Betrachtung explizit auf „größere“ oder „große“ Organisationen beschränkt. Immer wird ihnen aber zugeschrieben, dass sie rational seien, sich selbst und ihre Informationsverarbeitung rationalisieren würden oder Objekt von Rationalisierung seien, informationstechnische Systeme zur Rationalisierung einsetzen und diese dann rational nutzen würden. Rationalität ist damit neben Automation einer der wesentlichen Bezugspunkte der Datenschutzdebatte in den 1970er Jahren, teilweise auch noch in den 1980er Jahren. Mit der Zeit aber werden beide Begriffe – Rationalität und Automation – in den Texten zum Datenschutz seltener.

Wie schon bei Weber selbst bleibt das Verhältnis zur Organisation notwendig ambivalent: Moderne Gesellschaften sind ohne Organisationen nicht existenzfähig. Menschen sind in modernen Gesellschaften abhängig von Organisationen und ihrer Erbringung von Leistungen, nicht nur, aber auch von zivilisatorischen Grundleistungen. Dabei strukturieren sie „eine Arena für die Betätigung individueller Freiheit“. Organisationen wirken also als gleichzeitig ermöglichende wie beschränkende Struktur.

Die Rationalität der Organisation stellt mit der „Formalisierung bestimmter zentraler Erwartungen“ eben auch eine Beschränkung von Willkür dar, und die rationale Vorausplanung ihrer Informationsverarbeitungs- und Entscheidungsverfahren ermöglicht nicht nur deren Formalisierung und Automation, sondern bietet gerade auch einen Ansatzpunkt für die rechtliche Regelung und die Kontrolle von Regeleinhaltung. Besonders deutlich wird dies einerseits in der Konstruktion der Phasenorientierung des Datenschutzrechts, andererseits in der Institutionalisierung der vormals Vorabkontrolle genannten Datenschutz-Folgenabschätzung.

Das Angreifermodell der Datenschutztheorie ist damit schon auf der Akteursebene sehr viel umgrenzter als das der meisten anderen Theorien, auch wenn es weder angemessen anschlussfähig dargestellt noch von allen Beteiligten konsequent zugrunde gelegt und konsistent genutzt wurde. Aus Datenschutzsicht sind damit die Organisationen Angreiferinnen, während Personen grundsätzlich kein Datenschutzproblem erzeugen. Insoweit Datenschutz eine Grenze zwischen dem, was er unter Bedingungen stellen will, und dem, was er nicht betrachten will, zieht, sind Personen, die sich nicht unter Kontrolle der Organisation befinden und die von der Organisation gesetzten Regeln einhalten, als „undichte Dritte“ zu betrachten und auszuschließen. Und die Umsetzung dieses Ausschlusses und seine Gewährleistung ist dann Aufgabe der IT-Sicherheit.

Dennoch ist zu fragen, ob und inwieweit das zugrunde gelegte Organisationsmodell tragfähig ist. In der Praxis hat sich schon vor Jahrzehnten deutlich gezeigt, dass die Rationalität der Organisationen sich nicht automatisch in eine Rationalität ihrer Informationsverarbeitungs- und Entscheidungsfindungsprozesse oder die zugrunde liegenden Informationen oder die darauf basierenden Entscheidungen übersetzen. In der Wissenschaft gilt jedenfalls das Webersche Organisationsmodell als überholt, und gerade die Vorstellung in der frühen Datenschutzdebatte ist sehr mechanistisch. Unabhängig von diesen grundlegenden Kritiken stellt sich aber die Frage, ob diese Modellvorstellungen auch für kleine Organisationen gelten. Die meisten Beschreibungen von Organisationen in der Frühzeit der Datenschutzdiskussion beziehen sich auf große Organisationen in Staat wie Wirtschaft, kleine – und damit tendenziell nicht rationale oder nicht rationalisierte – wurden an keiner Stelle explizit problematisiert. Die Frage ist auch, ob „Größe“ ein sinnvolles Maß ist, um die „Rationalität“ und das Bedrohungspotenzial der Organisation und ihrer Informationsverarbeitung zu operationalisieren. Aus informatischer Sicht ist, wie das Beispiel der berühmten Zwei-Personen-„Klitschen“, die in Garagen gegründet werden und „Revolutionen“ auslösen, zeigt, Größe jedenfalls kein sinnvoller Maßstab.

3.2.2 Der Charakter der Informationsverarbeitung

In der Vorstellung der Datenschutztheorie hängen Organisation und Information eng zusammen. Organisationen werden – genauso wie Menschen – als informationsverarbeitende Systeme – auch „Informationssysteme“ – verstanden. Computer sind hingegen datenverarbeitende Systeme, die aber zur Unterstützung der Informationsverarbeitung eingesetzt werden können. Organisationen, die Computer zur Unterstützung ihrer Informationsverarbeitung einsetzen, werden dann als soziotechnische oder techno-soziale Systeme verstanden. Im Gegensatz zu fast allen anderen Theorien in diesem Feld legt die Datenschutztheorie einen ausgearbeiteten und auf Angemessenheit zur Analyse und Lösung des Datenschutzproblems untersuchten Informationsbegriff zugrunde. Vor allem weil der Begriff „Datenschutz“ bereits eingeführt war, als die eigentliche Theoriearbeit gerade erst begann, wurde „Information“ für den juristischen Sprachgebrauch und die Umsetzung im Recht als „Datum“ bezeichnet, was bis heute Verwirrung stiftet. Allerdings ist zuzugeben, dass es in der damaligen Zeit wahrscheinlich auch nicht besser gewesen wäre, am Begriff „Information“ festzuhalten, weil einer der wesentlichen Bezugsrahmen der Debatte – die Informatik – selbst auch einen Informationsbegriff als zentralen Anknüpfungspunkt nutzt, den Informationsbegriff von Shannon – und der ist gerade wegen seiner Beschränkung auf technische Kommunikationssysteme auch unbrauchbar.

Information dient der Produktion von Entscheidung – für oder gegen eine Handlung – oder Information – als Material für weitere Entscheidungen. Entscheidung ist „erzeugte Information“. Entscheiden ist mithin Informationsverarbeitung. Organisationen entscheiden „in formalisierten systeminternen Verfahrensschritten unter bloßer Orientierung an Programmen und Entscheidungsrastern“ – „organisationseigenen Programmen“ –, wobei die Informationen aus der Umwelt schon nur über diese „Programme“ in die Organisation kommen, indem sie intern als Modell erzeugt werden. Solche Modelle sind prinzipiell immer reduktionistisch, aber sie sind dabei nicht falsch, sondern zweckmäßig.

Vor diesem Hintergrund wird verständlich, warum die Datenschützerinnen der ersten Generation eine „modelltheoretische Interpretation des Informationsbegriffs“ zugrunde legten. Danach sind Informationen Modelle von Objekten, also Abbildungen. Der Informationsbegriff selbst wurde aus der Semiotik übernommen und besitzt vier Dimensionen: Syntax, Semantik, Pragmatik und Sigmatik. Mit Syntax wird dabei die konkrete, meist zeichenmäßige Repräsentation, mit Semantik die Bedeutung und mithin der Kontext, mit Pragmatik der Zweck und mit Sigmatik der Verweis auf das Objekt – den Menschen, das Ding, das Konzept, das Ereignis oder den Prozess –, das die Information abbildet, bezeichnet.

Diese Abbildungen werden durch die Organisation erzeugt, für ihre eigenen Zwecke und auf ihre Zwecke zugeschnitten. Hier wird der zentrale Unterschied zu Daten deutlich, denn Daten können von Organisationen einfach kopiert werden, Informationen nicht. Die Organisation besitzt damit „Modellierungshoheit“: Sie gibt den Zweck vor, mit der die Modelle beschränkt werden, sie entscheidet über die zugrunde zu legenden Modellannahmen und sie kontrolliert die Prozesse der Modellbildung selbst, also die Entscheidungen, welche Ereignisse oder Zustände entweder analysiert oder gerade von der Analyse ausgeschlossen werden, wie sie gemessen und quantifiziert werden, wie sie mit bereits vorhandenen Informationen in Beziehung gesetzt und eingeordnet werden. Information ist damit immer Zuschreibung und kann damit nie objektiv oder neutral sein, aber eben auch nicht sensitiv oder harmlos – sie ist, wie die Organisation sie macht und was sie aus und mit ihr macht und machen will. In der Folge sind die gleichen Daten – unterstellt, dass die Datenformate und Kodierungen gleich sind – für unterschiedliche Organisationen, für unterschiedliche Zwecke, aber auch für unterschiedliche Objekte jeweils grundsätzlich unterschiedliche Informationen.

Zwar werden in der Debatte nicht nur Personenmodelle – „personenbezogene Informationen“ im Sprachgebrauch der Rechtsinformatik und „personenbezogene Daten“ im Sprachgebrauch des Datenschutzrechts – betrachtet, aber erstens liegt darauf der Schwerpunkt und zweitens werden nur diese – genauer: der Umgang mit ihnen – später im Datenschutzrecht geregelt. Die in den Modellen abgebildeten Personen werden dann in der Sprache des Datenschutzrechts als Betroffene bezeichnet. Die Entscheidung für eine Selbstbeschränkung auf Personenmodelle geht dabei – wie in Bezug auf andere Aspekte auch – der eingehenden Analyse des Datenschutzproblems im Laufe der 1970er Jahre voraus. In den nicht so sehr im Zentrum der Aufmerksamkeit stehenden Debatten werden aber auch Gruppenmodelle, Bevölkerungsmodelle und allgemeine Planungsmodelle adressiert und hinsichtlich der Folgen ihrer Verwendung in Organisationen analysiert.

Moderne Organisationen versuchen schon immer, die Grenzen des technisch Machbaren auszuloten und tendenziell alle Informationen zu sammeln, derer sie habhaft werden können, denn wegen des technischen Fortschritts und des damit einhergehenden Preisverfalls ist eine Ausweitung der Informationsspeicherung tendenziell billiger als Löschen, auch weil sich Organisationen damit Entscheidungsmöglichkeiten – und darauf aufbauend organisatorische Entwicklungsmöglichkeiten – offenhalten wollen. So überrascht es auch nicht, dass Einmalerhebung, unbeschränkte Verbreitung innerhalb der Verwaltung und Mehrfach- und Vielfachnutzung personenbezogener Informationen erklärte Ziele der Verwaltungsautomation waren. Die Datenschutzdiskussion hat das durchaus wahrgenommen und als Problem markiert, obwohl das von den Automationsbefürworterinnen propagierte Ziel in deutlichem Widerspruch zur Annahme steht, es handele sich um zweckrationale Organisation.

Die Automation setzt auf der in rationalen Organisation schon stattfindenden Rationalisierung

– Formalisierung und Standardisierung der Verfahren, Typisierung der Modelle, Transformation subjektiver in objektive Prozesse – auf. Vergleichbar zur Industrialisierung der physischen Arbeit wird versucht, die Informationsverarbeitung der Organisationen zu „maschinisieren“, also in „maschinen“-verarbeitbare Prozesse zu transformieren. Dazu werden sowohl die Informationen

– als Daten – wie auch die Entscheidungsprogramme – auf der Prozessebene als Algorithmen oder Heuristiken, aus der Systemsicht als Software – in informationstechnische Systeme übertragen. Diese können dann zur Unterstützung menschlicher Entscheidungsfindung dienen oder die Entscheidungen selbst treffen. Dabei werden die Typisierungen danach ausgewählt, dass sie sich möglichst gut technisch umsetzen und nutzen lassen. Kriterien aus der Technik bedingen also die Gestaltung der Modelle.

Auch wenn in den verschiedenen Arbeiten nicht immer deutlich gemacht wird, für wie mächtig die Maschine tatsächlich gehalten wird, scheint doch zumindest die Annahme verbreitet zu sein, dass der Computer sich in Richtung eines Informationsverarbeitungssystems – und nicht nur eines Datenverarbeitungssystems – entwickeln werde. Zumindest aber ist allgemeine Ansicht, dass der Computer die Beschränkungen der menschlichen Datenverarbeitungsfähigkeiten aufhebt. Damit einher geht dann aber eben ein qualitativer Sprung in der Informationsverarbeitungs- und Entscheidungskapazität von Organisationen, die diese Maschinen einsetzen. Dieser Sprung wird an vielen Stellen als „radikal“ bezeichnet oder – von Fiedler – als „Übergang zu einer neuen Stufe der Rationalität.“

Im Gegensatz zum Organisationsmodell überzeugt der Informationsbegriff bis heute, auch weil er hervorragende Anschlussmöglichkeiten für alle – oder zumindest die meisten – an der Debatte beteiligten Disziplinen bietet, insbesondere für die Soziologie, die Rechtswissenschaft und natürlich die Informatik. Sowohl Verarbeiterinnenwechsel, Zweck- und Kontextveränderungen wie auch Ketten von Interpretationen, Verdatungen und Re- oder Neu-Interpretationen lassen sich damit konsistent unter Bezugnahme auf einen gemeinsamen Informationsbegriff adressieren. Gleiches gilt für die Erkenntnis, dass das Maschinenmodell der Informatik, der Automat, und da-mit eine Bezugnahme nur auf informationstechnische Systeme für die Analyse der individuellen und gesellschaftlichen Risiken moderner Informationsverarbeitung zu kurz greift. Problematisch ist hingegen die in der Datenschutzdebatte weit verbreitete – und sehr wahrscheinlich direkt aus der Vorstellung von Zweckrationalität abgeleitete – Unterstellung, Organisationen würden versuchen, ihre Umwelt möglichst auf der Basis von explizierten Modellannahmen zu beobachten, ausschließlich oder vorwiegend kausalitätsbasierte Abbildungen vorzunehmen und deshalb einem objektiven Zwang zur Datenqualität zu unterliegen, an den sich dann das Datenschutzrecht einfach ankoppeln kann, um aus „Fehl“-Interpretationen von Informationen folgende Erwartungsverletzungen auf Seiten der abgebildeten Personen zu verhindern. Aus der Sicht der Organisation ist das aber egal, solange es ihr gelingt, die daraus sich ergebenden Risiken für sich selbst im Rahmen zu halten oder sie auf ihre Klientel abzuwälzen.

3.2.3 Das Technikbild

Der Analyse des Datenschutzproblems liegt fast durchgängig ein instrumentelles Verständnis von Datenverarbeitungstechnik zugrunde, jedenfalls in Bezug auf die Organisation. Informationstechnische Systeme werden als Werkzeug verstanden, die von ihren Beherrscherinnen – ob Herstellerinnen, Eigentümerinnen oder Betreiberinnen – nach ihren Interessen gestaltet und eingesetzt werden. Den Betrachtungen ihrer Folgen – oder besser: den Folgen ihres Gebrauchs – für die Betroffenen liegt aber eher ein relationales Verständnis zugrunde. Die Technik werde nicht nur nach den Interessen der Datenverarbeiterinnen gestaltet, in der Technik verkörperten sich dann auch diese Interessen und in ihrem Einsatz diene sie ihnen. Das sei auch nicht überraschend, denn die Gestalterinnen und Betreiberinnen seien selbst von einem instrumentellen Rationalismus geprägt.

Aus Sicht der Datenschutzdebatte ist Technik in großem Maße gestaltbar. Bei „technischen Zwängen“ handele es sich in den meisten Fällen schlicht um Rechtfertigungsformeln für Eigenschaften, die – ob bewusst oder unbewusst – in informationstechnische Systemen im Interesse ihrer Beherrscherinnen hineinkonstruiert wurden. Sie dienen dazu, sowohl die Tatsache dieses Hineinkonstruierens selbst wie auch die hineinkonstruierten Interessen nicht diskutieren zu müssen. Die Gründe für dieses Nicht-diskutieren-Wollen können vielfältig sein – es kann etwa schlicht sein, dass eine Explikation der Interessen zur Aufkündigung eines vorher mühsam erkämpften Konsenses, der vielleicht auch nur in einer „Unterstellung der Gleichsinnigkeit“ bestand, zu führen droht. Für die Datenschützerinnen zählen in erster Linie die Folgen für die Betroffenen, denn die Informationstechnik wird als Machtverstärker verstanden, und daher sei relevant, welche Interessen in der Technik verkörpert werden. Und natürlich, wie die Systeme eingesetzt werden.

Wenn aber die Technik gestaltbar sei und von den Organisationen gestaltet werde, und die Organisationen und ihr Handeln dem Recht unterworfen seien, dann müsste Recht grundsätzlich auch in der Lage sein, so die Argumentation der Datenschützerinnen, die Gestaltung und den Gebrauch informationstechnischer Systeme zu steuern. Beides war daher immer auch explizites Ziel der Datenschutzdebatte. Und insoweit Organisationen zum Zwecke der Optimierung und Rationalisierung von Tätigkeiten diese automatisierten – und vor dem Hintergrund der Diskussion um automationsgerechte Gesetze in den 1960er Jahren –, konnte durchaus erwartet werden

– und Fiedler hat sogar explizit gefordert, dass die Gesetze dazu automationsgerecht gestaltet werden sollen –, dass Organisationen Datenschutz in Technik umsetzen – und genau darauf zielte dann auch eine Regelung im Bundesdatenschutzgesetz 1977. Zwei Oberziele wurden dabei formuliert: Technik müsse machen, was sie solle, und Technik dürfe nicht können, was sie nicht dürfe. Oder etwas überspitzter: Wenn die Organisation schon eine (Webersche) Maschine sei, dann könne der (informationstechnischen) Maschine ganz sicher beigebracht werden, sich wie eine sich rechtmäßig verhaltende Organisation zu verhalten.

So zwingend sich diese Argumentation auch anhören mag, so voraussetzungsvoll ist sie doch gleichzeitig – und nur in einem geringen Umfang wurde das in den ersten beiden Jahrzehnten reflektiert. Sehr früh war zumindest schon klar, dass Informationssysteme grundsätzlich zweckfrei seien, und ihre „Multifunktionalität“ wurde breit diskutiert. Und genau deshalb wurde die Einführung des zugleich kontrafaktischen wie normativen Prinzips der Zweckbindung gefordert, wenn es auch erst im BDSG 1990 umgesetzt wurde.

Dieses Zweckfreiheitsproblem wurde später differenzierter betrachtet: Computer und Netze seien grundsätzlich zweckfrei, aber mit Programmen – und nur mit diesen – könne der Computer zweckbeschränkt werden. Gleichzeitig sind aber diese Systeme durchgängig nur als sehr geschlossene, ja fast schon totale Systeme imaginiert worden. Das zeigen etwa die umfassenderen Gestaltungsvorschläge, die im Laufe der Debatte vorgelegt wurden, so etwa Podlechs Vorschlag zur Trennung von politischer, technischer und fachlicher Verantwortung direkt im System, wobei die Benutzerinnen (fachliche Verantwortung) nur über definierte Schnittstellen auf die Systeme (der Unternehmerinnen, technische Verantwortung) mit den Daten zugreifen dürfen, auf denen dann die mittels Programmkontrolle kontrollierbare Datenverarbeitung abläuft, Steinmüller et al. mit einem System, das alle Aufgaben einer Institution abbildet und nur genau deshalb kontrollierbar gemacht werden kann, Bräutigam et al. mit dem Vorschlag für eine von keinem Programm umgehbare Middleware oder Hammer et al. mit einem extrem abgeschlossenen System, das gestaltet werden soll, nämlich einem betrieblichen Telefonsystem. In allen diesen Fällen tritt die Technik damit deutlich als reines Instrument der Organisation auf.

Diese Vorstellung mag bis in die 1980er Jahre für den Computer und seinen Einsatz in Organisationen vor allem aufgrund seines Preises, der daraus resultierenden relativ geringen Verbreitung und der Anforderungen an seine Programmierung und Bedienung noch einen gewissen Wirklichkeitsbezug gehabt haben. Aber jedenfalls mit dem Aufkommen des PCs, der breiten Verfügbarkeit von Software – vor allem solcher Programme wie VisiCalc, Microsoft Multiplan und Lotus 1–2–3 –, mit dem Erscheinen der ersten einfach nutzbaren grafischen Benutzeroberflächen und mit der zunehmenden Vernetzung der Endgeräte – sogenannten „offenen Netzen“, im Gegensatz zur seit den 1960ern schon problematisierten Vernetzung („Integration“) von Informationssystemen – verlor der Computer seinen instrumentellen Charakter auch in der Praxis. Und damit wird eben gerade fraglich, inwieweit Organisationen tatsächlich in der Lage sind, ihre automationsunterstützten Informationsverarbeitungsverfahren zu kontrollieren, oder ob es sich dabei – analog etwa zu den Fiktionen im Bereich der informierten Einwilligung (Wahlfreiheitsfiktion, Marktfiktion, Transparenz- bzw. Bestimmtheitsfiktion, Aufsichtsfiktion) – nicht schlicht um eine Kontrollierbarkeitsfiktion handelt. Die Datenschützerinnen der ersten Generation haben diese Diskussion dann schon nicht mehr geführt, auch wenn sie den Bedarf dafür wahrgenommen haben.

3.2.4 Schlussfolgerungen

Vor diesem Hintergrund zeigt gerade die Verbindung zwischen dem unterstellten zweckrationalen Charakter von Organisation und dem ebenso unterstellten instrumentellen Charakter von informationstechnischen Systemen, dass die heute gerne bemühte Behauptung, das Datenschutz-recht basiere auf der Vorstellung des klassischen Großrechners der 1970er Jahre, fehl geht und zu kurz greift. Richtig ist hingegen, dass sich Datenschutz nach der Vorstellung der damaligen Debatte offensichtlich nur in von kontrollierbaren und sich selbst kontrollierenden Organisationen kontrollierten Informatiksystemen direkt umsetzen lässt. Diese Kontrollierbarkeitsfiktion prägt aber auch stark die informatische Debatte um die datenschutzfreundliche oder privacy-enhancing Technikgestaltung, so etwa im Bereich der nutzerinnenkontrollierten Identitätsmanagementsysteme oder bei Apps auf Endnutzerinnengeräten. Gestaltungsziel ist in diesen Fällen offensichtlich immer die – eventuell sogar beweisbare – Garantie von bestimmten Eigenschaften der technischen Systeme. Diese Zielvorstellung, die in Anlehnung an Troncoso als „harter Datenschutz“ bezeichnet werden kann, lässt sich damit aber eben offensichtlich nur in einem Teil von Systemen umsetzen, die dann aber datenschutzgarantierend sind. Wenn die Annahme, dass Organisationen zweckrational sind, Technik unter ihrer vollen Kontrolle steht und die Verfahren nur in oder mit dieser Technik stattfinden, fallen gelassen wird, dann lassen sich allenfalls schwächere Formen des Datenschutzes in Technik und durch Technik umsetzen. Das Ziel ist dann, Technik zu gestalten, die den Datenschutz – als Eigenschaft einer Praxis der Informationsverarbeitung und Entscheidungsfindung – fördert und seine Einhaltung sehr viel wahrscheinlicher macht als seine Nichteinhaltung.

Jörg Pohle; Humboldt-Universität zu Berlin; 2019

Open-Access-Erklärung: https://edoc-info.hu-berlin.de/de/nutzung/oa_hu

https://edoc.hu-berlin.de/handle/18452/19886

Zur leichteren Lesbarkeit wurden die Quellenverweise entfernt. Bei Interesse finden Sie sie im obigen Link.


© Swiss Infosec AG 2024