Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Datenschutz und Technikgestaltung Die Geschichte des Datenschutzes – Teil 12

3.2 Die Umwelt des Datenschutzes

In den frühen Arbeiten zur Datenverarbeitung und zum Datenschutz wird die Gesellschaft durch-gängig als moderne, funktional differenzierte Massen-, Industrie- und Informationsgesellschaft verstanden. Schon in den 1960er Jahren sind viele Datenschützerinnen der ersten Generation – so etwa Fiedler, Bull, Simitis und von Berg – an der rechtswissenschaftlichen Debatte um die Verwaltungsautomation beteiligt, andere wie Podlech und – etwas „verspätet“ – Steinmüller arbeiten an der Verbindung von Recht und Informatik. Sie alle waren begeisterte Automatisierungsbefürworterinnen und wurden auch von anderen so wahrgenommen. Sie kämpften dabei gerade auch mit dem Widerstand von Leuten, die ihnen nur ein paar Jahre später den Vorwurf der Automatisierungsfeindlichkeit entgegenschleuderten – die Datenschutzkritikerinnen der 1970er Jahre waren nicht selten die Automationskritikerinnen der 1960er!

Die meisten Datenschützerinnen der ersten Generation hatten einen juristischen Hintergrund. Wenig überraschend hat das die Debatte stark geprägt. Überraschender ist, dass nicht wenige der Beteiligten über ein oder mehrere weitere disziplinäre Standbeine verfügten: Herbert Fiedler hat zusätzlich Mathematik und Physik studiert und in Jura und Mathematik promoviert, Wilhelm Steinmüller hat neben Jura auch Theologie, Philosophie und Volkswirtschaft studiert, hat die Rechtsinformatik mitbegründet und wurde später als Professor für angewandte Informatik an die Universität Bremen berufen, und Adalbert Podlech hat vor dem Jurastudium Philosophie, Geschichte und Theologie studiert, sowohl in Philosophie wie in Jura promoviert, bei IBM PL/1 gelernt und später an der Technischen Hochschule Darmstadt versucht, einen Studiengang für Rechts- und Verwaltungsinformatik aufzubauen.

Die theoretische Basis war wenig überraschend stark strukturalistisch geprägt und von Kybernetik und Systemtheorie – sowohl der allgemeinen Systemtheorie Bertalanffys als auch der aufkommenden soziologischen Systemtheorie Luhmanns – beeinflusst. Den größten Einfluss hatte aber sicherlich Max Webers Bürokratietheorie.

Und nicht zuletzt spielte die Erfahrung mit dem Nationalsozialismus eine wesentliche Rolle und die Ende der 1960er und Anfang der 1970er Jahre aus den Diskussionen um die Bayerische Informationszentrale und das „allgemeine arbeitsteilige Informationsbankensystem“ folgende Erkenntnis, in welchem Umfang es der Staatsbürokratie offenbar gelingt, ihre langfristigen Datenverarbeitungsprojekte fast unverändert auch über gesellschaftliche Umbruchzeiten hinweg weiterzuverfolgen. Und gerade dabei handelt es sich um eine der Formen der Verselbständigung von Staatsgewalt, die der Rechtsstaat zu verhindern sucht.

In der Debatte wird von den Datenschützerinnen durchgängig der Primat des Rechts gegen-über der Technik vertreten, zugleich aber auch der Primat des Politischen gegenüber dem Recht.

3.2.1 Das Bild der Organisation

Der Analyse des Datenschutzproblems liegt im engeren Sinne keine Organisationstheorie zugrunde, vor allem keine ausgearbeitete. Dennoch lässt sich anhand der in den verschiedenen Texten referenzierten Werke und der verwendeten Begriffe, der Art ihres Gebrauchs und der daraus gezogenen Schlussfolgerungen klar erkennen, dass die Vertreterinnen der Datenschutztheorie die informationsverarbeitenden Organisationen, die sie in den Blick nahmen, als rationale Bürokratien im Weberschen Sinne betrachteten. Explizite Erklärungen dazu, dass gerade Webers Modell zugrunde gelegt wird, sind sehr selten. Christoph Mallmann und – viel später – Alexander Roßnagel stellen die Ausnahme dar.

Weber beschreibt die moderne Staatsverwaltung und große private Organisationen als „bürokratische Anstalten“. Bürokratie ist dabei die spezifische Form der modernen, rationalen Verwaltung: „Regel, Zweck, Mittel, »sachliche« Unpersönlichkeit beherrschen ihr Gebaren.“ Im zweckrationalen Modell Webers ist der Zweck der zentrale Bezugspunkt der Organisationen, der von der Organisation in Bäume von Zwecken und Unterzwecken zerlegt wird, wobei die Unterzwecke jeweils die Mittel zur Erreichung der darüberliegenden Zwecke darstellen. Die Rationalität der Organisation spiegelt sich dann einerseits in der Rationalität der Produktion dieses Zweck/Mittel-Schemas, andererseits in der durch hierarchische Strukturen geprägten und dem Schema angepassten Organisationsgestaltung wider.

Als organisierte Systeme „faktischen Entscheidungsverhaltens“ organisieren sich Organisationen selbst, um Entscheidungsprozesse zu strukturieren, Entscheidungsbedarfe zu regeln und die für die Entscheidungen notwendigen Informationen zu verteilen.

Die Organisationen werden in den einzelnen Arbeiten zum Datenschutz wahlweise als „Organisationen“, „Verwaltungen“ oder „Bürokratien“ bezeichnet, die entweder als „privat“, „öffentlich“ oder „staatlich“ qualifiziert werden, wobei oft aber auch schlicht „Bereich“, „der Staat“, „der Staatsapparat“, „die Wirtschaft“ oder „die Unternehmen“ als Bezeichner genutzt wird. An wenigen Stellen wird die Betrachtung explizit auf „größere“ oder „große“ Organisationen beschränkt. Immer wird ihnen aber zugeschrieben, dass sie rational seien, sich selbst und ihre Informationsverarbeitung rationalisieren würden oder Objekt von Rationalisierung seien, informationstechnische Systeme zur Rationalisierung einsetzen und diese dann rational nutzen würden. Rationalität ist damit neben Automation einer der wesentlichen Bezugspunkte der Datenschutzdebatte in den 1970er Jahren, teilweise auch noch in den 1980er Jahren. Mit der Zeit aber werden beide Begriffe – Rationalität und Automation – in den Texten zum Datenschutz seltener.

Wie schon bei Weber selbst bleibt das Verhältnis zur Organisation notwendig ambivalent: Moderne Gesellschaften sind ohne Organisationen nicht existenzfähig. Menschen sind in modernen Gesellschaften abhängig von Organisationen und ihrer Erbringung von Leistungen, nicht nur, aber auch von zivilisatorischen Grundleistungen. Dabei strukturieren sie „eine Arena für die Betätigung individueller Freiheit“. Organisationen wirken also als gleichzeitig ermöglichende wie beschränkende Struktur.

Die Rationalität der Organisation stellt mit der „Formalisierung bestimmter zentraler Erwartungen“ eben auch eine Beschränkung von Willkür dar, und die rationale Vorausplanung ihrer Informationsverarbeitungs- und Entscheidungsverfahren ermöglicht nicht nur deren Formalisierung und Automation, sondern bietet gerade auch einen Ansatzpunkt für die rechtliche Regelung und die Kontrolle von Regeleinhaltung. Besonders deutlich wird dies einerseits in der Konstruktion der Phasenorientierung des Datenschutzrechts, andererseits in der Institutionalisierung der vormals Vorabkontrolle genannten Datenschutz-Folgenabschätzung.

Das Angreifermodell der Datenschutztheorie ist damit schon auf der Akteursebene sehr viel umgrenzter als das der meisten anderen Theorien, auch wenn es weder angemessen anschlussfähig dargestellt noch von allen Beteiligten konsequent zugrunde gelegt und konsistent genutzt wurde. Aus Datenschutzsicht sind damit die Organisationen Angreiferinnen, während Personen grundsätzlich kein Datenschutzproblem erzeugen. Insoweit Datenschutz eine Grenze zwischen dem, was er unter Bedingungen stellen will, und dem, was er nicht betrachten will, zieht, sind Personen, die sich nicht unter Kontrolle der Organisation befinden und die von der Organisation gesetzten Regeln einhalten, als „undichte Dritte“ zu betrachten und auszuschließen. Und die Umsetzung dieses Ausschlusses und seine Gewährleistung ist dann Aufgabe der IT-Sicherheit.

Dennoch ist zu fragen, ob und inwieweit das zugrunde gelegte Organisationsmodell tragfähig ist. In der Praxis hat sich schon vor Jahrzehnten deutlich gezeigt, dass die Rationalität der Organisationen sich nicht automatisch in eine Rationalität ihrer Informationsverarbeitungs- und Entscheidungsfindungsprozesse oder die zugrunde liegenden Informationen oder die darauf basierenden Entscheidungen übersetzen. In der Wissenschaft gilt jedenfalls das Webersche Organisationsmodell als überholt, und gerade die Vorstellung in der frühen Datenschutzdebatte ist sehr mechanistisch. Unabhängig von diesen grundlegenden Kritiken stellt sich aber die Frage, ob diese Modellvorstellungen auch für kleine Organisationen gelten. Die meisten Beschreibungen von Organisationen in der Frühzeit der Datenschutzdiskussion beziehen sich auf große Organisationen in Staat wie Wirtschaft, kleine – und damit tendenziell nicht rationale oder nicht rationalisierte – wurden an keiner Stelle explizit problematisiert. Die Frage ist auch, ob „Größe“ ein sinnvolles Maß ist, um die „Rationalität“ und das Bedrohungspotenzial der Organisation und ihrer Informationsverarbeitung zu operationalisieren. Aus informatischer Sicht ist, wie das Beispiel der berühmten Zwei-Personen-„Klitschen“, die in Garagen gegründet werden und „Revolutionen“ auslösen, zeigt, Größe jedenfalls kein sinnvoller Maßstab.

3.2.2 Der Charakter der Informationsverarbeitung

In der Vorstellung der Datenschutztheorie hängen Organisation und Information eng zusammen. Organisationen werden – genauso wie Menschen – als informationsverarbeitende Systeme – auch „Informationssysteme“ – verstanden. Computer sind hingegen datenverarbeitende Systeme, die aber zur Unterstützung der Informationsverarbeitung eingesetzt werden können. Organisationen, die Computer zur Unterstützung ihrer Informationsverarbeitung einsetzen, werden dann als soziotechnische oder techno-soziale Systeme verstanden. Im Gegensatz zu fast allen anderen Theorien in diesem Feld legt die Datenschutztheorie einen ausgearbeiteten und auf Angemessenheit zur Analyse und Lösung des Datenschutzproblems untersuchten Informationsbegriff zugrunde. Vor allem weil der Begriff „Datenschutz“ bereits eingeführt war, als die eigentliche Theoriearbeit gerade erst begann, wurde „Information“ für den juristischen Sprachgebrauch und die Umsetzung im Recht als „Datum“ bezeichnet, was bis heute Verwirrung stiftet. Allerdings ist zuzugeben, dass es in der damaligen Zeit wahrscheinlich auch nicht besser gewesen wäre, am Begriff „Information“ festzuhalten, weil einer der wesentlichen Bezugsrahmen der Debatte – die Informatik – selbst auch einen Informationsbegriff als zentralen Anknüpfungspunkt nutzt, den Informationsbegriff von Shannon – und der ist gerade wegen seiner Beschränkung auf technische Kommunikationssysteme auch unbrauchbar.

Information dient der Produktion von Entscheidung – für oder gegen eine Handlung – oder Information – als Material für weitere Entscheidungen. Entscheidung ist „erzeugte Information“. Entscheiden ist mithin Informationsverarbeitung. Organisationen entscheiden „in formalisierten systeminternen Verfahrensschritten unter bloßer Orientierung an Programmen und Entscheidungsrastern“ – „organisationseigenen Programmen“ –, wobei die Informationen aus der Umwelt schon nur über diese „Programme“ in die Organisation kommen, indem sie intern als Modell erzeugt werden. Solche Modelle sind prinzipiell immer reduktionistisch, aber sie sind dabei nicht falsch, sondern zweckmäßig.

Vor diesem Hintergrund wird verständlich, warum die Datenschützerinnen der ersten Generation eine „modelltheoretische Interpretation des Informationsbegriffs“ zugrunde legten. Danach sind Informationen Modelle von Objekten, also Abbildungen. Der Informationsbegriff selbst wurde aus der Semiotik übernommen und besitzt vier Dimensionen: Syntax, Semantik, Pragmatik und Sigmatik. Mit Syntax wird dabei die konkrete, meist zeichenmäßige Repräsentation, mit Semantik die Bedeutung und mithin der Kontext, mit Pragmatik der Zweck und mit Sigmatik der Verweis auf das Objekt – den Menschen, das Ding, das Konzept, das Ereignis oder den Prozess –, das die Information abbildet, bezeichnet.

Diese Abbildungen werden durch die Organisation erzeugt, für ihre eigenen Zwecke und auf ihre Zwecke zugeschnitten. Hier wird der zentrale Unterschied zu Daten deutlich, denn Daten können von Organisationen einfach kopiert werden, Informationen nicht. Die Organisation besitzt damit „Modellierungshoheit“: Sie gibt den Zweck vor, mit der die Modelle beschränkt werden, sie entscheidet über die zugrunde zu legenden Modellannahmen und sie kontrolliert die Prozesse der Modellbildung selbst, also die Entscheidungen, welche Ereignisse oder Zustände entweder analysiert oder gerade von der Analyse ausgeschlossen werden, wie sie gemessen und quantifiziert werden, wie sie mit bereits vorhandenen Informationen in Beziehung gesetzt und eingeordnet werden. Information ist damit immer Zuschreibung und kann damit nie objektiv oder neutral sein, aber eben auch nicht sensitiv oder harmlos – sie ist, wie die Organisation sie macht und was sie aus und mit ihr macht und machen will. In der Folge sind die gleichen Daten – unterstellt, dass die Datenformate und Kodierungen gleich sind – für unterschiedliche Organisationen, für unterschiedliche Zwecke, aber auch für unterschiedliche Objekte jeweils grundsätzlich unterschiedliche Informationen.

Zwar werden in der Debatte nicht nur Personenmodelle – „personenbezogene Informationen“ im Sprachgebrauch der Rechtsinformatik und „personenbezogene Daten“ im Sprachgebrauch des Datenschutzrechts – betrachtet, aber erstens liegt darauf der Schwerpunkt und zweitens werden nur diese – genauer: der Umgang mit ihnen – später im Datenschutzrecht geregelt. Die in den Modellen abgebildeten Personen werden dann in der Sprache des Datenschutzrechts als Betroffene bezeichnet. Die Entscheidung für eine Selbstbeschränkung auf Personenmodelle geht dabei – wie in Bezug auf andere Aspekte auch – der eingehenden Analyse des Datenschutzproblems im Laufe der 1970er Jahre voraus. In den nicht so sehr im Zentrum der Aufmerksamkeit stehenden Debatten werden aber auch Gruppenmodelle, Bevölkerungsmodelle und allgemeine Planungsmodelle adressiert und hinsichtlich der Folgen ihrer Verwendung in Organisationen analysiert.

Moderne Organisationen versuchen schon immer, die Grenzen des technisch Machbaren auszuloten und tendenziell alle Informationen zu sammeln, derer sie habhaft werden können, denn wegen des technischen Fortschritts und des damit einhergehenden Preisverfalls ist eine Ausweitung der Informationsspeicherung tendenziell billiger als Löschen, auch weil sich Organisationen damit Entscheidungsmöglichkeiten – und darauf aufbauend organisatorische Entwicklungsmöglichkeiten – offenhalten wollen. So überrascht es auch nicht, dass Einmalerhebung, unbeschränkte Verbreitung innerhalb der Verwaltung und Mehrfach- und Vielfachnutzung personenbezogener Informationen erklärte Ziele der Verwaltungsautomation waren. Die Datenschutzdiskussion hat das durchaus wahrgenommen und als Problem markiert, obwohl das von den Automationsbefürworterinnen propagierte Ziel in deutlichem Widerspruch zur Annahme steht, es handele sich um zweckrationale Organisation.

Die Automation setzt auf der in rationalen Organisation schon stattfindenden Rationalisierung

– Formalisierung und Standardisierung der Verfahren, Typisierung der Modelle, Transformation subjektiver in objektive Prozesse – auf. Vergleichbar zur Industrialisierung der physischen Arbeit wird versucht, die Informationsverarbeitung der Organisationen zu „maschinisieren“, also in „maschinen“-verarbeitbare Prozesse zu transformieren. Dazu werden sowohl die Informationen

– als Daten – wie auch die Entscheidungsprogramme – auf der Prozessebene als Algorithmen oder Heuristiken, aus der Systemsicht als Software – in informationstechnische Systeme übertragen. Diese können dann zur Unterstützung menschlicher Entscheidungsfindung dienen oder die Entscheidungen selbst treffen. Dabei werden die Typisierungen danach ausgewählt, dass sie sich möglichst gut technisch umsetzen und nutzen lassen. Kriterien aus der Technik bedingen also die Gestaltung der Modelle.

Auch wenn in den verschiedenen Arbeiten nicht immer deutlich gemacht wird, für wie mächtig die Maschine tatsächlich gehalten wird, scheint doch zumindest die Annahme verbreitet zu sein, dass der Computer sich in Richtung eines Informationsverarbeitungssystems – und nicht nur eines Datenverarbeitungssystems – entwickeln werde. Zumindest aber ist allgemeine Ansicht, dass der Computer die Beschränkungen der menschlichen Datenverarbeitungsfähigkeiten aufhebt. Damit einher geht dann aber eben ein qualitativer Sprung in der Informationsverarbeitungs- und Entscheidungskapazität von Organisationen, die diese Maschinen einsetzen. Dieser Sprung wird an vielen Stellen als „radikal“ bezeichnet oder – von Fiedler – als „Übergang zu einer neuen Stufe der Rationalität.“

Im Gegensatz zum Organisationsmodell überzeugt der Informationsbegriff bis heute, auch weil er hervorragende Anschlussmöglichkeiten für alle – oder zumindest die meisten – an der Debatte beteiligten Disziplinen bietet, insbesondere für die Soziologie, die Rechtswissenschaft und natürlich die Informatik. Sowohl Verarbeiterinnenwechsel, Zweck- und Kontextveränderungen wie auch Ketten von Interpretationen, Verdatungen und Re- oder Neu-Interpretationen lassen sich damit konsistent unter Bezugnahme auf einen gemeinsamen Informationsbegriff adressieren. Gleiches gilt für die Erkenntnis, dass das Maschinenmodell der Informatik, der Automat, und da-mit eine Bezugnahme nur auf informationstechnische Systeme für die Analyse der individuellen und gesellschaftlichen Risiken moderner Informationsverarbeitung zu kurz greift. Problematisch ist hingegen die in der Datenschutzdebatte weit verbreitete – und sehr wahrscheinlich direkt aus der Vorstellung von Zweckrationalität abgeleitete – Unterstellung, Organisationen würden versuchen, ihre Umwelt möglichst auf der Basis von explizierten Modellannahmen zu beobachten, ausschließlich oder vorwiegend kausalitätsbasierte Abbildungen vorzunehmen und deshalb einem objektiven Zwang zur Datenqualität zu unterliegen, an den sich dann das Datenschutzrecht einfach ankoppeln kann, um aus „Fehl“-Interpretationen von Informationen folgende Erwartungsverletzungen auf Seiten der abgebildeten Personen zu verhindern. Aus der Sicht der Organisation ist das aber egal, solange es ihr gelingt, die daraus sich ergebenden Risiken für sich selbst im Rahmen zu halten oder sie auf ihre Klientel abzuwälzen.

3.2.3 Das Technikbild

Der Analyse des Datenschutzproblems liegt fast durchgängig ein instrumentelles Verständnis von Datenverarbeitungstechnik zugrunde, jedenfalls in Bezug auf die Organisation. Informationstechnische Systeme werden als Werkzeug verstanden, die von ihren Beherrscherinnen – ob Herstellerinnen, Eigentümerinnen oder Betreiberinnen – nach ihren Interessen gestaltet und eingesetzt werden. Den Betrachtungen ihrer Folgen – oder besser: den Folgen ihres Gebrauchs – für die Betroffenen liegt aber eher ein relationales Verständnis zugrunde. Die Technik werde nicht nur nach den Interessen der Datenverarbeiterinnen gestaltet, in der Technik verkörperten sich dann auch diese Interessen und in ihrem Einsatz diene sie ihnen. Das sei auch nicht überraschend, denn die Gestalterinnen und Betreiberinnen seien selbst von einem instrumentellen Rationalismus geprägt.

Aus Sicht der Datenschutzdebatte ist Technik in großem Maße gestaltbar. Bei „technischen Zwängen“ handele es sich in den meisten Fällen schlicht um Rechtfertigungsformeln für Eigenschaften, die – ob bewusst oder unbewusst – in informationstechnische Systemen im Interesse ihrer Beherrscherinnen hineinkonstruiert wurden. Sie dienen dazu, sowohl die Tatsache dieses Hineinkonstruierens selbst wie auch die hineinkonstruierten Interessen nicht diskutieren zu müssen. Die Gründe für dieses Nicht-diskutieren-Wollen können vielfältig sein – es kann etwa schlicht sein, dass eine Explikation der Interessen zur Aufkündigung eines vorher mühsam erkämpften Konsenses, der vielleicht auch nur in einer „Unterstellung der Gleichsinnigkeit“ bestand, zu führen droht. Für die Datenschützerinnen zählen in erster Linie die Folgen für die Betroffenen, denn die Informationstechnik wird als Machtverstärker verstanden, und daher sei relevant, welche Interessen in der Technik verkörpert werden. Und natürlich, wie die Systeme eingesetzt werden.

Wenn aber die Technik gestaltbar sei und von den Organisationen gestaltet werde, und die Organisationen und ihr Handeln dem Recht unterworfen seien, dann müsste Recht grundsätzlich auch in der Lage sein, so die Argumentation der Datenschützerinnen, die Gestaltung und den Gebrauch informationstechnischer Systeme zu steuern. Beides war daher immer auch explizites Ziel der Datenschutzdebatte. Und insoweit Organisationen zum Zwecke der Optimierung und Rationalisierung von Tätigkeiten diese automatisierten – und vor dem Hintergrund der Diskussion um automationsgerechte Gesetze in den 1960er Jahren –, konnte durchaus erwartet werden

– und Fiedler hat sogar explizit gefordert, dass die Gesetze dazu automationsgerecht gestaltet werden sollen –, dass Organisationen Datenschutz in Technik umsetzen – und genau darauf zielte dann auch eine Regelung im Bundesdatenschutzgesetz 1977. Zwei Oberziele wurden dabei formuliert: Technik müsse machen, was sie solle, und Technik dürfe nicht können, was sie nicht dürfe. Oder etwas überspitzter: Wenn die Organisation schon eine (Webersche) Maschine sei, dann könne der (informationstechnischen) Maschine ganz sicher beigebracht werden, sich wie eine sich rechtmäßig verhaltende Organisation zu verhalten.

So zwingend sich diese Argumentation auch anhören mag, so voraussetzungsvoll ist sie doch gleichzeitig – und nur in einem geringen Umfang wurde das in den ersten beiden Jahrzehnten reflektiert. Sehr früh war zumindest schon klar, dass Informationssysteme grundsätzlich zweckfrei seien, und ihre „Multifunktionalität“ wurde breit diskutiert. Und genau deshalb wurde die Einführung des zugleich kontrafaktischen wie normativen Prinzips der Zweckbindung gefordert, wenn es auch erst im BDSG 1990 umgesetzt wurde.

Dieses Zweckfreiheitsproblem wurde später differenzierter betrachtet: Computer und Netze seien grundsätzlich zweckfrei, aber mit Programmen – und nur mit diesen – könne der Computer zweckbeschränkt werden. Gleichzeitig sind aber diese Systeme durchgängig nur als sehr geschlossene, ja fast schon totale Systeme imaginiert worden. Das zeigen etwa die umfassenderen Gestaltungsvorschläge, die im Laufe der Debatte vorgelegt wurden, so etwa Podlechs Vorschlag zur Trennung von politischer, technischer und fachlicher Verantwortung direkt im System, wobei die Benutzerinnen (fachliche Verantwortung) nur über definierte Schnittstellen auf die Systeme (der Unternehmerinnen, technische Verantwortung) mit den Daten zugreifen dürfen, auf denen dann die mittels Programmkontrolle kontrollierbare Datenverarbeitung abläuft, Steinmüller et al. mit einem System, das alle Aufgaben einer Institution abbildet und nur genau deshalb kontrollierbar gemacht werden kann, Bräutigam et al. mit dem Vorschlag für eine von keinem Programm umgehbare Middleware oder Hammer et al. mit einem extrem abgeschlossenen System, das gestaltet werden soll, nämlich einem betrieblichen Telefonsystem. In allen diesen Fällen tritt die Technik damit deutlich als reines Instrument der Organisation auf.

Diese Vorstellung mag bis in die 1980er Jahre für den Computer und seinen Einsatz in Organisationen vor allem aufgrund seines Preises, der daraus resultierenden relativ geringen Verbreitung und der Anforderungen an seine Programmierung und Bedienung noch einen gewissen Wirklichkeitsbezug gehabt haben. Aber jedenfalls mit dem Aufkommen des PCs, der breiten Verfügbarkeit von Software – vor allem solcher Programme wie VisiCalc, Microsoft Multiplan und Lotus 1–2–3 –, mit dem Erscheinen der ersten einfach nutzbaren grafischen Benutzeroberflächen und mit der zunehmenden Vernetzung der Endgeräte – sogenannten „offenen Netzen“, im Gegensatz zur seit den 1960ern schon problematisierten Vernetzung („Integration“) von Informationssystemen – verlor der Computer seinen instrumentellen Charakter auch in der Praxis. Und damit wird eben gerade fraglich, inwieweit Organisationen tatsächlich in der Lage sind, ihre automationsunterstützten Informationsverarbeitungsverfahren zu kontrollieren, oder ob es sich dabei – analog etwa zu den Fiktionen im Bereich der informierten Einwilligung (Wahlfreiheitsfiktion, Marktfiktion, Transparenz- bzw. Bestimmtheitsfiktion, Aufsichtsfiktion) – nicht schlicht um eine Kontrollierbarkeitsfiktion handelt. Die Datenschützerinnen der ersten Generation haben diese Diskussion dann schon nicht mehr geführt, auch wenn sie den Bedarf dafür wahrgenommen haben.

3.2.4 Schlussfolgerungen

Vor diesem Hintergrund zeigt gerade die Verbindung zwischen dem unterstellten zweckrationalen Charakter von Organisation und dem ebenso unterstellten instrumentellen Charakter von informationstechnischen Systemen, dass die heute gerne bemühte Behauptung, das Datenschutz-recht basiere auf der Vorstellung des klassischen Großrechners der 1970er Jahre, fehl geht und zu kurz greift. Richtig ist hingegen, dass sich Datenschutz nach der Vorstellung der damaligen Debatte offensichtlich nur in von kontrollierbaren und sich selbst kontrollierenden Organisationen kontrollierten Informatiksystemen direkt umsetzen lässt. Diese Kontrollierbarkeitsfiktion prägt aber auch stark die informatische Debatte um die datenschutzfreundliche oder privacy-enhancing Technikgestaltung, so etwa im Bereich der nutzerinnenkontrollierten Identitätsmanagementsysteme oder bei Apps auf Endnutzerinnengeräten. Gestaltungsziel ist in diesen Fällen offensichtlich immer die – eventuell sogar beweisbare – Garantie von bestimmten Eigenschaften der technischen Systeme. Diese Zielvorstellung, die in Anlehnung an Troncoso als „harter Datenschutz“ bezeichnet werden kann, lässt sich damit aber eben offensichtlich nur in einem Teil von Systemen umsetzen, die dann aber datenschutzgarantierend sind. Wenn die Annahme, dass Organisationen zweckrational sind, Technik unter ihrer vollen Kontrolle steht und die Verfahren nur in oder mit dieser Technik stattfinden, fallen gelassen wird, dann lassen sich allenfalls schwächere Formen des Datenschutzes in Technik und durch Technik umsetzen. Das Ziel ist dann, Technik zu gestalten, die den Datenschutz – als Eigenschaft einer Praxis der Informationsverarbeitung und Entscheidungsfindung – fördert und seine Einhaltung sehr viel wahrscheinlicher macht als seine Nichteinhaltung.

Jörg Pohle; Humboldt-Universität zu Berlin; 2019

Open-Access-Erklärung: https://edoc-info.hu-berlin.de/de/nutzung/oa_hu

https://edoc.hu-berlin.de/handle/18452/19886

Zur leichteren Lesbarkeit wurden die Quellenverweise entfernt. Bei Interesse finden Sie sie im obigen Link.


Datenschutz und Technikgestaltung Die Geschichte des Datenschutzes – Teil 13

3.3 Das Problem des Datenschutzes

In der frühen Datenschutzdiskussion gab es nicht eine konsentierte Problembeschreibung, sondern eher eine Sammlung von als konzeptionell verbunden verstandenen Problemfeldern, die von unterschiedlichen Beteiligten als mehr oder weniger eng zusammenhängend verstanden wurden.

Das zeigt sich etwa schon an der Trennung zwischen Datenschutz im engeren Sinne und Daten-schutz im weiteren Sinne. Einer der Hauptgründe dafür liegt wohl darin, dass diese Diskussion vorwiegend von Juristinnen geführt wurde, von denen viele nicht sauber zwischen Problem-beschreibung, Problemlösung und der Umsetzung dieser Lösung im Recht unterschieden, und deshalb die jeweils als Prämisse spezifisch gesetzte Regelungsintention die Problembeschreibung selbst notwendig beschränkte – vergleichbar zum Grundproblem aller Privatheitsdebatten, die sich geradezu sklavisch an den Begriff „privat“ gebunden haben und binden, und insoweit nur Probleme sehen können, die sich als „privat“ markieren lassen.

Als die Datenschutzdebatte begann, war der „Organisationsvorsprung“, also der spezifische Machtvorsprung der Organisationen als Organisationen – begründet in der strukturell besseren Fähigkeit, Informationen zu verarbeiten und Entscheidungen zu treffen –, gesellschaftlich, vor allem durch das Recht, bereits eingehegt. Immer deutlicher wurde jedoch, dass die überkommenen Einhegungsmechanismen, also die Mechanismen, wie sie im Recht konkretisiert und umgesetzt worden waren, unter den Bedingungen der automationsgestützten Informationsverarbeitung nicht mehr funktionierten. Die Datenschutzdebatte versucht, auf dieses Problem eine Antwort zu finden und stellt dabei relativ schnell fest, dass es nicht ausreichen würde, ein paar Änderungen an einzelnen bestehenden Regelungen vorzunehmen. Stattdessen musste das Verhältnis zwischen Organisation, Information, Informationsverarbeitung und Macht grundlegend neu analysiert und auf die Folgen untersucht werden, die entstehen, wenn die Freiheits- und Partizipationsversprechen sowie die Strukturschutzprinzipien und -mechanismen der modernen bürgerlichen Gesellschaft auf Organisationen treffen, die im Zuge und mit Hilfe moderner Informationsverarbeitung diese Versprechen, Prinzipien und Mechanismen strukturell unterminieren.

Vor diesem Hintergrund soll nachfolgend das in der damaligen Debatte oft nur aspektbezogen diskutierte Datenschutzproblem, das sich als Folge der Rationalisierung, Maschinisierung und Automation der Informationsverarbeitung und Entscheidungsfindung in Organisationen ergibt, strukturiert rekonstruiert werden. In einem ersten Schritt werden dazu die dadurch erzeugten oder verbesserten und tendenziell auf Dauer gestellten Potentiale moderner Organisationen zur Steuerung oder Beeinflussung individueller, kollektiver oder institutioneller Betroffener und ihrer Handlungen sowie der Prästrukturierung ihrer Handlungsmöglichkeiten dargestellt. Anschließend werden solche Folgen betrachtet, die sich aus der konkreten Art und Weise der Informationsverarbeitung und Entscheidungsfindung in Organisationen ergeben. Dabei handelt es sich etwa um die Folgen, die sich daraus ergeben, dass Organisationen der Informationsverarbeitung Modellannahmen zugrunde legen (müssen), über die sie selbst die Modellierungshoheit haben, die Informationsverarbeitung grundsätzlich nur gemäß ihrer eigenen Programme und der dieser zugrunde liegenden Funktions- und Verfahrenslogik durchführen können und sie dabei tendenziell zur Aufhebung getrennter Kontexte mit deren jeweiligen Eigenlogiken und spezifischen Rollen und Rollenerwartungen neigen.

3.3.1 Das Problem der Datenmacht

Die durch Rationalisierung, Maschinisierung und Automation verbesserten Informationsverarbeitungs- und Entscheidungsfähigkeiten von Organisationen führen zu einer gegenüber dem schon vorhandenen, sich etwa bereits aus der Arbeitsteilung ergebenden, Organisationsvorsprung nochmals deutlich gesteigerten Leistungsfähigkeit der Organisationen, ihre jeweilige Umwelt wahrzunehmen und in dieser Umwelt – aus ihrer Sicht und in ihrem Interesse – angemessen zu agieren. Es verbessert sich die Fähigkeit der Organisation, Sachverhalte, vergangene und gegenwärtige Ereignisse, die daran beteiligten Akteurinnen und deren Beziehungen zu den Ereignissen und zueinander sowie deren Auswirkungen zugleich umfassender und in höherer Detailschärfe, schneller und effizienter zu erfassen, intern als Modelle – Informationen – abzubilden und als Daten zu speichern, zu verbreiten, mit anderen Informationen in Zusammenhang zu setzen und zu vergleichen, zu bewerten und darauf basierend Entscheidungen darüber zu treffen, wie sie damit umgeht oder darauf reagiert. Darüber hinaus steigt ihre Fähigkeit, das zukünftige Verhalten der modellierten Objekte vorherzusagen – genauer: sie können die Treffsicherheit ihrer Vorhersagen steigern –, und damit steigen die Erfolgsaussichten, dieses Verhalten zu beeinflussen, zu beschränken oder gar zu verhindern. Die Verdateten – Personen, Gruppen, ganze Bevölkerungen, aber auch andere Organisationen oder Institutionen – werden also, während sie durchleuchtet, verdatet, wahlweise entindividualisiert oder versippenhaftet, jedenfalls aber objektiviert und nummeriert werden, tendenziell unvergessen in Bezug auf die Vergangenheit, vorhersagbar in Bezug auf die Zukunft und mithin kontrollierbar in der Gegenwart. Für eine Einschränkung der Handlungsfreiheit reicht es, wenn die Verdateten damit rechnen müssen – oder auch nur nicht ausschließen können –, dass ihnen diese Handlungen später in solchen vermachteten Verhältnissen zum Vorwurf gemacht werden oder anderweitig Nachteile bescheren. Die konkreten Folgen sind jeweils davon abhängig, in welchem Verhältnis die Organisationen zu den von ihren Entscheidungen Betroffenen stehen. Zu den damals diskutierten Beispielen gehören die Möglichkeit, zum Ziel staatlicher, vor allem polizeilicher Maßnahmen zu werden, neue oder gerichtsfeste Ablehnungsgründe, die sich für eine öffentliche Verwaltung gegenüber Antragstellerinnen eröffnen, Preisdiskriminierungsmöglichkeiten für Unternehmen gegenüber ihren Kundinnen, Entscheidungsmöglichkeiten für Arbeitsgeberinnen über die Begründung oder Beendigung von Arbeitsverhältnissen, für Finanzinstitute über die Kreditkonditionen sowie für Versicherungen über die Versicherungskonditionen. Andere in der Debatte problematisierte Be-reiche betreffen Marktbeeinflussung und Monopolisierungstendenzen im Wirtschaftsbereich, das Verhältnis zwischen Arbeitsgeberinnen und Belegschaften in Mitbestimmungsfragen, zwischen Politik und Öffentlichkeit, zwischen Legislative und Exekutive oder zwischen zentralen und de-zentralen Organisationseinheiten des Staates.

Einige Eigenschaften dieser Folgenbetrachtung verdienen besondere Aufmerksamkeit: Erstens lädt die abstrakte Beschreibung des Problems dazu ein, es als nur abstrakt existierendes Problem zu ignorieren oder ihm die praktische Relevanz abzusprechen. Zweitens lädt sie dazu ein, es auf der gleichen abstrakten Ebene lösen zu wollen. Das ist etwa beim Code of Fair Information Practices oder bei den OECD Guideline geschehen, die deshalb statuieren, dass die Informationsverarbeitung „fair“ zu erfolgen habe. Drittens transformiert auch die am häufigsten umgesetzte Antwort des Rechts auf eine solche Klasse von Problemen, die Prozeduralisierung, das Problem nur: Wer entscheidet dann nach welchen Maßstäben, und wie sind der Entscheidungsprozess, die konkrete Abwägung und das Ergebnis für wen überprüfbar? Die Maßstäbe sind dann gerade das vierte Problem, denn die Bewertung der Folgen in jedem Einzelfall ist hochgradig interessen- und wertgebunden. Und selbst eine Systematisierung nach „Verwendungszusammenhängen“ kann fünftens nicht verhindern, dass die spezifische Systematik – vor allem im privaten Bereich – immer hochgradig umstritten bleiben wird, und darüber hinaus, wie jetzt im öffentlichen Be reich bereits zu beobachten, zu einer Flut von im Verhältnis zueinander immer inkonsistenter werdenden Regelungen führt.

3.3.2 Das Problem der Rationalitätsverschiebung

Der zweite Aspekt, der in der historischen Datenschutzdebatte breit diskutiert wurde, betrifft die Rationalitätsverschiebung und deren Folgen. Organisationen bilden die Objekte aus der Umwelt auf der Basis von Modellannahmen, die unter Modellierungshoheit der Organisationen gemäß den organisationseigenen Zwecken produziert werden, intern ab, unterwerfen sie dann der organisationseigenen Funktions- und Verfahrenslogik und verarbeiten sie entsprechend ihrer eigenen Programme. Sie entscheiden dabei zugleich selbst, welche Objekte sie abbilden und welche nicht. Die Folgen fehlender, falscher, veralteter oder für die intendierten Entscheidungen anderweitig unpassender Informationen tragen jedoch in erster Linie die Betroffenen. Gleiches gilt für die damals wie heute weitverbreitete Unterstellung, dass Informationen in Akten und informationstechnischen Systemen sowohl objektiv wie auch korrekt seien, weil sie in Akten stehen oder in Computern gespeichert sind. Das liegt auch daran, dass Organisationen zum Ignorieren, Verschweigen oder Verstecken ihrer Modellierungshoheit tendieren. Deutlich wird dies etwa bei Statistiken, aber auch Simulationen: Eine Organisation entscheidet, welche Rohdaten auf der Basis welcher Fragestellungen und mit welchen Methoden erhoben werden – und welche nicht –, wie sie gefiltert, verarbeitet, verknüpft und analysiert werden – und dann wird damit „Politik“ gemacht, etwa mit der Polizeilichen Kriminalstatistik oder Bevölkerungsprognosen, oder „Wissenschaft“ wie bei Google Trends. Mehr noch: Weil die Zwecke die Modellannahmen (mit-)produzieren, kann Korrektheit grundsätzlich allenfalls für den Zweck sichergestellt werden, der den Modellannahmen zugrunde gelegt wurde. Auch über Sachverhalte treffen Organisationen Vorentscheidungen in einer Weise, die dazu führten, dass nur noch entschieden werden kann, was die Organisationen an Entscheidungsspielraum noch übrig gelassen haben. Ob es sich dabei um Kundinnen gegenüber Unternehmen, Rezipientinnen gegenüber Inhaltsanbieterinnen, Gerichte gegenüber Geheimdiensten, politische Gremien gegenüber der öffentlichen Verwaltung oder die Wahlbevölkerung gegenüber dem Staat handelt, führt strukturell zum gleichen Ergebnis: Ohne Aufdeckung der Vorentscheidungen und der zugrunde liegenden Entscheidungsprämissen lässt sich für die Betroffenen nicht effektiv prüfen, welche Entscheidungsalternativen weggefallen sind und ob die verbleibenden nicht zufällig alle die Eigenschaft haben, den Interessen der Organisationen zu dienen. Im Ergebnis okkupieren damit die Organisationen die ursprünglich den Betroffenen gehörenden Entscheidungsräume – ein Problem, das in den 1970ern vor allem am Beispiel der Machtverschiebung zwischen Parlament und Ministerialbürokratie in Gesetzgebungsverfahren diskutiert wurde. Hinzu kommt, dass die in diesen Informationsverarbeitungsprozessen erzeugten „Datenschatten“ nicht an das Objekt gebunden sind, das sie „hervorgebracht“ hat. Ihrer beliebigen Speicherung, Verwendung und Weitergabe steht damit nichts mehr im Weg. Sie verstetigen damit nicht nur alte – und möglicherweise überholte – Sachverhalte, sondern sie ersetzen zugleich das Objekt, das sie repräsentieren, und ermöglichen es damit der Organisation, Entscheidungen über die verdateten Betroffene zu treffen, ohne mit der Betroffenen interagieren zu müssen.

Dieses von der Organisation erzeugte Problem findet seine Entsprechung im Bereich der in-formationstechnischen Systeme. Während die Debatte in den Anfangsjahren vor allem auf die Substitution menschlicher Informations- durch technische Datenverarbeitung in den Organisationen zielte und dabei etwa problematisierte, dass Code an die Stelle von Recht trete, aber nicht öffentlich und damit auch nicht überprüfbar sei, sind später auch Endnutzerinnensysteme in den Blick genommen worden, etwa als mit ISDN plötzlich für Angerufene sichtbar wurde, wer anruft – Verwaltungen konnten nun vor dem Abheben schon zwischen erwünschten und unerwünschten Anruferinnen, etwa Journalistinnen und anderen Querulantinnen, unterscheiden. Inzwischen haben sich die Bereiche, in denen Probleme mit versteckten Modellannahmen und der Entscheidungsraumokkupation auftreten können, bedeutend ausgeweitet – von Googles Entscheidung, aus Berechenbarkeitsgründen Relevanz aus Empfängerinnensicht durch Relevanz aus Senderinnensicht zu ersetzen, bis zu Facebooks Kontrolle über die Auswahl der Quellen für den Newsfeed und die Trending Topics.

3.3.3 Das Problem der Entdifferenzierung

Die zunehmende Integration von Informationssystemen führt, so lässt sich der dritte große Diskussionsgegenstand der Datenschutzdebatte zusammenfassen, zur tendenziellen Aufhebung der die moderne, funktional differenzierte Gesellschaft prägenden Trennung zwischen gesellschaftlichen Subsystemen, Feldern oder Kontexten mit jeweils spezifischen Eigenlogiken. Die Versuche der Organisationen, die differenzierten Rollen, in denen Menschen in modernen Gesellschaften mit Organisationen interagieren, zusammenzuführen, um „das »Eigentliche« der Person“ aufzudecken und zur Grundlage der eigenen Informationsverarbeitung und Entscheidungsfindung zu machen, gefährdet dabei nicht nur die Menschen, die sich in der Folge mit rollenfremden Erwartungen konfrontiert sehen. Sie gefährdet auch die moderne Gesellschaft und die Existenz der gesellschaftlichen Autonomiebereiche schlechthin, denn diese basieren gerade auf der Aufrechterhaltung ihrer jeweiligen Eigenlogiken gegenüber den Eigenlogiken anderer Bereiche – „sachwidrige Koppelung“ ist ein Gesellschaftsstruktur-Problem, nicht nur ein individuelles. Als besonders schweres, nämlich als Problem des Schutzes der Menschenwürde wird das Problem der Aufhebung der Rollentrennung gefasst, wo es in individualisierter Form als Problem der Erstellung umfassender Persönlichkeitsbilder adressiert wird, denn den Menschen in seiner ganzen Persönlichkeit zu erfassen, degradiere ihn zum Objekt. Aus Sicht der Datenverarbeiterin jedenfalls bestimmt sich, so viel dürfte heute klar sein, die Umfassendheit eines Profils nach dem Zweck, den die Datenverarbeiterin verfolgt, und das liegt mindestens dann vor, wenn „es das künftige Verhalten der Person prognostizierbar macht oder den Rollenwechsel des einzelnen [. . . ] unmöglich macht.“ 

3.3.4 Schlussfolgerungen

Der Kern des Datenschutzproblems sind also die strukturellen Machtimbalancen, die durch die Rationalisierung, Maschinisierung und Automation gesellschaftlicher Informationsverarbeitungs-prozesse erzeugt, verstärkt oder verfestigt werden, und deren Folgen für Individuen, Gruppen, Organisationen und die Gesellschaft insgesamt. Der gesellschaftliche Bedarf nach Datenschutz als „Lösung“ des Datenschutzproblems entsteht demnach, wenn die Freiheits- und Partizipationsversprechen sowie die Strukturschutzprinzipien und -mechanismen der modernen bürgerlichen Gesellschaft auf Organisationen treffen, die im Zuge und mit der Industrialisierung der gesellschaftlichen Informationsverarbeitung diese Ver-sprechen strukturell unterminieren. Datenschutz ist demnach die informationelle Dimension der „Lösung“ des allgemeinen gesellschaftlichen Machtproblems.

Die einzelnen Problembereiche wurden für verschiedene Konstellationen unterschiedlich um-fassend und tiefgehend analysiert. Schon damals bildeten Analysen, die Personen als Betroffene in den Blick nehmen, mit großem Abstand die Mehrheit der Ausarbeitungen, und inzwischen wird fast nichts anderes mehr betrachtet. Das Problem des Gruppendatenschutzes, im 1971er Gut-achten noch ein wichtiger Teil des Individualdatenschutzes, blieb lange eher unterbelichtet oder wurde in Nebensätzen abgehandelt, die sich im Kern mit Personendatenschutz beschäftigten. Inzwischen scheint dem Gruppendatenschutz jedenfalls wieder ein wenig mehr Aufmerksamkeit zuteil zu werden. Wenn überhaupt eine Diskussion zu Organisationen oder Institutionen als Betroffenen von Datenmacht stattfand oder stattfindet, dann fast nie im Rahmen der Datenschutzdebatte, jedenfalls nicht nach den 1970er Jahren. Das Gleiche gilt für die Gesellschaft als Ganzes.

Ein Grund für diese Schlagseite der Debatte findet sich darin, dass gerade die Arbeiten, die die ganze Breite der Betroffenen in den Blick genommen haben, den Fokus der Analyse auf die Datenverarbeiterinnen legen und versuchen zu ermitteln, wie sich aus welchen Gründen welche Machtverschiebungen zugunsten dieser Organisationen ergeben. Es handelt sich hier in gewisser Weise um das ebenso problematische Gegenstück zu einem Großteil der privacy– und Privatheitsdebatte: Indem in Akteurskonstellationen ein zu starker Fokus auf eine Seite dieser Konstellationen gelegt wird – in der Datenschutzdebatte auf Organisationen als Datenverarbeiterinnen, in der privacy-Debatte auf Personen als Betroffene –, bleibt die andere Seite fast notwendig unterbelichtet. Im organisationsfixierten Teil der Datenschutzdebatte sind die Betroffenen oft dann einfach nur „Alle“, während in der personenfixierten privacy-Debatte dieses „Alle“ auf die Angreiferinnen verweist.

Ein zweites – und fast noch größeres – Problem liegt im inzwischen ausnahmslosen Fokus auf ein spezielles Mittel, das in den Angriffen der Organisationen auf die Betroffenen verwendet wird: den personenbezogenen Informationen. Diese, jeder Analyse schon vorausgehende, Fixierung auf personenbezogene Informationen stellt eine mehr als fragwürdige Selbstbeschränkung hinsichtlich des Untersuchungsgegenstandes dar und produziert dabei fast schon absurde Konsequenzen: Es wird als privacy-, surveillance– und Datenschutzproblem für Alice und ihre Freiheitsausübung wahrgenommen, wenn diese Freiheitsausübung im Zuge oder infolge der Verarbeitung personenbezogener Informationen über Alice beschränkt wird, nicht aber, wenn das im Zuge oder infolge der Verarbeitung personenbezogener Informationen über Bob geschieht. Diese Selbstbeschränkung, die in der wissenschaftlichen Debatte schon konsentiert war, bevor die Datenschutzdiskussion Ende der 1960er Jahre begann, ist zwar an einigen Stellen „umgangen“ worden, etwa wenn die Machtverschiebungen mit einem ausschließlichen Fokus auf die Organisationen, die diese Machtverschiebung verursachen, beschrieben wurden, aber in der Mehrzahl der Arbeiten wurde sie einfach unreflektiert übernommen, wenn nicht sogar gepriesen.

Im Grunde ist für die Grenzziehung zwischen Informationen, deren Umgang problematisiert werden soll, und solchen, die aus dem zu betrachteten Gegenstandsbereich ausgeschlossen werden, nur für die innere Grenze, also die Einbeziehung von bestimmten Informationen, eine Begründung – ob wissenschaftlich oder politisch – gegeben worden. Die Außengrenze jedoch wurde nie begründet, sondern nur statuiert. Die hingegen wahrlich oft zu findende Aussage, die ausgeschlossenen Informationen würden gerade ausgeschlossen, weil sie nicht personenbezogen seien, ist gerade keine Begründung dafür, dass nur personenbezogene Informationen betrachtet werden, sondern schlicht das Ergebnis der notwendig scheiternden Subsumtion dieser Informationen unter den Personenbezugsbegriff.

Jörg Pohle; Humboldt-Universität zu Berlin; 2019

Open-Access-Erklärung: https://edoc-info.hu-berlin.de/de/nutzung/oa_hu

https://edoc.hu-berlin.de/handle/18452/19886

Zur leichteren Lesbarkeit wurden die Quellenverweise entfernt. Bei Interesse finden Sie sie im obigen Link.


© Swiss Infosec AG 2026