Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Datenschutz und Technikgestaltung – Die Geschichte des Datenschutzes – Teil 5

06/2021

Computer, Privacy, Datenschutz

Die kurze Phase der Interdisziplinarität

Der Zeitraum zwischen 1972 und 1978 kann unzweifelhaft als Hochzeit der interdisziplinären Auseinandersetzung über Fragen des Datenschutzes bezeichnet werden. Dieser Zeitraum ist geprägt von einer Reihe von Veranstaltungen, auf denen Vertreterinnen verschiedener wissenschaftlicher Disziplinen miteinander, aber auch mit einer politisierten Öffentlichkeit versuchten, den Datenschutz in seiner ganzen thematischen Breite und seinen Voraussetzungen und Folgen fundiert zu beleuchten. Bemerkenswert ist dabei auch der Umstand, dass viele Fachvertreterinnen Versuche unternahmen, die eigenen Fachgrenzen zu überschreiten und sich das theoretische und methodologische Handwerkszeug anderer Disziplinen nutzbar zu machen.

Auf Einladung der Deutschen Forschungsgemeinschaft fand vom 02.–04.11.1972 in Regensburg eine Tagung zu den „sozialen, politischen und rechtlichen Konsequenzen der Einführung moderner Informationstechnologien in Management und Verwaltung“ statt. Während nach den Veranstalterinnen die Schwerpunkte der Diskussion in den Vorjahren „auf den Fragen der Gefährdung der Privatsphäre und der Verschiebung des Informationsgleichgewichts zwischen Regierung und Parlament“ gelegen habe, ginge es nun um grundsätzlichere Fragen, nämlich „um die Stellung des Individuums insgesamt.“

Podlech will in seinem Beitrag eine Begründung für seinen Entwurf zu einem „Bundes-Datenschutz-Rahmengesetz“ vom Juli 1972 liefern. Im ersten Teil der Arbeit gibt Podlech den Stand der Gesetzgebung auf dem Gebiet des Datenschutzes wieder, während er im zweiten Teil die zentralen Kennzeichen der bisherigen Datenschutzgesetze darstellt. Alle Entwürfe gingen aus „von der Privatsphäre des Einzelnen.“ Sie versuchten zu verhindern, dass „Informationen aus dieser Privatsphäre unberechtigt verwendet werden.“ Weder werde die Privatsphäre näher umschrieben noch finde eine Auseinandersetzung mit diesem in der Literatur kritisierten Begriff statt. Alle Entwürfe würden den Bürgerinnen Auskunfts-, Unterlassungs- und Schadensersatzansprüche gewähren und Geheimnisverletzungen (als Teil des Nebenstrafrechts) mit Strafen und Geldbußen belegen. Alle Entwürfe – bis auf den des Bundesministeriums des Innern – sähen eine Aufsichtsbehörde mit Kontroll- und Aufsichtsrechten vor. Im dritten Teil beschreibt Podlech die Ausgangslage für seinen Entwurf, aus der er im vierten Teil Folgerungen für die von ihm formulierten Regelungen zieht. Ausgangslage ist die Planung des Bundes und aller Bundesländer für die Einführung integrierter Informationssysteme, deren Grundlage ein bundeseinheitliches Personenkennzeichen sein solle. Wenn integrierte Informationssysteme erst einmal eingerichtet seien, dann ließe sich ihre Struktur nicht mehr grundlegend ändern. Datenschutz müsse aber gerade bei der grundlegenden Struktur ansetzen, verlangt Podlech. Der wichtigste Schutzmechanismus bestehe in der organisatorischen Maßnahme der Trennung zwischen Betreiberin und Nutzerin der Datenverarbeitung, gefolgt vom „Programmschutz“, der Zertifizierung der eingesetzten Technik und der Programme durch eine unabhängige Instanz. Erst auf dieser Basis ließen sich sinnvoll Rechte der Betroffenen und Strafbestimmungen formulieren und durchsetzen. Podlech verweist darauf, dass ohne regelmäßige Kontrollen durch externe Stellen kein datenschutzkonformes Verhalten der datenverarbeitenden Stellen garantiert werden könne. Es gebe eine „Vermutung regelwidrigen Verhaltens unkontrollierter sozialer Systeme.“ Im fünften und letzten Teil seiner Arbeit setzt Podlech den Datenschutz im Bereich der öffentlichen Verwaltung in den größeren Kontext eines umfassenden Informationsrechts, das den Datenschutz sowohl im Bereich der öffentlichen Verwaltung wie im Bereich der Wirtschaft regele und ergänzt werde durch ein Recht auf Informationsfreiheit, „den korrespondierenden Gesichtspunkt des freien Zugangs zu gesellschaftlich relevanten Informationen.“

Klaus Lenk konzentriert sich in seiner Arbeit auf die Veränderungen im Verhältnis zwischen Staat und Individuum, die er als Folgen der zunehmenden Automatisierung der Informationsverarbeitung durch die staatliche Verwaltung sieht. Vor dem Hintergrund der Verwaltungsrationalisierung, die die Gefahr negativer Konsequenzen für das Verhältnis Bürgerin – Verwaltung heraufbeschwöre, erscheine der Datenschutz in der Diskussion als ein Mittel, diesen negativen Auswirkungen zu begegnen. Letztendlich heiße das nichts anderes, als dass gerade die Befürworterinnen eines starken Datenschutzes diesen fordern, um damit die Ausweitung der automatischen Datenverarbeitung individuell und gesellschaftlich erträglich und damit durchsetzbar zu machen. Durch die „funktionelle Zentralisierung“ der Informationsspeicherung und -verarbeitung werde das Individuum für alle Bereiche der Verwaltung gleich sichtbar. Mit dem dabei eintretenden Verlust an „administrativer Gewaltenteilung“ erhöhe sich die Gefahr einer „sachwidrigen Kopplung“ mehrerer Verwaltungstätigkeiten, wodurch „die Leistung einer Stelle von politischem Wohlverhalten gegenüber der anderen Stelle abhängig gemacht“ werde oder zumindest werden könne. Insbesondere bestehe auch die Gefahr, dass Leistungs- und Planungsdaten für Überwachungszwecke eingesetzt würden, wobei allein „das Vorhandensein des größeren Überwachungspotentials“ zu derartigen Forderungen führen werde – womit Lenk die Gegenwart sehr genau vorherbeschrieben hat. Und nicht zuletzt könne die zunehmende Integration von (auch anonymisierten) Daten aus verschiedenen Quellen zu einer stärkeren Durchleuchtung individueller und gesellschaftlicher Gewohnheiten und Vorgänge führen und mithin zu einer verbesserten staatlichen Steuerbarkeit gesellschaftlicher Verhältnisse. Diese Durchleuchtung lasse sich, so Lenk, „als Bedrohung der Privatsphäre nicht mehr fassen.“ Zwar will Lenk, dass technische und organisatorische Schutzmaßnahmen sofort umgesetzt werden sollen, allerdings will er gleichwohl eine „exaktere Bestimmung der möglichen Gefahren anregen.“ Die Grundfrage des Datenschutzes sei, „wieviel personenbezogene Daten die einzelnen staatlichen Teilbürokratien brauchen, um ihre Aufgaben zu erfüllen.“ Dazu müssten die einzelnen Aufgaben klarer definiert werden, um daraus auf den Informationsbedarf schließen zu können. Lenk fordert eine Untersuchung der Datenelemente daraufhin, „wie stark sie die betroffenen Personen berühren.“ Dies hänge allerdings „nicht von irgendwelchen natürlichen Eigenschaften dieser Daten“ ab, sondern von deren Verwendungszweck und -zusammenhang. Eine der Aufgabe von Kontrollinstitutionen sei nach Lenk die Durchsetzung der Akzeptanz von Kosten technischer Datenschutz- und Datensicherheitsmaßnahmen als notwendige Kosten.

Steinmüller präsentiert in seinem Beitrag wieder seine systemtheoretisch begründete Datenschutzkonzeption. Er beschreibt den Individualdatenschutz – als Gegenstück zum Institutionaldatenschutz – nicht nur als Schutz des Individuums, sondern auch – weil moderne Demokratie auch Minderheitenschutz sei – als Schutz von Gruppen vor einem aus fünf Elementen bestehenden Informationssystem: 1. Hardware, 2. Software, 3. Daten, 4. Organisation, 5. System-Umwelt-Kopplung. Steinmüller meint, aus der Variabilität und Adaptivität der Systeme schließen zu können, das alles gar nicht so schlimm sei: Wer vor dem Hintergrund der „Anpassungsfähigkeit der Rechner und ihrer Strukturen“ die Existenz technischer Sachzwänge behaupte, verberge hinter diesem Argument entweder wirtschaftliche oder politische Ziele oder eigenen technischen Unverstand. Er hingegen versuche, alle drei Ziele des von ihm identifizierten „magischen Dreiecks“ zu erfüllen: Funktionsfähigkeit der Verwaltung, EDV-gerechte Organisation der Verwaltungautomation, Schutz der Bürgerinnen sowie der Gruppen und Institutionen der Gesellschaft.

Hans Brinckmann versucht in seinem Beitrag, das Verhältnis zwischen Datenschutz und Informationsfreiheit zu bestimmen. Beide stünden in einem grundsätzlichen Spannungsverhältnis zueinander.

Bernt Bühnemann behauptet in seinem Beitrag, dass die „Gefahren des Mißbrauchs“ im privatwirtschaftlichen Bereich größer seien als im öffentlichen Bereich, da staatliche Tätigkeit im Verhältnis zu den Bürgerinnen erstens dem Gesetzesvorbehalt unterliege und zweitens ins-besondere durch den Status negativus der Staatsbürgerin gebremst werde, während dem privatwirtschaftlichen Handeln wesentlich geringere Limitierungen auferlegt seien. Eine generalisierende Regelung des Datenschutzes im privatwirtschaftlichen Bereich scheide allerdings aus. Stattdessen müssten die Regelungen in Beziehung gesetzt werden zu Art und Zwecken der Datenverarbeitung. Bühnemann will insbesondere nach Wirtschaftsbereichen trennen. Dafür sollen drei Prämissen gelten: „1. Die Privatwirtschaft ist ohne ein Mindestmaß an Informationen funktionsunfähig. 2. Die Datenverarbeitung wird in der Privatwirtschaft vornehmlich für wirtschaftliche Zwecke eingesetzt. 3. Der Schutz des Individuums muß grundsätzlich Vorrang haben vor dem Schutz des Privatwirtschaftsverkehrs.“ Bühnemann verlangt, sich bei der Regelung des Datenschutzes an bereits erfolgreich umgesetzten Maßnahmen zu orientieren und etwa auf Erfahrungen aus dem Versicherungsrecht oder dem Bankenaufsichtsrecht zurückzugreifen und diese zu erweitern.

Andrea Hasselkuss und Claus-Jürgen Kaminski versuchen in ihrem Beitrag, Hubmanns Sphärentheorie wieder zur Grundlage der Datenschutzdiskussion zu machen und sich gleichzeitig von der amerikanischen privacy-Debatte abzugrenzen. Auch wenn sie keine neuen Aspekte zur Sphärentheorie beitragen, ziehen sie am Ende den Schluss, dass die Diskussion über deren Verwendbarkeit weitergeführt werden sollte, solange es nicht gelinge, ein alternatives System für den Datenschutz zu entwickeln, das deren Mängel nicht aufweise.

Bernhard Schlink analysiert, welche Folgen es habe, dass die Verwaltung die Bürgerin zum „Datenobjekt“ mache. Zu Beginn versucht er zu ermitteln, ob es ein verfassungsmäßiges Recht auf Selbstdarstellung für das Individuum gebe. Das lehnt er ab:

„Ein Recht des Bürgers zur Selbstdarstellung gegenüber der Verwaltung wäre also damit erkauft, daß der Bürger zu Recht der Verwaltung als Person ausgesetzt ist, und ginge auf Kosten des Persönlichkeitsschutzes, den gerade das rechtsstaatliche unpersönliche Verhältnis zwischen Bürger und Verwaltung bietet. Aus diesem, nicht aus einem Selbstdarstellungsrecht des Bürgers ist das Verbot der Erstellung und Verwertung umfassender Persönlichkeitsbilder abzuleiten.“

Eine der Gefahren einer solchen Vollerfassung sei die Möglichkeit der „sachwidrigen Koppelung von Verwaltungsobliegenheiten“, wenn also eine Behörde ihr Handeln gegenüber einer Bürgerin von deren Verhalten gegenüber einer anderen Stelle oder Person abhängig mache (Koppelung), und diese Koppelung gesetzlich nicht vorgesehen sei. Schlink fordert, dass die Bürgerin Auskunft stets dann verweigern könne, „wenn mit einer Verwendung und insbesondere einer Weitergabe der Auskunft durch die ermittelnde Verwaltungsbehörde zu rechnen ist, die durch Gesetz, Amtshilfepflicht und Hoheitsfunktion der Behörde nicht gedeckt ist.“ Der Schutz reiche aber nicht aus, wenn der Behörde die Daten bereits vorliegen. Die Bürgerin müsse dann „auf den vorhandenen Datenbestand selbst“ Einfluss nehmen können. Er hält daher ein Recht auf Löschung, Korrektur oder Ergänzung vorhandener Daten für notwendig und verweist auf das Bundesverwaltungsgericht, welches das institutionalisierte Vergessen aus dem Menschenbild des Grundgesetzes begründet habe. Schlink zufolge handele es sich dabei um einen „Folgenvorbeugungsanspruch“, der „auf den Rechtsschutz des Bürgers als Datenobjekt gerade zugeschnitten“ sei.

Hansjörg Geiger verlangt in seinem Beitrag nach dem Vorbild von Podlech, Simitis, Steinmüller und Schneider eine Ausweitung des Schutzgutes des Datenschutzes auf „die Gesellschaft als Ganzes, Teile von ihr bzw. den einzelnen Bürger sowie den Informationshaushalt.“ Er schlägt einen parlamentarischen Datenschutz-Ausschuss vor – ähnlich dem Verteidigungsausschuss –, der sowohl die Rolle der modernen Datenschutzbeauftragten (inklusive ihrer Rechte und Pflichten, weshalb ihnen auch nicht der Datenschutz als Argument für staatliche/behördliche Arkanpolitik vorgehalten werden könne), die eines institutionellen Informationsgegengewichts zur Exekutive als auch die eines „globalen Ausbalancierers“ im Informationsverhältnis zwischen allen drei Gewalten spielen solle.

Während Geiger das Problem der Gewaltenteilung aus einer „mehr staatsrechtlich-politik-wissenschaftliche[n] Sicht“ betrachte, analysiert Lutterbeck dessen „entscheidungstheoretische Komponente“. Er schlussfolgert, dass die Datenschutzdiskussion nicht nur um Fragen des Informationsgleichgewichts, sondern auch um den Aspekt der Planungskontrolle erweitert werden müsse, weil diese sachlich zusammengehörten.

In seinem Beitrag versucht sich Garstka an einer Definition und Abgrenzung der im Daten-schutzbereich verwendeten Begriffe, präsentiert dabei aber nichts Neues.

Jochen Schneider diskutiert in seinem Beitrag die technischen Möglichkeiten des Datenschutzes, worunter er „alle die Maßnahmen [. . . ] verstehen [will], die als Realisierung der Anforderungen des Datenschutzes eingesetzt werden.“ Dabei weist er darauf hin, dass die konventionellen Datenverarbeitungsmaßnahmen „keineswegs“ so sicher seien, wie es von der EDV erwartet werde. Die entscheidenden Unterschiede liegen nach Schneider in „Informations-Potential, Wiederhol-barkeit und Problematik der Feststellung.“ Diese Unterschiede würden die „wesentlich höheren Anforderungen“ rechtfertigen. Schneider ist einer der Wenigen, die technisch argumentieren, jedoch nicht auf die falsche Selbstbeschränkung des Verhinderns von etwas „Unbefugten“ hereinfallen: „Missbrauch“ könne zwar der unberechtigte Umgang mit Daten sein, jedoch auch der „legitime bzw. legitimierte.“ An der „Relativität der Privatsphäre“ würde eine „Klassifizierung von Daten“ scheitern, so Schneider, und mehr noch: Es fehle „die Möglichkeit genereller Festlegung von Empfindlichkeit, Schutzbereich oder Persönlichkeitswert.“

Ulrich Dammann analysiert in seinem Beitrag das Hessische Planungsinformations- und Analyse-System (HEPAS), das zum Zeitpunkt des Erscheinens gerade im Entstehen begriffen war. HEPAS bestehe aus der sogenannten Datenbasis und der sogenannten Methodenbasis („Programme, mit denen aus diesen Daten Entscheidungshilfe gewonnen werden sollen“). Die Datenbasis solle aus den „im automatischen Verwaltungsvollzug entstehenden Daten“ sowie Daten aus der amtlichen Statistik gespeist werden. Hinzu kämen Daten aus sonstigen Statistiken, Er-hebungen und Umfragen. Es gebe ein geographisches Identifizierungsmerkmal (GID), das Plan-quadraten (1000 m Seitenlänge, bzw. 200 m in besiedelten Gebieten) zugeordnet sei und als Ordnungskriterium dienen soll. Dammann weist darauf hin, dass die Nutzung statistischer Daten allein nicht bedeutet, diese seien nicht individualisierbar. Die falsche Ansicht speise sich wohl aus der Beobachtung, dass Veröffentlichungen statistischer Ämter „in der Tat keine Einzelangaben enthalten dürfen.“ „Aggregiert und anonymisiert“ seien jedoch nur die veröffentlichten Ergebnisse, in den meisten Fällen nicht aber die gespeicherten Daten. Weiterhin zeigt Dammann, dass insbesondere Systeme für Planungs- und Entscheidungshilfen immer individualisierende Daten speichern müssten, weil sie zumindest in der Lage sein müssten, Informationen, die dasselbe Objekt betreffen, miteinander zu verknüpfen.

Dieter Rave betrachtet in seinem Beitrag die Datenschutzprobleme, die es im Gesundheitswesen gebe. Er sieht das Gesundheitswesen als gutes Beispiel dafür, „daß die Datenschutzdiskussion ins falsche Geleis [sic] gerät, wenn sie sich in die liberale Ecke »Schutz- und Abwehrrechte der vereinzelten Individuen gegenüber dem übermächtigen Staat« abdrängen“ lasse, das die Ausweitung der Staatsfunktionen einen „vom Staat abgrenzbaren Privatbereich tendenziell verschwinden“ lasse. Eine angemessene Regelung müsse stattdessen auf ein „Datenverkehrsrecht“ hinauslaufen. Aufgabe von Datenschutzregelungen sei es, „die Verfügungsgewalt über Informationen zu regeln.“ Rave kritisiert insbesondere die auch heute noch weitverbreitete Bezugnahme auf ein angeblich existierendes Geheimhaltungsinteresse:

„Das Interesse der Betroffenen an Geheimhaltung, mit dem so oft operiert wird, ist solange kein ausreichendes Kriterium für die Ausgestaltung des Datenschutzes, wie:

  • im Gesundheitswesen die ungebrochene Autoritätskultur fortbesteht, der Patient also unwidersprochen fast alles mit sich geschehen läßt,
  • die Staatsbürger alle angeforderten Informationen preiszugeben bereit sind, wenn sie im Ausgleich dafür Leistungen von anderen erhalten (die Beispiele Sozialfürsorge und Versicherungen wurden schon erwähnt), ohne daß der Gesichts-punkt, ob diese Informationen tatsächlich benötigt werden, eine Rolle spielt;
  • Art und Ausmaß des Geheimhaltungsinteresses auf Seiten der Patienten nicht empirisch belegt sind (der freimütige Umgang mit Informationen über die eigene Gesundheit widerspricht manchen Äußerungen der ärztlichen Standesorganisationen über Geheimhaltungsbedürfnisse, deren Verletzung ein unverzichtbares Vertrauensverhältnis zerstören soll).“

Wolfgang Kilian analysiert in seinem Beitrag die Fragen des Datenschutzes, die sich im Bereich der Wirtschaft stellen. Er verweist darauf, dass das Datenschutzproblem keineswegs neu sei, Anlass für eine grundsätzliche Neuregelungen des gesamten Feldes allerdings die technische Entwicklung bei der automatisierten Informationsverarbeitung und deren Möglichkeiten zum Sammeln, Aggregieren, Strukturieren, Auswerten und Weitergeben von Daten gebe. Kilian identifiziert drei Gruppen von Wirtschaftsunternehmen, von denen unterschiedlich große Gefahren ausgehen würden. Die größte Gefahr gehe von Unternehmen aus, bei denen die Information selbst die Ware darstellen. Für diese schlägt er vor, in einem Gesetz „zulässige und unzulässige Zwecke aufzuzählen.“ Die zweite Gruppe, die er identifiziert, umfasse solche Unternehmen, „deren Geschäftszweck nicht unmittelbar oder nur zum Teil im Handel mit Informationen besteht, die aber in besonders hohem Maße von personenbezogenen Daten abhängen“ wie etwa Banken und Versicherungen. Die größte Gruppe bestehe aus Wirtschaftsunternehmen, „bei denen personenbezogene Daten ausschließlich der internen Organisation und als Voraussetzung eines davon unabhängigen Geschäftszwecks dienen.“ Ziel des Datenschutzes sei nicht ein Datenverbot, sondern die „Kontrolle oder Überwachung der Beschaffung und Verwendung von Daten.“ Allerdings fordert er, frau solle „für Verknüpfungen das Verbotsprinzip gesetzlich festlegen.“ Abschließend weist Kilian darauf hin, dass die damaligen Entwürfe für ein BDSG bei Verletzung von Datenschutzbestimmungen keine zivilrechtlichen Ersatzansprüche vorsehen würden. Damit gelte für mögliche Schadensersatzansprüche das allgemeine Deliktsrecht, das Verschulden voraussetze. Dies sei allerdings bei Verwendung von IT-Systemen schwer nachzuweisen. Er schlägt daher die Einführung einer Gefährdungshaftung vor, wie sie etwa auch im schwedischen Entwurf zu einem Datenschutzgesetz enthalten sei.

Kilian ist einer der Wenigen, die die Datenschutzdiskussion selbst beobachten und deren inhärente Verwerfungen identifizieren können:

„Die Datenschutzdiskussion mag für Außenstehende oft den Eindruck erwecken, als versuchten einige Juristen mit den ihnen zur Verfügung stehenden Mitteln den technischen Fortschritt zu hemmen. Der Eindruck ist deshalb schwer zu zerstreuen, weil es an praktischen Beispielen für die verbundenen Gefahren mangelt und alle Datenschutzvorschläge mehr oder weniger auf Vermutungen über künftige Auswirkungen von Informationssystemen beruhen. Andererseits darf nicht gewartet werden, bis sich erkennbare Gefahrenlagen aktualisieren, weil dies dann gleich tausendfach geschehen und die Entwicklung nur schwer oder gar nicht mehr rückgängig gemacht werden kann. Gerade solche Juristen, die sich intensiv mit EDV beschäftigen, weisen darauf immer wieder hin. Sie haben die Hoffnung, daß aufgrund der Datenschutzdiskussion künftig schon bei der Entwicklung neuer Informationssysteme die Implikate und Konsequenzen für den einzelnen Bürger mitbedacht werden.“

Eine dezidiert andere Vorstellung vom Datenschutz äußerte Simitis, der von der Annahme ausgeht, dass die staatliche Administration, die sich selbst als leistende und planende Verwaltung verstehe, „tendenziell auf Totalinformation ausgerichtet“ sei, „mag im übrigen von der Persönlichkeit und ihrem Schutz noch so viel die Rede sein.“ Auch für das Individuum habe sich die Situation in der „industriellen Gesellschaft“ grundlegend geändert: Es stelle sich der Einzelnen gar nicht mehr „die Frage nach der Exklusivität seiner Privatsphäre.“ Was ihn allein interessiere, seien die Leistungen, auf die sie angewiesen sei. Diese Leistungen seien aber gar nicht anders zu erhalten als über „die Bereitschaft zur Information.“ Verhindert werden solle, dass „Informationsbeschaffung und Informationsverarbeitung den einzelnen [. . . ] vollständig funktionalisieren und zum schlichten Objekt staatlicher und privater Bürokratie degradieren.“ Deshalb liege die spezifische Gefahr auch nicht „im Mißbrauch der gespeicherten Angaben.“ Entscheidend sei vielmehr „die mit dem Übergang zu einem qualitativ neuen Informationsinstrumentarium an-gestrebte Perfektionierung der sozialen Steuerung.“ Simitis schließt daraus, dass Information nicht beliebig verfügbar sein dürften und ihr Gebrauch der Legitimierung und Kontrolle bedürfe. Mit seinem Hintergrund als Arbeitsrechtler und den Erfahrungen mit dem kollektiven Arbeitsrecht sieht er die Funktion des Datenschutzes in der Schaffung von „institutionalisierte[n] generelle[n] Barrieren [. . . ], die Abwehr also nicht mehr der individuellen Möglichkeit überläßt.“ Der Kern aller Datenschutzregelungen sei „kalkuliertes Nichtwissen.“ Simitis hält das Datenschutzproblem für ein ausschließlich im Zusammenhang mit der Verwendung elektronischer Anlagen auftretendes Phänomen. So dürfte frau „umsonst [. . . ] nach Vorschriften für diese [manuelle] Form der Datenverarbeitung suchen.“

Simitis lehnt eine Ausdehnung des Datenschutzes über den Einzelnen hinaus ab. Peinlich ist allerdings die Begründung: Weil es die ersten Datenschutzgesetze und Gesetzentwürfe so bestimmen. Darüber hinaus negiert er die Existenz von Informationsmachtgefällen, an deren unterem Ende eine Organisation steht. Zugleich verfolgt er offen das Ziel, das Menschenrecht auf ein Bürgerinnenrecht zurechtzustutzen.

Sein Vorschlag für einen Lösungsansatz orientiert sich nicht wie bei Steinmüller und seinen Mitautorinnen am prototypischen Informationsverarbeitungsprozess, obwohl er deren Arbeit rezipiert, sondern an den Daten und ihren Verwendungszusammenhängen. Deren funktionale Analyse sichere ein Höchstmaß an Flexibilität, und weil der Verwendungszusammenhang im Mittelpunkt stehe, könnten sich die rechtlichen Regelungen „am konkreten Konflikt orientieren.“ Daher spricht er sich auch gegen Versuche aus, das Datenschutzproblem in einem einzelnen Gesetz zu regeln: Zu verschieden seien die Verwendungszusammenhänge, kaum vergleichbar Position und Situation der einzelnen Adressaten einer Datenschutzregelung, mit einer Vielzahl von zu berücksichtigenden Interessenkollisionen. „Der exzessive Gebrauch von Generalklauseln ist die Kehrseite der mangelnden, ja unmöglichen Differenzierung.“ Er plädiert stattdessen für die ausschließliche Verwendung bereichsspezifischer Regelungen. Durchsetzen lasse sich Datenschutz, so Simitis, nur durch Fremdkontrolle. Und internationaler Datenaus-tausch, der damals durchaus schon weit verbreitet war, sei nur solange akzeptabel, wie auch der Datenschutz internationalisiert werde.

Während Seidel in seiner im Vorjahr erschienenen Arbeit über den Umgang mit personenbezogenen Informationen in Datenbanken umfassend auf Beispiele sowohl aus den USA als auch aus der BRD verweist, dabei vom Kreditauskunftswesen über Adressverlage und Personaldatenbanken bis hin zu statistischen und sozialwissenschaftlichen Datenbanken thematisch eine große Breite abdeckt und Gefahren wie die Bildung von Persönlichkeitsprofilen, die Möglichkeiten zu politischer Überwachung sowie Schwarze Listen in verschiedenen Bereichen identifiziert, beschreiben Klaus Tiedemann und Christoph Sasse eine Welt, in der es eine scharfe Trennung zwischen der schrecklichen Realität in den USA mit ihren bösen Kreditauskunfteien und der heilen Welt mit den guten Auskunfteien in der BRD gebe. Mit Beispielen, die vor allem Wirtschaftssubjekte betreffen, nicht jedoch Verbraucherinnen, versuchen die Autoren unter anderem die Schufa pauschal zu exkulpieren, obwohl diese bis 2006 ausschließlich über Verbraucherinnen Auskunft erteilte. Insbesondere für Auskunfteien positive Aussagen in dem als Gefälligkeitsgutachten zu bezeichnenden Werk stammen ausschließlich von diesen selbst oder sind unbelegt. Einzig die Auswertung der bis zu diesem Zeitpunkt in der BRD erschienenen Literatur zum Datenschutz ist positiv hervorzuheben, wenn auch eher wegen ihres Umfangs als wegen ihrer Objektivität. Alle „düstere[n] Prognosen einer einseitigen Literatur professioneller Datenschützer“ sind tatsächlich eingetreten, wenn auch in einigen Fällen erst Jahre oder Jahrzehnte „verspätet“, während alle Schönredereien und Beschwichtigungen von Tiedemann und Sasse sich im Nachhinein bestenfalls als Irrtum, manchmal auch als Lüge herausstellten.

Podlech veröffentlichte 1973 seinen zuvor angekündigten Entwurf für ein Bundesdatenschutz-Rahmengesetzes samt Begründung. Herausragende Eigenschaft dieser Arbeit ist, dass Podlech – im Gegensatz zu Steinmüller und seinen Mitautorinnen – seine Annahmen so umfassend wie möglich aufdeckt. Inhaltlich beschränkt er sich auf den Datenschutz im öffentlichen Bereich, da er sich für nicht ausreichend kompetent erachtete, auch für den Bereich der Wirtschaft entsprechende Regeln auszuarbeiten. Zu Beginn schlägt Podlech eine Änderung des Grundgesetzes mit dem Ziel vor, dem Bund die Kompetenz für eine bundeseinheitliche Regelung des Datenschutzes zu verleihen. Der Gesetzentwurf enthält nach Abschnitten mit Begriffsbestimmungen und allgemeinen Vorschriften sieben inhaltliche Abschnitte sowie einen Abschnitt mit Schlussbestimmungen. Letztere enthalten Änderungen für andere gesetzliche Regelungen, die sich aus der Einführung eines Datenschutzgesetzes ergeben.

Bevor Podlech die einzelnen Vorschläge erläutert, gibt er einen Überblick über den Stand der Gesetzgebungsarbeiten auf dem Gebiet des Datenschutzes und identifiziert die Eigenschaften, die existierende Datenschutzvorschriften und -entwürfe kennzeichnen. Alle Entwürfe gingen aus „von der Privatsphäre des Einzelnen und versuchen zu verhindern, daß Informationen aus dieser Privatsphäre unberechtigt verwendet werden.“ Dabei werde weder die Privatsphäre selbst näher umschrieben noch finde eine Auseinandersetzung mit der zu diesem Begriff kritischen Literatur statt. Anschließend beschreibt Podlech die Ausgangslage sowie die daraus für seinen Entwurf resultierenden Folgerungen. Er geht von den Planungen der Länder und des Bundes für „umfassende integrierte Informationssysteme“ aus, „die alle Behörden und nahezu alle Staatsfunktionen umfassen“ würden. Seiner Meinung nach seien zwar erstens umfassende Verknüpfungen ohne das bundeseinheitliche Personenkennzeichen noch nicht möglich und zweitens geheimdienstinteressante personenbezogene Daten noch kaum gespeichert, aber es sei klar, dass wenn integrierte Informationssysteme erst einmal eingerichtet seien, es nahezu unmöglich sein werde, ihre grundlegende Struktur noch erheblich zu ändern. „Datenschutz muß aber bei der Struktur der Informationssysteme ansetzen.“ Da einzelne Schutzmaßnahmen jeweils für sich nicht ausreichten, da diese – ob technische, organisatorische oder rechtliche Schutzvorschrift – im einzelnen gebrochen werden könnten, bedürfe es einer sinnvollen Kombination dieser Maßnahmen mit begleitender Kontrolle. An erster Stelle stünden organisatorische Maßnahmen wie „die Trennung von Unternehmer und Benutzer integrierter Informationssysteme.“ Zweitens bedürfe es eines „von einer relativ neutralen Stelle durchgeführte[n] Programmschutz[es].“ Erst auf dieser Basis ließen sich wirksame Rechte der Betroffenen und Strafbestimmungen als weitere Schutzmaßnahmen formulieren. Anschließend präsentiert Podlech das dem Entwurf zugrunde gelegte organisatorische Modell, das vor allem auf Arbeiten des frühen Luhmann basiert – vor dessen autopoietischen Wende 1984.

Da sich keine materiellen Kriterien finden ließen, die es für den gesamten Bereich der öffentlichen Verwaltung ermöglichten zu entscheiden, welche Informationen eine Behörde oder ein Behördenteil erheben, speichern, verarbeiten und nutzen dürfe, wählt Podlech als Ersatz einen verfahrensorientierten Ansatz. Er verlangt dazu eine transparent durchgeführte Erforderlichkeitsprüfung für jede zur Aufgabenerfüllung notwendige Datenverarbeitung. Die aus dieser Prüfung abzuleitenden Regelungen sollen nach Podlech techniknah sein, weil nur so ein effektiver Schutz zu gewährleisten sei. Daher seien auch die Regelungen seines Gesetzentwurfs techniknah. Dabei nimmt er an, dass auch durch weniger techniknahe Regelungen das Problem der Veralterung dieser Regelungen vor dem Hintergrund der technischen Entwicklung nicht ausgeschlossen werden könne. Gerade deshalb sei die Techniknähe der von ihm vorgelegten Regelungen auch angemessen. Darüber hinaus nimmt er an, dass Datenschutzregelungen etwa alle fünf Jahre von der technischen Entwicklung überholt würden.

Nach Podlech soll das Datenschutzgesetz Personen schützen, „alle natürlichen Personen, juristischen Personen des Privatrechts und alle Personengruppen, die Träger von Rechten und Pflichten sein können.“ Rechtlicher Anknüpfungspunkt sollen dabei personenbeziehbare Daten sein, also über die personenbezogenen hinaus auch solche, bei denen „geschickt gewählte Merkmalskombinationen“ als Namensersatz dienen können, die als statistische Angaben durch Zusatzinformationen wieder zu personenbezogenen Daten werden können oder pseudonymisierte Daten. Eine Besonderheit des Podlechschen Entwurfs liegt in der Ausnahme der Geheimdienste von den Datenschutzregelungen, „weil entweder eine Einhaltung der Vorschriften nicht kontrolliert werden kann oder die Kontrolle dazu führt, daß die Geheimdienste ihre Aufgaben nicht entsprechend den für Geheimdienste geltenden Regeln erfüllen können.“

Der vierte Abschnitt, in dem Podlech die Prinzipien der Erforderlichkeit und der Gesetzmäßigkeit der Informationserhebung und des Informationsaustausches regelt, ist der materielle Kern des Entwurfs. Der Grundsatz der Erforderlichkeit ist dabei eng auszulegen, für die Erforderlichkeitsprüfung für Sekundärinformationen werden noch höhere Anforderungen definiert und Tertiärinformationen dürfen gar nicht erhoben werden. Für den Informationsaustausch und die Informationsweitergabe an Private hat Podlech Regelungen aus dem IPA-Entwurf übernommen, die selbst wieder auf dem Mikrozensusurteil und dem Scheidungsaktenurteil des BVerfG basieren. An eine mögliche Einwilligung stellt er hohe Anforderungen: „[D]ie Einwilligung darf nicht durch Allgemeine Geschäftsbedingungen vereinbart werden; sie ist unwirksam, wenn sie unter Ausnützung einer wirtschaftlichen Machtstellung erreicht wurde.“ Neben diese allgemeinen Regelungen stellt Podlech darüber hinaus besondere Anforderungen an den Informationsaustausch mit Hilfe von Computern. So regelt er, dass in Datenbanken ein „künstliches Vergessen“ eingebaut werden muss. Anschließend definiert er ein Verfahren, mit dem für die einzelnen Behörden und Behördenteile deren Aufgaben transparent gemacht werden, für die dann ermittelt werden kann, welche Informationen für deren Erfüllung erforderlich sind. Zu allen zu speichernden Informationen sind dann die Informationen mitzuspeichern, welche Behörden für die Erfüllung welcher Aufgaben in welcher Form darauf zugreifen und diese Daten verarbeiten, weitergeben oder nutzen dürfen. Die rechtlichen Vorgaben sind dann in „Schutzprogramme“ zu übersetzen, die zu veröffentlichen sind, damit sie öffentlich kontrolliert werden können, getestet und genehmigt werden müssen. Für rechtswidrig erlangte Informationen stellt Podlech ein allgemeines Verwendungsverbot auf, das sich auch auf Verfahren vor Gericht bezieht und dort einem Verwertungsverbot entspricht, und „beendigt das Verfahren der V-Männer.“

Da eine nachfolgende Kontrolle immer verhindert werden und sich auch eine vorbeugende Kontrolle durch „spätere unkontrollierbare Eingriffe in die Programme immer umgangen werden“ könne, funktioniere nur eine begleitende Kontrolle durch die Trennung von Unternehmung und Nutzung von Datenbanken. Die Unternehmerinnen integrierter Informationssysteme – die Datenzentralen oder Informationsämter – sollen dabei nach dem Muster der Rechnungshöfe konstruiert sein und genauso unabhängig wie diese. Sie stellen einen „organisatorischen Kunstgriff dar, um die Systemgliederung innerhalb der öffentlichen Verwaltung aufrechtzuerhalten, da integrierten Informationssystemen der öffentlichen Verwaltung die freiheitsbedrohende Tendenz innewohnt, Behördengrenzen funktional aufzulösen und Behörden alter Art zu Attrappen vor gesetzlich nicht ausgewiesenen Machtzentren werden zu lassen.“ Damit will Podlech die „Metafunktion öffentlicher Verwaltung“ unterstützen, die „auf die Garantie einer bestimmten Form der Erledigung von Verwaltungsaufgaben gerichtet ist.“ Abschließend erläutert Podlech die den Betroffenen gewährten subjektiven Rechte, die denen des IPA-Entwurfs entsprechen und auch im Vergleich mit anderen Vorschlägen aus dieser Zeit keine neuen Aspekte aufbringen.

Ein 1974 erschienener Debattenbeitrag von Ernst Benda, „Privatsphäre und »Persönlichkeitsprofil« – Ein Beitrag zur Datenschutzdiskussion“, verdient nicht deshalb besondere Aufmerksamkeit, weil Benda neue Probleme aufzeigen, neue Argumente bringen oder neue Lösungsansätze in den Diskurs einbringen würde, sondern weil er in seiner letzten Entscheidung als Präsident des Bundesverfassungsgerichts – dem Volkszählungsurteil – dem Recht auf informationelle Selbstbestimmung als Grundrecht zum Durchbruch verhalf. Benda stellt in seinem Beitrag nicht die allgemeine Handlungsfreiheit nach Art. 2 Abs. 1 GG, sondern die Menschenwürde nach Art. 1 Abs. 1 GG als dem obersten Wert in der Wertordnung des Grundgesetzes in den Mittelpunkt seiner Aufmerksamkeit, während er die Folgen der „Bürokratisierung des Staatsapparats“ für die „Möglichkeiten spontanen Verhaltens und autonomer Entscheidungen“ analysiert und bewertet. Die neuen technische Möglichkeiten führten zu einer „neue[n] Qualität staatlicher Tätigkeit [. . . ], welche die überkommenen Strukturen der öffentlichen Verwaltung radikal verändern“ würden mit der Folge, „daß die den Rechtsstaat schützenden Verfassungsnormen, die sich am klassischen Behördenverhalten orientieren, nahezu obsolet werden.“ Staatliche Verfassungsprinzipien müssten, um weiter wirksam sein zu können, „im Lichte einer ganz neuartigen Gefährdung interpretiert werden.“

Nach Benda gehe die Datenschutzdiskussion „von der Befürchtung aus, daß der Bürger zum »Datenobjekt«“ und „in seinem Menschsein bedroht“ werde, „weil die Bürokratie mächtiger und undurchschaubarer wird und weil staatliche Planung den Menschen dem Plan anpassen und sich über sein »beschränktes Einsichtsniveau« hinwegsetzen könnte.“ Er behauptet, Ziel des Daten-schutzes sei, „einen dem einzelnen gewährleisteten, dem Zugriff des Staates entzogenen Bereich abzugrenzen.“ Zwar grenzt er sich bei seiner Analyse von der vom Bundesverfassungsgericht vertretenen Sphärentheorie ab, hält aber unter Verweis auf Westin und Jourard an der Vor-stellung fest, Ziel der „Privatheit“ sei die Abgeschiedenheit, die Abtrennung von der Gesellschaft, quasi die Flucht vor der Gesellschaft. Weil sich für Benda die „Privatheit“ im Rückzug aus der Gesellschaft erschöpft, kann sie dort nicht sein, wo der Mensch „im Bereich der Sozialsphäre tätig wird.“ Dem Menschen stehe daher in diesem Bereich weder ein generelles Recht auf informationelle Selbstbestimmung noch auf „Selbstdarstellung“ zu, begrenzt werde die Erhebung, Speicherung und Verwendung der „Spuren“ aus „der Sozialsphäre“ oder „der Öffentlichkeit“ ausschließlich durch die Menschenwürde. Das Recht auf informationelle Selbstbestimmung existiere „nur innerhalb der durch die Sozialbezogenheit des Menschen gezogenen Grenzen.“ Das eigentliche Problem stelle die Informationsintegration dar, die „dem Staat dann ein »Röntgenbild der Persönlichkeit« zur Verfügung“ stelle: „Die Möglichkeit, Persönlichkeitsprofile der Bürger anzulegen, verstärkt die Gefahr, daß der Staat den Menschen »in seiner ganzen Persönlichkeit« registriert und katalogisiert.“ Diese Vollabbildung der Persönlichkeit soll nach Benda „rechtlich und technisch“ unter Rückgriff auf das „soziologische[] Verständnis von »Privatheit« als einer »rollenspezifischen Informationsweitergabe« durch Individuen“ ausgeschlossen werden:

„Der einzelne wird nicht so sehr dadurch in seiner Privatsphäre gefährdet, daß über-haupt Informationen über ihn existieren (zumal, da er selbst ständig bewußt oder unbewußt solche Daten vermittelt); die eigentliche Bedrohung liegt darin, daß er die Verfügung darüber verliert, an wen und zu welchen Zwecken die Informationen vermittelt werden. Nicht die Informationen an sich, sondern ihre dysfunktionale Weitergabe, auf die der Betroffene keinen Einfluß hat, zerstört die Privatsphäre.“

Benda widerspricht sich dabei selbst, nachdem er vorher noch behauptet hatte, dass diese Weitergabe hingenommen werden müsse, etwa als „Folgen eines wirtschaftlich unvernünftigen Verhaltens“ – womit er offenkundig auf die Kreditauskunfteien anspielt, die gerade von der Weitergabe der Informationen leben – oder als „soziale Sanktionen, wie das Unwerturteil anderer über ein zulässiges, aber fragwürdiges Verhalten“, die gerade auch auf der „dysfunktionalen Weitergabe“ von Informationen basieren. Er zieht aus seiner Problematisierung noch nicht einmal die Konsequenz, „dem staatlichen Informationsbedürfnis absolute Grenzen wie etwa das Verbot der Bildung von »Persönlichkeitsprofilen« zu setzen.“ Allein das verfassungsrechtliche Verhältnismäßigkeitsprinzip soll „die Privatsphäre“ schützen.

Eine konträre Position vertritt Walter Schmidt, der den Kern des Datenschutzes in der „bedrohten Entscheidungsfreiheit“ sieht: „Wer sich beobachtet weiß, stellt sich darauf ein. Wer durchschaut worden ist, dessen Verhalten kann im voraus abgeschätzt, dessen Entscheidungen können vorweggenommen werden.“ Beim Datenschutz gehe es weder nur um den „Schutz personenbezogener Daten“ noch ausschließlich um den Persönlichkeitsschutz. Auch sei ein Ausschluss von anonymisierten Daten angesichts ihrer Problematik falsch.

Nach Schmidt stelle die Ausweitung der Verfügbarkeit personenbezogener Informationen, die sich zum „»Lebensbild« oder »Persönlichkeitsprofil«“ fügten, das grundlegende Problem dar: „Die bisher nur bestimmten Stellen gegenüber preisgegebene, damit allenfalls teilöffentliche und im übrigen weiter »private« Information wird jetzt insoweit (für alle Zugriffsberechtigten) voll »öffentlich«.“ Deshalb könne ebenso gut von „Ent-Privatisierung“ wie von „Ver-Öffentlichung“ gesprochen werden. Es werde, so Schmidt unter explizitem Rückgriff auf die überkommende Terminologie, eine „künstliche »Öffentlichkeitssphäre« des einzelnen“ erzeugt, über die sie nicht mehr selbst verfügen könne und die ihre „»Privatsphäre« aufhebt.“

Wie auch schon Kamlah und Seidel wählt Schmidt den Ansatz der Analyse der „denkbaren Verletzungen“ als Ergänzung zu einer Klärung des „im einzelnen umstrittenen Ziels des Persönlichkeitsschutzes (seinen »Gegenstand«)“. Da Datenintegration die Verfügung über die zu integrierenden Daten voraussetze, müssten sich die Schutzvorkehrungen gegen die Datenintegration „in das Vorfeld der Informationsermittlung“ verlagern. Weil sie sowohl für die staatliche wie die private Informationsverarbeitung „in den weitaus meisten Fällen an der sozialen Abhängigkeit“ vorbeigehe, sei die „»Freiwilligkeit« der Auskunft“ keine akzeptable Rechtfertigung eines Auskunftsverlangens.

Als Ziele des Persönlichkeitsschutzes stellt Schmidt zwei Konstruktionen einander gegenüber: einerseits die „»Sphären«-Konstruktion und [den] Autonomieschutz“, andererseits die Entscheidungsfreiheit als „private und politische Autonomie“. Das Sphärenmodell lehnt er begründet ab:

„Die Konstruktion abgestufter »Sphären« des Persönlichkeitsschutzes ist nur dann sinnvoll, wenn sich mit ihrer Hilfe ein für allemal brauchbare, jeweils im voraus einsetzbare Kriterien zur Abgrenzung des rechtlich geschützten von einem ungeschützten (Rest-?)Bereich finden lassen, mit anderen Worten, wenn sie einigermaßen sichere Maßstäbe liefert, die Inhalt und Umfang des Persönlichkeitsschutzes vorhersehbar machen. Gerade das ist ihr nicht gelungen und konnte ihr nicht gelingen. Weite Bereiche des gesellschaftlichen und des Berufslebens verschwimmen »im Zwielicht einer ’privaten’ Öffentlichkeit«.“

Schmidt sieht das Problem der Sphärentheorie in einer überkommenen Gesellschaftsvorstellung von Privatautonomie und schlägt daher einen anderen Weg vor: „Statt eines sich selbst verwirklichenden objektiven Prinzips (der Privatautonomie) wird nunmehr die Selbstverwirklichungschance des (autonom gedachten) Subjekts geschützt.“

„Die integrierte Verarbeitung personenbezogener Daten ermöglicht individualbezogen die technische Reproduzierbarkeit des »inneren« Persönlichkeitsprofils und gruppenbezogen die Simulation des Konsumenten- und Wählerverhaltens, diese auch dann, wenn die Daten anonymisiert worden sind, also keinen Rückschluß mehr auf eine bestimmte Person [. . . ] zulassen. [. . . ] Der offenen und der anonymisierten Datenintegration ist gemeinsam, daß sie die persönlichen Entfaltungsmöglichkeiten je-des einzelnen schmälern und seine Abhängigkeit steigern. Die Reproduzierbarkeit seines Persönlichkeitsprofils trifft ihn stärker in seiner individuellen Abhängigkeit als Arbeit- und Kreditnehmer oder als Empfänger öffentlicher Leistungen; die Simulation eines Gruppenverhaltens trifft auch jedes einzelne Gruppenmitglied in seinen Entscheidungsmöglichkeiten als Konsument von Waren- oder Dienstleistungen oder als Element der politischen Willensbildung. [. . . ] Diese hier nur grob skizzierten Möglichkeiten der Verhaltenssteuerung zeigen, daß es nicht länger genügen kann, bestimmte Lebensbereiche zu Freiräumen zu erklären und die Entscheidungsfreiheit des einzelnen, die erst solche »Schutzsphären« mit Leben zu erfüllen vermöchte, wie selbstverständlich vorauszusetzen. [. . . ] Diese Entscheidungsfreiheit gilt es gegenüber Staat und Privatwirtschaft zu schützen; der einzelne bedarf mithin der privaten wie der politischen Autonomie.“

Entscheidungsfreiheit setze dabei „die Möglichkeit des Auch-anders-könnens“ voraus, „mögliche Fremdsteuerungen des Entscheidungsverhaltens“ müssten abgewehrt werden, es gehe um die Ausweitung der „Selbstbestimmungs- und Selbstverwirklichungsmöglichkeiten“, also um die „Emanzipation“. Informationsfreiheit und freie, ungehinderte Kommunikation seien daher grund-legend für eine Entscheidungsfreiheit. Auch seien nach öffentlichem wie privatem Recht „die »innere« Entscheidungsfreiheit ebenso zu schützen wie sie Selbstdarstellung nach außen.“

Der Schutz schließe dabei Informationen aus offen zugänglichen Informationsquellen notwendig mit ein. Die herrschende Meinung verfehle mit ihrem Versuch einer Abgrenzung einer „»Privatsphäre« von einer rechtlich ungeschützten »Öffentlichkeitssphäre«“ das Problem: „[D]urch die Fixierung auf das Kriterium des »Privaten« hat sie den Schutz der politisch verstandenen Freiheit aus dieser Problemdiskussion hinausdefiniert.“ In einem demokratischen Staat, „der von der Öffentlichkeit und durch die Öffentlichkeit“ lebe, sei kaum etwas so empfindlich wie diese „»Öffentlichkeitssphäre«“. Das gelte auch für die private Informationsverarbeitung, „[a]ndernfalls wäre die politische Entscheidungsfreiheit eines jeden einzelnen durch Rücksichtnahme auf sein privates Fortkommen (als Arbeitnehmer wie als Unternehmer im Konkurrenz-kampf) ständig bedroht – von der Umgehungsmöglichkeit für öffentliche Stellen [. . . ] ganz zu schweigen, die sich lediglich privatrechtlicher Organisationsformen zu bedienen brauchten.“ Schmidt fordert daher in Anlehnung an und Ergänzung zum Recht am eigenen Bild ein „Recht am Persönlichkeitsprofil“.

Zwar sei der Informationsaustausch das Kernproblem des personenbezogenen Datenschutzes, dieser könne aber erst gelöst werden, wenn vorher die Frage, wer welche Informationen zu welchen Zwecken erheben und speichern dürfe, gelöst sei: „[N]ur ein rechtmäßiger Datengebrauch aufgrund rechtlich unbedenklicher Informationsbeschaffung kann gegen Mißbrauch abgesichert werden.“ Dabei seien nicht die technischen Möglichkeiten Maßstab für die Verarbeitung: „Die »Normalität« der anschwellenden Informationsflüsse erlaubt noch nicht den Schluß auf die Normalität jeder Art Informationssammlung und -verarbeitung.“

Ende 1972 entstand am Rande eines öffentlichen Hearings des BMI zum Referentenentwurf für ein Bundesdatenschutzgesetz die Idee, dass die Soziologinnen und Juristinnen, die als Sachverständige teilnahmen, einem größeren Publikum die Chancen und Gefahren elektronischer Datenbanken für Individuen und Gesellschaft zu verdeutlichen und dabei die Beschränkungen, die die „Diskussion von Regierungsbeamten, Lobbyisten und einzelnen Wissenschaftlern“ kennzeichne, zu überwinden.

Im ersten Kapitel in dem 1974 erschienenen Werk gibt Ulrich Dammann einen Überblick über den Stand der wichtigsten Automatisierungsprojekte der bundesdeutschen Verwaltung. Neben der allgemeinen Verwaltungsautomation, die von der Automatisierung von Massen- und Routineaufgaben bis hin zu den damals sogenannten „Management-Information-System[en]“ [sic!] reichen, betrachtet er einige der Projekte näher: das „automatisierte Einwohner-Informations-System“, die bevorstehende – aber dann nicht gekommene – Einführung eines allgemeinen Personenkennzeichens sowie die polizeilichen und nachrichtendienstlichen Informationssysteme. Abschließend gibt er einen Überblick über das geplante „Informationsbankensystem“. Zu jedem der vorgestellten Systeme beschreibt Dammann dann die Möglichkeiten und Gefahren aus der Sicht des Datenschutzes.

Steinmüller und Henner Wolter beschreiben im zweiten Kapitel die Besonderheiten elektronischer Datenverarbeitung gegenüber den „»herkömmlichen« Verfahren der Informationsverarbeitung, die mehr und mehr durch die EDV ersetzt werden.“ Die EDV wird dabei als System verstanden, „einem konkreten sozialen System [. . . ], als dessen Teilsystem ein Mensch-Maschine-System fungieren kann.“ Es gehe also bei der Betrachtung des Datenschutzes nicht nur um Mensch-Maschine-Systeme oder gar nur die Maschine, den Computer. Immer müsse analysiert werden, welchen Interessen ein konkretes Informationssystem objektiv nütze, welchen es schade. Die Besonderheiten der automatisierten gegenüber der menschlichen – oder manuellen – Informationsverarbeitung liegen in der Erhöhung der Effizienz, der schnelleren Anpassung der Organisation an eine veränderte Umwelt bei gleichzeitig stärkerer Unabhängigkeit gegenüber dieser Umwelt, der Erhöhung der Zuverlässigkeit, der Steigerung der Lernfähigkeit der Organisation sowie die Fähigkeit zur Steigerung der zu verarbeitenden Komplexität. Steinmüller und Wolter sehen in der Automatisierung der Verwaltung die Tendenz zur Integration und Zentralisation und im Ergebnis eine Ausweitung der Macht der Datenverarbeiter.

Im dritten Kapitel versucht Paul J. Müller, eine soziologische Definition dessen anzugeben, „was als Privatsphäre von Personen anzusehen ist“ und welchen Gefahren sie ausgesetzt ist, bis hin zur Gefahr ihrer völligen Aufhebung. Als allgemeine Definition von Privatsphäre gibt er an: „Sie wird durch Lebensbereiche von Individuen ermöglicht, in denen sie handeln können, ohne daß eine für sie dysfunktionale (nachteilige) Informationsweitergabe an andere erfolgt.“ Er trennt dabei, wie in der Soziologie üblich, zwischen der Sichtbarkeit von Individuen für andere Individuen auf der einen und der Sichtbarkeit von Individuen für Institutionen. Für die Beschreibung und Analyse „der Struktur der Kontakte des Menschen in seiner sozialen Umwelt“ und der daraus folgenden unterschiedlichen Sichtbarkeit gegenüber anderen Individuen – Mikro-Ebene – nutzt Müller die soziologische Rollentheorie. Dabei zeigt er unter anderem, inwieweit sich die Struktur der Sichtbarkeit etwa zwischen der mittelalterlichen Dorfgemeinschaft und der modernen Industriegesellschaft unterscheiden. Anschließend präsentiert Müller einige empirische Befunde zur Sichtbarkeit von Individuen in ihren Umwelten. Der zweite Teil beschäftigt sich mit der Sichtbarkeit von Individuen gegenüber Institutionen, d. h. der Makro-Ebene. Dabei stellt Müller fest, dass es „eigentlich kaum noch Aktivitäten gibt, die keine Spuren bei Verwaltungen hinterlassen“ und alle diese Aktivitäten informationell abgebildet werden. Die Dysfunktionalität der Informationsweitergabe lasse sich damit bestimmen als die „Aufhebung des Effektes von rollenspezifischer Informationsweitergabe der Individuen durch intermediäre In-stanzen.“ Integrierte Informationsbankensysteme ermöglichten damit die Integration vormals differenzierter Rollen. „Die Forderung nach Integration von Information spiegelt vorindustrielle Lebensbedingungen wider, indem immer noch davon ausgegangen wird, das »Eigentliche« der Person sei durchgängig die Totalität aller Rollenerfüllungen, die »synthetische Person«.“ Kurz: Es handelt sich vor dem Hintergrund moderner, funktional differenzierter Gesellschaften, in denen wir leben, um eine rückwärtsgewandte Vorstellung.

Mark O. Karhausen beschreibt im vierten Kapitel, welche Probleme sich in der empirischen Sozialforschung, die enorme Mengen personenbezogener Daten erhebt, verarbeitet und nutzt, ergeben und wie die Sozialforschung mit diesen Problemen umgeht. Nach einer Einführung in Datenbanken im Allgemeinen und Umfragedatenbanken im Besonderen versucht Karhausen, die Schutzwürdigkeit von Informationen zu bestimmen, die er als „»Vertraulichkeit«“ bezeichnet. Er unterscheidet dabei zwei Gründe, die die Vertraulichkeit von Informationen bestimmen würden: ein Interesse der Betroffenen und Normen und Wertvorstellungen der Gesellschaft. Es sei aber oftmals schwer zu entscheiden, ob bestimmte Informationen vertraulich sein sollen oder nicht. „Eine Lösung des Konflikts könnte in der Forderung bestehen, personenbezogene Daten generell als vertraulich und damit schutzwürdig zu behandeln.“ Abschließend beschreibt er bereits eingesetzte und mögliche weitere Methoden, Datenschutz in der empirischen Sozialforschung umzusetzen: Anonymisierung und Pseudonymisierung, Zugangsbeschränkungen, frühe Kategorienbildung und getrennte Speicherung unterschiedlicher Merkmale, etwa demographischer Merkmale und erhobener Meinungen oder Einstellungen. Neue Ansätze betreffen etwa die Beschränkung bestimmter Nutzerinnenkreise auf bestimmte Analysetechniken, Verkettungsschranken oder Mindestgruppengrößen bei der Ergebnisausgabe.

Im fünften Kapitel betrachten Wolfgang Schimmel und Steinmüller die rechtspolitische Problemstellung des Datenschutzes. Nachdem sie die Dringlichkeit einer gesetzgeberischen Lösung begründet haben, beschreiben sie die drei zentralen Interessen in der Datenschutzdiskussion: Erstens müsse die Funktionsfähigkeit von Staat, Wirtschaft und Wissenschaft erhalten oder gar gesteigert werden. Zweitens sollten die Möglichkeiten der EDV maximal genutzt werden. Und drittens sollten die gesellschaftlichen Freiheitsräume durch die Entwicklung der Informationstechnologie nicht gefährdet werden. Dies nennen sie das „magische Dreieck“ des Datenschutzes, die „»rein« vertreten“ einander ausschlössen. Gleichwohl seien diese Interessen keineswegs gleichen Ranges: Informationsverarbeitung diene der Benutzerin (öffentliche Verwaltung, Wirtschaft, Wissenschaft), die wiederum der Gesellschaft insgesamt wie ihren Teilen, insbesondere den Bürgerinnen, dienten. „Vollständiger [. . . ] lautet die Präferenzreihe: Datenverarbeitung im Dienst der Verwaltung sowie der Wirtschaft und der Wissenschaft, jedoch unter der politischen Entscheidung der Volksvertretung und der Kontrolle der Justiz, all dies jedoch letztlich im Interesse der Personen und Personengruppen, die die Gesellschaft ausmachen.“ Dem entgegen stünden weit verbreitete Auffassungen, die etwa „»Rationalisierung« als oberstes Ziel der Automation“ oder „Bequemlichkeit“ – „»Die Daten sollen laufen, nicht der Bürger«“ – postulierten oder „»Schutz gegen Datenschutz«“ forderten. Einzig die Sozialforscherinnen mit ihrem ungeheuren Datenbedarf hätten es verstanden, „die einzig zutreffende Folgerung“ zu ziehen: „die Vorlage eines realistischen und zugleich praktikablen Datenschutzkonzeptes, das ihr nicht nur politisch unbehindertes Arbeiten ermöglicht, sondern das durchaus auch der Verallgemeinerung auf andere nichtwissenschaftliche Bereiche fähig ist.“ Anschließend rekapitulieren die Autoren die Datenschutzdiskussion in verschiedenen Ländern, den USA, Großbritannien, Norwegen und der BRD. Dem folgt eine Kritik an den Ansätzen und Grundbegriffen der „bisherigen“ Datenschutzforschung: der „Privatsphäre“ und ihrer Relativität, der Relativität der „personen-bezogenen Daten“ und dem „Informationsgleichgewicht“. Die Autoren identifizieren vier „datenschutzrechtliche Gefahrenfelder“: das Individuum „als Objekt staatlicher und privater Datenverarbeitung“, die „Verplanung von Individuen als Folge des Einsatzes von Informationssystemen“, die „Verschiebung des Informationsgleichgewichts“ sowie die „Bedeutung der Information für eine demokratische Gesellschaft“. Besondere Risiken würden unter faktischen Abhängigkeitsverhältnissen (Arbeitsverhältnis, Verbraucherinnenschutz, staatliche Leistungsverwaltung), rechtlichen Unterordnungsverhältnissen (Eingriffsverwaltung und Sicherheitsorgane, sogenannte „besondere Gewaltverhältnisse“) sowie in besonderen Vertrauensverhältnissen (medizinische, rechtliche und wirtschaftliche Beratung, die „[f]reiwillige Weitergabe durch den Betroffenen in Unkenntnis des Ausmaßes der Verwertung der Daten“ sowie die „[b]esondere[n] Risiken moderner Kommunikations- und Informationsverarbeitungstechniken“). Abschließend stellen Schimmel und Steinmüller die rechtlichen Grundlagen des Datenschutzes – vor allem die verfassungsrechtlichen – und den Regierungsentwurf zum Bundesdatenschutzgesetz vor und unterziehen letzteren einer vernichtenden Kritik.

In einem Nachwort erläutert Erwin K. Scheuch den Datenschutz als Machtkontrolle. Unter Verweis auf Parsons und Tönnies erläutert er den Unterschied zwischen Gemeinschaft und Gesellschaft und zeigt, wie „in hoch differenzierten Industriegesellschaften“ Menschen auf der Basis ihres Verhaltens – oder der Basis von Informationen über ihr Verhalten – von anderen Individuen oder Institutionen bewertet werden, und wie die Menschen darauf allgemein mit „selektiver Informationsweitergabe“ reagieren. Dabei stellt er fest, dass je asymmetrischer eine soziale Beziehung sei, „umso negativer ist für das Individuum die Durchbrechung der selbstgewählten Selektivität der Mitteilungen über sich selbst.“ Scheuch warnt vor der Auffassung, der Datenschutz gegenüber staatlichen Institutionen sei das dringlichere Problem: „Diese Auffassung beruht auf einem Irrtum über die Macht verschiedener Arten von Institutionen gegenüber Individuen.“ Der Staat sei zwar mächtiger und habe das Monopol für die Anwendung von Zwangsmitteln, sei jedoch auch stärker durch die Rechtsordnung kontrolliert. Dabei bedeute ein Mehr an Informationen offensichtlich ein Mehr an Macht, insbesondere wenn dieses Mehr an Informationen asymmetrisch sei: „die betreffende Institution weiß mehr über den Bürger, dieser aber nicht mehr über die Interna der Institution.“ Daraus folge dann, dass „[d]as Korrelat zur Forderung nach Datenschutz für das Individuum [. . . ] dann die zweite Forderung nach Zugang zu Informationen“ für die Bürgerinnen sei, „aber auch und vor allem für andere Institutionen.“ Es gehe also um den Kampf gegen Informationsmonopole, denn „[m]it den Datenbanken und allgemein den Informationssystemen gewinnen diejenigen Institutionen an Gewicht, die diesen Informationszuwachs für sich monopolisieren können.“

Ende 1973 fand in Köln eine internationale Fachtagung der Gesellschaft für Informatik und des Betriebswirtschaftlichen Instituts für Organisation und Automation an der Universität zu Köln zum Thema „Informationszentren in Wirtschaft und Verwaltung“ statt. Anhand der Tagungsdokumentation lässt sich wegen der großen personellen Überschneidung mit den Akteurinnen der Datenschutzdebatte erkennen, in welchem gesellschaftlichen und Informationsverarbeitungskontext sie das Datenschutzproblem eingebettet sehen. Malte von Berg analysiert die Tendenz der Entwicklung der automationsgestützten Informationsverarbeitung in der öffentlichen Verwaltung hin zur Integration, zur Schaffung von Datenverbünden mit ihrer „Idealforderung nach einmaliger Ermittlung und Erfassung der Daten sowie ihrer beliebigen Verknüpfbarkeit“, die insoweit zur Auflösung der „hoch differenzierte[n] überkommene[n] Verwaltungsstruktur“ führe. Die sich daraus ergebenden Fragen der Zentralisierung, des Verhältnisses zur Bürgerin oder zur Legislative bedürften dann rechtspolitischer Steuerung. Mit genau diesen Fragen der „Gewalten-(Macht-)begrenzung und -verschränkung“ und des Verhältnisses zur politischen Öffentlichkeit beschäftigt sich ausführlich Klaus Grimmer. Erstere verstanden als „Begrenzung der Informations- und Entscheidungskompetenz“ lasse sich insofern technisch lösen, soweit sie eine „Begrenzung der Datenzugriffmöglichkeit“ betreffe, darüber hinaus müssten die demokratischen und rechtsstaatlichen Verfassungsprinzipien durch eine angemessene organisatorische Institutionalisierung der Informationssysteme und die Regelung von Zugriffs-, Auskunfts- und Löschungsrechten sichergestellt werden. Für das Verhältnis der informatisierten öffentlichen Verwaltung zu Gesellschaft und Bürgerin sieht Grimmer zwei mögliche Entwicklungsrichtungen:

„Der Einsatz von IS kann auch die Stellung des Bürgers im politischen Meinungsbildungsprozess und bei der Teilhabe an Verwaltungsentscheidungen verändern. So kann ein IS zur Herstellung von »Öffentlichkeit« und damit also zur Herstellung von Kommunikations- und Partizipationsmöglichkeiten, zur »Demokratisierung« genutzt werden, indem durch bessere Information und Teilnahme an Informationsprozessen von Individuen und Gruppen, von politischen Organisationen, Presse und Rundfunk der »öffentliche Bereich« durch Publizität hergestellt wird, womit sich auch eine qualitative Veränderung des Kommunikationssystems, in welchem Verwaltung steht und beurteilt wird, ergibt. Andererseits kann der Einsatz eines solch umfassenden Hilfsmittels, wie es das IS darstellt, Qualität, Organisation und Funktion der Verwaltung in der Weise verändern, dass sich eine Entwicklung zum autoritär-technokratischen »Verwaltungsstaat« ergibt.“

Die Gefahr von letzterem ergebe sich aus der Verselbständigung „des Systems Verwaltung gegen-über dem politischen System“, dem – in Anlehnung an Forderungen Podlechs – nur begegnet werden könne, wenn „institutionell und organisatorisch zwischen Verwaltung als operativer (ordnender, leistender und planender Tätigkeit) und Informationsverwaltung getrennt“ werde. Im Ergebnis würde die operative Verwaltung begrenzt und kontrolliert durch die Informationsverwaltung, der wiederum „keine Handlungs- und Entscheidungskompetenz gegenüber dem Bürger, also nach aussen“ gewährt werden dürften. D. Rave analysiert die drei zentralen Ziele, die mit der Errichtung von Informationszentren in der öffentlichen Verwaltung erreicht werden sollen: Wirtschaftlichkeit, Integration und Transparenz, nach den dahinter stehenden Interessen. Die ersten beiden Ziele, bei der Standpunkt der Innenbetrachtung der Verwaltung eingenommen werden könne, würden dabei vor allem vor allem von der administrativen und politischen Spitze der Verwaltung vertreten, während das Ziel der Transparenz in zwei Ausführungen auftrete: als Transparenz der Verwaltung gegenüber der Bürgerin und der Öffentlichkeit und als Transparenz der Bürgerin gegenüber der Verwaltung, die auch von zwei unterschiedlichen Gruppen vertreten würden: denen, den es auch um die rechtsstaatliche Kontrolle der Verwaltung gehe, und denen, den es um die Kontrolle der Einzelnen gehe. Vor dem Hintergrund der Befürchtungen einer Zentralisation der Macht beschäftigt sich Klaus Lenk mit den (De-)Zentralisations- und (De-) Konzentrationstendenzen der Verwaltungsautomation. Unter Verweis auf die Verschwommenheit der in der Debatte präsentierten Vorstellungen versucht er sich an einer Klarstellung der verwendeten Begriffe und der dahinterstehenden Konzepte, die sich nicht auf die Aufbauorganisation der öffentlichen Verwaltung beschränke, sondern die Ablauforganisation in den Blick nehme, die weitgehend aus Entscheidungsprozessen bestehe: „Deren gründliche Analyse ist die unumgängliche Voraussetzung sowohl für die erfolgreiche Verwaltungsautomation wie für die Beurteilung der Konsequenzen der Informatik für die Struktur und die Funktionen der öffentlichen Verwaltung.“ Er unterscheidet dabei zwischen der „horizontalen funktionalen (De-)Zentralisierung“ und der „vertikalen funktionalen (De-)Zentralisierung“: Erstere beschreibt die Zusammenfassung von Elementen, die mehreren Entscheidungsprozessen gemeinsam sind, letztere beschreibt die Abtrennung einzelner Elemente aus Entscheidungsprozessen und deren Zuordnung zu Organisationseinheiten auf einer anderen Ebene. Für Steinmüller besteht die Notwendigkeit der „Automatisierung der geistigen Arbeit“, „um die gestiegene und sonst unbewältigbare Komplexität der Gesellschaft beherrschbar zu halten.“ Er folgt seinem üblichen Vorgehen und beginnt mit der Darstellung der von ihm verwendeten Terminologie und seiner Grundannahmen: Datenschutz als „gesellschaftliche Informationskontrolle“ sei „die Menge aller Vorkehrungen zur Verhinderung unerwünschter Datenverarbeitung oder unerwünschter Folgen erwünschter Datenverarbeitung“, wobei unerwünscht sei, was „angebbaren – insbesondere rechtspolitischen – Zielvorstellungen widerspricht.“ Das Informationssystem sei ein Mensch-Maschine-System, dessen maschinelles Teilsystem als „Hilfssystem des Menschen“ aufzufassen sei, „das menschliche Informationsprozesse mit millionenfach größerer Schnelligkeit, Genauigkeit, Zuverlässigkeit und Komplexität ausführt und durch geeignete technische usw. Organisation im Stande ist, Ereignisse aus der Gesellschaft (im nicht erreichbaren Idealfall) in real-time aufzunehmen, zu verarbeiten und Anweisungen für eine adäquate Reaktion an den »Unternehmer« des Informationssystems zu geben.“ Mit der Informationsintegration entstünden „hochkomplexe Systeme neuer Art, deren wichtigste Eigenschaft es ist, informationelle Modelle über andere (reale oder ideelle) Systeme bereitzustellen und mit Hilfe dieser Modelle neue Informationen über die abgebildeten Systeme zu erzeugen.“

Anschließend beschreibt Steinmüller die bisherigen Lösungsansätze für das Problem der Informationskontrolle: So könne nicht die „Privat- oder Intimsphäre des einzelnen Staatsbürgers [. . . ] das zu schützende Rechtsgut“ sein, denn diese Konzeption basiere auf der „überholten Gegenüberstellung von Individuum und Gesellschaft, Gesellschaft und Staat“, sei juristisch nicht bestimmbar und im Übrigen relativ „zum einzelnen Behörden- und Unternehmenszweck“. Auch das Schutzgut „»personenbezogene Daten« als informationelle Abbildung der Privatsphäre“ sei untauglich: „Die Personenbezogenheit haftet Daten nicht als abstrakte Qualität an, sondern ergibt sich aus der jeweiligen Organisation eines Informationssystems“ und so könnten auch „Sachdaten, generelle und statistische Daten, selbst anonymisierte Daten zu personenbezogenen Daten verbunden werden.“ Auch würden beide vorgenannten Ansätze den Bedarf nach „informationelle[m] Minderheiten- und Institutionenschutz“ nicht erfüllen können. Steinmüller hält es daher nicht für überraschend, dass „gegenüber diesem neuartigen Sachverhalt ein beliebtes Denkmuster juristischen Problemlösungsverhaltens versagt: Die »Verrechtlichung« des gefahrbringenden Systems.“ Es reiche seiner Meinung nach nicht aus, „alle Informationsströme und -prozesse juristisch zu normieren, um die Gefahren zu bannen.“ Sein Gegenansatz gehe hingegen davon aus, dass „moderne Datenverarbeitung“ selbst die Mittel bieten, ihre Gefahren zu steuern und die drei sich gegenüberstehenden widerstreitenden Interessen zu befriedigen: der Aufbau möglichst hochintegrierter Systeme, das Benutzerinneninteresse an Rationalisierung und Optimierung im Hinblick auf neu zu übernehmende Planungsaufgaben so-wie das Interesse der Betroffenen, der Bürgerinnen, gesellschaftlicher Gruppen und Institutionen an „hinreichendem Schutz vor informationeller Durchleuchtung und Verplanung.“ Es gehe um die Organisation von Informationsströmen derart, dass sie „funktionsspezifisch und kompetenzorientiert“ seien. Dabei müsse „[d]ie Behördenstruktur mit ihrem je kompetenzspezifischen Informationsbedarf“ innerhalb des Informationssystems „durch eine entsprechende Daten- und Programmstruktur“ abgebildet werden, was juristisch die „Ausdehnung des Verfassungsgrund-satzes der Gesetzmäßigkeit der Verwaltung auf die Gesetzmäßigkeit der Informationsverarbeitung“ bedeute. Zu erreichen sei das insbesondere durch strikte „Programmkontrolle“, denn „Software ist die objektivierte Problemlösungsstruktur, die zugleich die Informationskanäle regelt“, aber auch durch „Abschottung“ als „Systemdifferenzierung zwecks Machtkontrolle“ zur Isolierung „besonders risikoreiche[r] Daten und Datenverarbeitung“. Das alles gelte grundsätzlich auch für private Informationssysteme, deren Profitorientierung ein größeres Schutzbedürfnis und gleichzeitig eine geringere Kontrollfähigkeit nach sich ziehe. Im Allgemeinen ungelöst sei das „Problem der Transparenz, die über Mensch-Maschine-Systeme künstlich hergestellt“ werden müsse, das als Aufgabe mithin an Kontrollinstitutionen übertragen und durch „Registrierungs- und Protokollpflichten“ unterstützt werden müsse. Dann kommt Steinmüller zu einer verwegenen Schlussfolgerung:

„Von Sondergebieten abgesehen kann heute die Datenschutzproblematik grundsätzlich als gelöst angesehen werden. Das Problem der Informationskontrolle in Staat und Wirtschaft ist ungeachtet aller Teilprobleme prinzipiell und mit vertretbaren Mitteln lösbar.“

Leider muss er dann konstatieren, dass der Kabinettsentwurf des Bundesdatenschutzgesetzes „unter dem Anschein umfassenden Datenschutzes ein äußerst durchdachtes System legislativer Durchbrechung vorsieht“, das nicht anders verstanden werde könne, „denn als politische Absicherung der Automationsvorhaben des Bundes, der Länder und der Gemeinden vor dem öffentlichen Vorwurf mangelnden Schutzes des Bürgers und seiner Belange.“ Jochen Schneider versucht sich an den „Probleme[n] der Implementierung von »Privacy« in Informationszentren“. Schutzobjekt des Datenschutzes sei der Mensch, allerdings würden die Regelungen des Datenschutzrechts kein Rechtsgut, „etwa die Privatsphäre“, bestimmen, „sondern stellen Be-stimmungen für den Umgang mit Daten auf, um dadurch »Beeinträchtigungen schutzwürdiger Belange entgegenzuwirken«“. Das zugrunde liegende Ziel sei demnach die Verhinderung von Missbrauch, „also de[m] unberechtigten Umgang mit Daten“. „Damit avancieren die Daten zum primären Schutzobjekt und entsprechend bleibt der Aspekt der Transparenz [der Person des Betroffenen] als übergreifendes Problem unberücksichtigt“, die auch bei berechtigtem Umgang entstehen könne. Schneider möchte das Schutzgut „Privatsphäre“ aufrechterhalten, wenn auch nicht räumlich gedacht, sondern als „einer Kommunikation mit Vorbehalten (Westin) bzw. einem institutions- bzw. benutzerabhängigen Rollenspiel [(Müller)]“. Auch will er „eine – trotz aller Relativität der Privatsphäre mögliche – grobe Bewertung der Daten nach Sensitivitäten“ vornehmen. Im Gegensatz zu Steinmüller und Podlech hält Schneider einen Programmschutz für untauglich: „Je weniger aufgaben- und benutzerspezifisch aber ein Programm ist [. . . ] desto geringer ist auch sein spezifischer Bezug zum »privacy« Problem [sic!]. [. . . ] Insofern lassen nur aufgabenbezogene Programme eine solche Verrechtlichung zu.“ Albert Windolph, der kurz zuvor schon zusammen mit Helmut Rödl ein Auftragsgutachten zum Datenschutz für den Verband der Handelsauskunfteien, das vom bekannten – und inzwischen übernommenen – Inkassounternehmen Schimmelpfeng herausgegeben wurde, geschrieben hatte, war in seinem Beitrag einer der ersten, der das „in Artikel 5 GG verbriefte Recht auf Information, freie Meinungsbildung und Meinungsäusserung“ dem Datenschutz gegenüberstellte. Darüber hinaus wendet sich Windolph explizit gegen die Einführung einer Gefährdungshaftung, wie sie noch im IPA-Entwurf zum Bundesdatenschutzgesetz „bei widerrechtlicher Speicherung, Einsicht, Änderung oder Vernichtung oder widerrechtliche[m] Abruf“ vorgesehen war und fordert eine Koordinierung bei der Datenschutzgesetzgebung auf europäischer Ebene zur Verhinderung von Rechtsungleichheit und der daraus resultierenden Rechtsunsicherheit.

Ulrich Dammann versucht 1974, das Datenschutzproblem und die bis dahin in der Diskussion vorgeschlagenen Lösungsstrategien vor dem Hintergrund des „Strukturwandels der Information“ und der „gesellschaftliche[n] Faktoren, Entwicklungsgesetzlichkeiten wie Interessenkonflikte“ einer eingehenden Analyse zu unterziehen. Vor dem Hintergrund der bereits absehbaren Durchsetzung der Datenverarbeitung in allen gesellschaftlichen Teilbereichen unterscheidet er zwischen drei Dimensionen von mit der Informationsverarbeitung verbundenen Gefahren: einer „[e]xtensivere[n] und intensivere[n] »Verdatung«“ („mehr Sachverhalte“, „detailliertere Daten“), einer „[h]öhere[n] »Datenliquidität«“ („Datenträgeraustausch, Datennetze und integrierte Datenverarbeitung mit Fernzugriff“ mit einer „schnelleren und intensiveren Zirkulation der Daten“) sowie einer „[g]rößere[n] Angriffsfläche für Datenmißbrauch und Datenmanipulation“. Für die gesellschaftliche Funktion des Datenschutzes bedeutet das nach Dammann:

„Datenschutz kann sich weder darauf beschränken, die bestehende Informationsordnung zu konservieren und gegenüber den geschilderten Veränderungstendenzen zu immunisieren, noch darauf, durch flankierende Sicherheitsmaßnahmen einzelne offensichtliche Fehlleistungen oder Unglücksfälle auszuschließen. Datenschutz bedeutet vielmehr die Forderung nach einer humanen Steuerung des sich vollziehenden Veränderungsprozesses im Bereich der Information.“

Die Auswirkungen dieser Veränderungen betrachtet Dammann getrennt nach Individuum und Gesellschaft. Für das Individuum bedeuten sie die Gefahr von zunehmender Entfremdung – als Gegenstück zu einer Selbstdarstellung – und Festschreibung – im Sinne einer Aufhebung der Rollentrennung. Die gesellschaftlichen Gefahren umfassen die Vereinfachung der sozialen Kontrolle und die Beschränkung der sozialen Mobilität – im Sinne der Deformation der politischen Meinungsbildung – sowie die Tendenz zur Monopolisierung des Wissens zugunsten von Organisationen einerseits und zugunsten von Führungsstrukturen andererseits.

Anschließend analysiert Dammann grundsätzlich Einwände gegen das Konzept des Datenschutzes. So werde vertreten, der Datenschutz diene entweder der Konfliktverschleierung: „Restriktive Informationshandhabung habe letztlich nur die Funktion, gesellschaftliche Konflikte, Vorurteile und nicht legitimierte Herrschaftsverhältnisse zu verdecken und damit zu konservieren.“ oder der Herrschaftssicherung: „Klassencharakter des Datenschutzes“ – „Datenschutz als Schutz der Privatsphäre nütze einseitig denjenigen, die sich Privatsphäre leisten können, sowie denjenigen, die diese brauchen, um öffentliche Kritik an ihren Privilegien gar nicht aufkommen zu lassen.“ Eine dritte Fundamentalkritik am Datenschutz ist – schon anfang der Siebziger – post-privacy:

„Man selbst, so lautet üblicherweise die Argumentation, habe nichts zu verbergen; unbegrenzte Offenheit der Kommunikation sei nicht nur Voraussetzung für freie politische Willensbildung, sie entlaste auch von dem moralisch korrumpierenden Zwang zu partieller Unaufrichtigkeit, welche das von anderen als Rollenspiel apostrophierte Muster selektiver und differenzierter Informationsabgabe in Wahrheit darstelle.“

Diesen Kritikansätzen will Dammann auf drei Ebenen entgegentreten: auf der Ebene des abstrakten Datenschutzkonzepts, in Bezug auf „bestimmte Ausprägungen des Datenschutzes und deren Wechselwirkungen mit ihrem konkreten gesellschaftlichen Bezugsfeld“ und auf der Ebene der konkreten Umsetzung, d. h. der Angemessenheit des Mittels. Zwar sei die „konfliktbestätigende Wirkung“ des Datenschutzes unbestreitbar, trage damit allerdings nicht notwendig zur Legitimation der Herrschaftsverhältnisse bei. Den Vertreterinnen der „offenen Kommunikation“ wirft er vor, damit „immer zugleich die von Konflikten befreite Gesellschaft“ zu postulieren, denn das Datenschutzinteresse sei, so Dammann, das Produkt der „Existenz von Interessengegensätzen“ – dem Modell der „offenen Kommunikation“ fehle es also an „Realitätsbezug“. Auf der zweiten Ebene sieht Dammann die Frage des Klassencharakters des Datenschutzes angesiedelt, den er auch nicht verneint: „Datenschutz [. . . ] ist ein Instrument der Interessendurchsetzung.“ Aber Datenschutz besitze auch „keine signifikante Affinität zu bestimmten gesellschaftspolitischen Zielvorstellungen“, „entscheidend ist, wo, wie, für wen und für welchen Zweck Datenschutz eingesetzt wird.“ Die zentrale Frage auf der dritten Ebene sei nach Dammann die „nach der Eignung des Datenschutzes als einer spezifischen Technik normativer Verhaltenssteuerung“, vor allem im Hinblick auf den konkurrierenden Vorschlag einer Steuerung über Verwertungsverbote. Wie schon die Hearings vor dem amerikanischen Kongress kommt auch Dammann zu dem Ergebnis, dass Verwertungsverbote nur eine geringe Steuerungswirkung haben.

Im Anschluss daran untersucht Dammann, von welchen „gesellschaftlichen Orten aus“ welche Art von Datenschutzmaßnahmen mit welchen Erfolgsaussichten ausgehen könnten. Das Individuum sei dabei in der schlechtesten Position, weil es „nur um den Preis seiner sozialen Entfaltung“ den „Datenzwängen“ entgehen könne. Auch die Datenverarbeiter und die professionellen Entwicklerinnen könnten nur wenig zur Durchsetzung der Datenschutzziele beitragen, da der Datenschutz ihren Interessen zuwiderlaufe. Günstigere Aussichten für das Erkennen und Lösen von Datenschutzproblemen bestünden bei den „nicht unmittelbar ökonomisch orientierten Trägern bzw. Entwicklern“ von Informationssystemen. Eine angemessene Lösung und Lösungsdurchsetzung könne jedoch nach Dammann nur auf der gesellschaftlichen Ebene angegangen werden: als gesetzliche Steuerung, als Marktsteuerung, durch öffentliche Nachfrage und öffentlichen Meinungsdruck.

Abschließend betrachtet Dammann die rechtlichen Instrumente des Datenschutzrechts und unterscheidet „vier Typen von Datenschutz“ nach der Art und Weise, „wie auf den Informationsprozeß Einfluß genommen wird“: die Schutz von bestimmten Rechtsgütern, die Regulierung der Organisation der Datenverarbeiter, die Regulierung der Informationsprozesse selbst sowie sogenannte Verstärkungsregelungen. Der erste Datenschutzansatz basiert auf der Beschreibung eines zu schützenden Rechtsgutes und/oder der Definition bestimmter verbotener Eingriffshandlungen. Dammann sieht in der Diskussion zwei Rechtsgüter unterschieden: das Persönlichkeitsrecht und die Privatsphäre. Darüber hinaus nennt er – nach der Formulierung zu urteilen wahrscheinlich nur beispielhaft – drei Verletzungshandlungen: Informationsbeschaffung, Aufzeichnung und Weitergabe. Als eine Ausprägung sieht Dammann die Sphärentheorie, der er dann die bereits diskutierten Einwände entgegensetzt. Abschließend konstatiert er, dass erstens die „tradierte Dogmatik des allgemeinen Persönlichkeitsrechts“ von der Komplexität der Materie überfordert werde, zweitens „nach sozialen Bereichen differenzierende Regelungen“, wie sie auch Simitis gefordert habe, gebraucht würden und drittens „die Aufrechterhaltung und Stärkung der Steuerungskompetenz des Individuums“ von zentraler Bedeutung sei. Der zweite Typ von Datenschutzrecht normiere die Organisation des Datenverarbeiters und beeinflusse dabei den Informationsprozess mittelbar. Der dritte Ansatz reguliert die „Kommunikation selbst durch Erlauben, Gebieten und Verbieten von Informationshandlungen“ mit den Faktoren „Sender, Empfänger und Inhalt sowie ggf. Voraussetzungen, Zweck und Verwendung von Information“. Nach Dammann gehörten etwa die Kontrollrechte der Betroffenen zu diesem Typus. Dieser Ansatz erlaube es darüber hinaus, „präzise Einzelregelungen schon vor einer Abklärung in der Rechtsgutdiskussion“ zu formulieren. Den vierten Ansatz bezeichnet Dammann als Verstärkungsregelungen – Regelungen, die „(nur) der optimalen Durchsetzung anderweit vorgegebener materieller (Datenschutz-)Normen dient, ohne selbst materielle Festlegungen zu treffen“: Datensicherheitsvorschriften, Kontrollvorschriften sowie Schadensersatz- und Strafnormen. Im Anschluss an diese Typisierung untersucht Dammann die rechtlichen Instrumente im einzelnen.

Datensicherheitsvorschriften verfolgten das Ziel, „in tatsächlicher Hinsicht sicherzustellen, daß gesollte Informationsaktivitäten stattfinden können und nicht gewollte (Mißbrauch) verhindert werden“, ließen aber offen oder setzten voraus, „was befugt, also rechtmäßiger Gebrauch“ sei. In Bezug auf die Regelung von Informationsprozessen betrachtet Dammann ausschließlich materiellrechtliche Regelungen und kritisiert die Forderung nach „vollständiger Normierung“, d. h. „Verrechtlichung“, im Sinne eines „detaillierte[n] und erschöpfende[n] materielle[n] Datenschutz-recht[s]“, die „ein[en] erhebliche[n] Teil bisher (rechtlich) freier gesellschaftlicher Kommunikation [. . . ] austrocknen“ würde. Stattdessen müsse es bereichsspezifische Regelungen geben, wobei Dammann als Kriterien die Sensitivität der Daten, „die »Gefährlichkeit« [. . . ] von Informationssystemen“, „technische und organisatorische Charakteristika der Informationsverarbeitung“ sowie die „Beziehungen zwischen Informationsverarbeitern und Betroffenen“ anlegen will. Anschließend betrachtet Dammann die Rechte der Betroffenen auf Auskunft bzgl. der gespeicherten Daten, auf Auskunft bzgl. des Datenverkehrs, auf Korrektur und auf Löschung, die Pflichten der Datenverarbeiter zur Benachrichtigung und zu „periodischem Datenauszug“, die institutionellen Instrumente „Datenbank-Register“, „Steuerungs-/Überwachungsinstitution“ und Sanktionen sowie organisationsrechtliche Fragen wie das von Podlech vorgeschlagene Prinzip der Trennung von Betreiberinnen und Nutzerinnen von Informationssystemen.

In einem der vom Hessischen Datenschutzbeauftragten Willi Birkelbach herausgegebenen „Beiträge zum Datenschutz“ versucht Hans-Joachim Reh, den Gegenstand und die Aufgabe des Datenschutzes zu analysieren und „einen neuen Ausgangspunkt für die Datenschutz-Diskussion zu finden“, wie Birkelbach im Vorwort vermerkt. Reh kann Birkelbachs Wünsche in seinem Beitrag nicht erfüllen. Das liegt einerseits an der sehr zufällig wirkenden Zusammenstellung der von Reh betrachteten Aspekte, andererseits an Rehs Umgang mit den Quellen, die er in seiner Arbeit reproduziert: Er liefert Quellenangaben für Belanglosigkeiten, die er aber wörtlich zitiert, und präsentiert umfangreich Konzepte aus fremder Feder ohne Angabe ihrer Herkunft. Dem Datenschutz liegen seiner Meinung nach die „Interessengegensätze zwischen Individualinteresse auf der einen und Gemeinschafts-, Wirtschafts- oder anderen Gruppeninteressen auf der anderen Seite“ zugrunde und Informationsfreiheit und Datenschutz stünden „in einem Spannungsfeld“. Das Ziel des Datenschutzes sei es, „den Mißbrauch einer durch Informationsspeicherung errungenen Machtposition auszuschließen, mindestens abzuwehren“, „Datenverarbeitungsanlagen und Informationssysteme“ durch Transparenz kontrollierbar zu machen und die Entstehung von In-formationsmonopolen zu verhindern. Als Individualrechtsschutz schütze der Datenschutz die Selbstbestimmung des Menschen als „wesentlichste Voraussetzung für eine Selbstverwirklichung in den Grenzen der Gemeinschaftsbezogenheit und seiner Gemeinschaftsgebundenheit“ in erster Linie durch das Prinzip der Zweckbindung und durch „Transparenz des Datenflusses“ und der Informationsverwendung. Die zwei anderen von Reh angesprochenen Möglichkeiten eines Individualrechtsschutzes – über die Definition des Rechtsguts der Privatsphäre und die Sensitivität personenbezogener Daten – werden von ihm als untauglich abgelehnt. Als gesellschaftspolitische Forderung beziehe sich der Datenschutz auf die Kontrolle von Informationsmacht, bei Reh vor allem im Sinne einer horizontalen und vertikalen Gewaltenteilung. Dem Gesetzgeber rät Reh, einen „Fairness-Kodex“ aufzustellen, „der eine Generalklausel und einzelne Verfahrens- und Verhaltensregeln enthält, welche für alle Fälle der Datenverarbeitung Gültigkeit beanspruchen können.“ Die Generalklausel soll dabei lauten:

„Das Sammeln, Speichern, Verarbeiten und Weitergeben von personenbezogenen Daten darf weder zur Entstehung von Informationsmonopolen führen, noch den Freiheitsraum des betroffenen Individuums stärker einschränken, als seine eigenen oder übergeordneten Interessen des Gemeinwohls es erfordern.“

Die Verfahrens- und Verhaltensregeln, die Reh dieser Generalklausel beiseite stellen will und die er als „Datenverkehrs-Ordnung“ bezeichnet, sind eine etwas erweiterte Fassung der Fair Information Processing Principles, wie sie von der durch das Department of Health, Education and Welfare (HEW) eingesetzten Kommission vorgeschlagen wurden.

Nachdem Podlech im ersten Beiheft der Datenverarbeitung im Recht (DVR) 1973 bereits den Datenschutz im Bereich der öffentlichen Verwaltung analysierte, unternahm Bernt Bühnemann dies im Jahr darauf im vierten Beiheft der DVR für den nicht-öffentlichen Bereich. Ziel seiner Untersuchung war es, den Entwurf der Bundesregierung für ein Bundesdatenschutzgesetz – vor allem im privaten Bereich – darauf hin zu überprüfen, ob das Bestimmtheitsgebot, das Gleichbehandlungsgebot sowie der Grundsatz der Verhältnismäßigkeit der Mittel eingehalten werden oder ob der Entwurf verfassungswidrig sei. Im Ergebnis sowie in vielen Details lässt er kein gutes Haar an dem Entwurf. So erkläre das Gesetz in § 1, es sei sein Zweck, „personenbezogene Daten vor Mißbrauch bei der Datenverarbeitung zu schützen und dadurch der Beeinträchtigung schutzwürdiger Belange der Betroffenen entgegenzuwirken“, während das amtliche Vorblatt zum Gesetzentwurf aussage, es gehe um das „Recht[] des Schutzes der Privatsphäre vor Mißbräuchen bei der Datenverarbeitung“, aber auch um den Schutz „in allen schutzrelevanten Bereichen des öffentlichen und des privaten Lebens“ und um den Schutz „gegen die mißbräuchliche Verwendung der Daten“, und die Begründung zu § 1 ausführe, „daß die Belange der Betroffenen das »primär« geschützte Rechtsgut seien, diese wegen der Relativität der Privatsphäre jedoch nicht unmittelbar, sondern nur auf dem Umweg über den Schutz der personenbezogenen Daten gewahrt werden können.“ Der zu verhindernde Missbrauch, der dem Gesetzentwurf auch seinen Titel gab: „Entwurf eines Gesetzes zum Schutz vor Mißbrauch personenbezogener Daten bei der Datenverarbeitung“, wird dabei, wie Bühnemann anmerkt, im Gesetz weder qualifiziert noch – von einer Ausnahme abgesehen – überhaupt aufgegriffen. Angesichts der Weite des Schutzes von natürlichen Personen in allen ihren Lebensbereichen hinterfragt Bühnemann darüber hinaus den Ausschluss von Personenvereinigungen und juristischen Personen aus dem Schutzbereich des Gesetzes, vor allem vor dem Hintergrund der Ausschlussbegründung, dass dieser Bereich gesetzgeberisch kaum fassbar sei und seine Einbeziehung die Praktikabilität beeinträchtigen würde. Auch seien die schutzwürdigen Belange der Betroffenen, um deren Schutz es im Gesetz gehen soll, „nicht einmal [. . . ] konstante Größen [. . . ], da sie lediglich als Wertungspositionen in einen Wertungsprozeß einbezogen sind.“ Die Rechtslage führe zu einer Relativierung des Schutzes der Betroffenen und sei dabei noch schlechter als ein Rückgriff auf die von Lehre und Rechtsprechung entwickelten Fallgruppen zum allgemeinen Persönlichkeitsrecht, obwohl dieses auch unter dem Makel seiner Relativität leide. Im Ergebnis hält Bühnemann fest, dass eine umfassende Regelung in der vorgelegten Art nicht erforderlich sei, gegen Art. 5 GG verstoße, dem Bestimmtheitsgebot und dem Grundsatz der Verhältnismäßigkeit der Mittel widerspreche und zieht das Fazit:

„Gerade der vorliegende Entwurf bestätigt in aller Deutlichkeit, daß Begriffe wie Privatsphäre, schutzwürdige Belange der Betroffenen, personenbezogene Daten etc. allenfalls Orientierungshilfen bieten, für eine an rechtsstaatlichen Grundsätzen orientierte Gesetzgebung jedoch allein noch nicht ausreichen.“

In einem vom Bundesministerium für Forschung und Technologie geförderten Forschungsbericht zum „Datenschutz“ veröffentlicht die Siemens AG, Bereich Datenverarbeitung, Vertriebsabteilung, „Mittel und Maßnahmen für die Datenverarbeitung“. Mit dem Ziel angetreten, einen systematischen Überblick über juristische Aspekte und technische Maßnahmen des Datenschutzes zu geben, wird als Bedrohung die „Zusammenführung verschiedener Angaben aus den unterschiedlichen Lebensbereichen“ identifiziert, durch die „ein zu deutliches Bild des Einzelnen“ entstehen könne „(Transparenz)“, „sein Verhalten als Angehöriger von Gruppen wird prognostizierbar“ und bedrohe „[s]ein »Rollenverhalten« im Sinne freiheitlicher Selbstverwirklichung“. Dem entgegen wollen die Verfasser alle „möglichen bzw. wirtschaftlich vertretbaren Vorkehrungen gegen unerwünschte, unberechtigte oder mißbräuchliche Verarbeitung personenbezogener Daten“ stellen, die „einen wirksamen und wirtschaftlich vertretbaren Erfolg versprechen“. Obwohl der wirtschaftlichen Vertretbarkeit von Datenschutzmaßnahmen für den Datenverarbeiter ein durchgängig zu hohes Gewicht beigemessen wird und die Einzelmaßnahmen in technischer Hinsicht hoffnungslos veraltet sind, ist die Analyse der Interessenkonstellation fundiert und immer noch aktuell und die Schlussfolgerungen daraus für die Systemgestaltung immer noch angemessen:

„Ganz offensichtlich soll der Datenschutz einen Ausgleich der Interessen zwischen Betroffenen (die durch die Daten in den Datenbanken beschrieben werden) und den Benutzern der Datenbanken bzw. der personenbezogenen Daten und den EDV-Anwendern schaffen. Aus den Interessenlagen resultieren unterschiedliche Anforderungen an ein Schutzsystem. Diese unterschiedlichen Anforderungen wiederum müßten gewichtet werden, um daraus Prioritäten für die Implementierung gewinnen zu können.“

Während auf dem 48. DJT 1970 in Mainz nur eine relativ kleine Veranstaltung zum Thema Datenschutz stattfand, wurde unmittelbar vor dem 49. DJT 1972 eine Kommission unter der Leitung von Simitis eingesetzt, die bis 1974 „Grundsätze für eine gesetzliche Regelung des Datenschutzes“ ausarbeiten sollte. Die Thesen der Kommission wurden, wie im Vorwort deutlich gemacht wird, nicht von allen ihren Mitgliedern vertreten. Es kann daher davon ausgegangen werden, dass Situationsbeschreibung und Problemanalyse eher der Summe der Ansichten der Beteiligten entsprechen, während die Forderungen eher auf dem Niveau des größten gemeinsamen Nenners bleiben. Obwohl das „Gutachten“ von der „[f]reie[n] Beschaffung, Verarbeitung und Verbreitung von Informationen“ als durch die Art. 2 I, 5 I und 20 I GG grundrechtlich geschützten Freiheiten ausgeht, findet sich keine fundierte Auseinandersetzung mit den verfassungsrechtlichen Prüfungsmaßstäben Geeignetheit, Angemessenheit und Verhältnismäßigkeit im engeren Sinne. Stattdessen werden die Gefahren – Aufhebung der Privatsphäre, Beeinträchtigung in der Selbstbestimmung der sozialen Rolle des Individuums und Degradierung „zu einem steuerbaren Objekt derjenigen [. . . ], die das Informationssystem kontrollieren“ – einfach postuliert. Die Kommission fordert zu Regelung des Datenschutzes ein allgemeines Datenschutzgesetz sowie konkretisierende bereichsspezifische Vorschriften. Das allgemeine Datenschutzgesetz solle dabei nur diejenigen „fundamentalen Bedingungen“ formulieren, „die für jede Informationsverarbeitung gelten“: Organisations- und Kontrollvorschriften, Rechte der Betroffenen und die Regelung der Verarbeitungsphasen. Die bereichsspezifischen Regeln sollen dann auf der Basis einer Analyse der konkreten sozialen Situation und der daraus erwachsenden spezifischen Gefahren unter Berücksichtigung „[der] angewandten Verfahren, [der] Verarbeitungskapazität, [des] Umfang[s] der vorhandenen Angaben, [der] Organisationsform (integrierte und überregionale Systeme, Verbundmöglichkeit) sowie [des] Ziel[s] der Datenverarbeitung“ formuliert werden. Es gebe nach Ansicht der Kommission weder „datenschutzirrelevante, freie Daten“ noch seien anonymisierte oder aggregierte Daten datenschutzirrelevant: Auch freie Daten seien „zu ganz bestimmten Zwecken mitgeteilt“ und dürften nicht zweckfremd verwendet werden, gerade dann nicht, wenn sie „um einer öffentlichen – vor allem auch politischen – Wirkung willen ganz bewußt in die Öffentlichkeit“ getragen worden seien. Eine Minderheit der Kommission meint, vor diesem Hintergrund den Begriff der „personenbezogenen Daten“ allgemeingültig zu bestimmen und abgrenzen zu können:

„Diese Begriffsbestimmung könne dahin gehen, daß personenbezogene Daten Einzelangaben über persönliche und sachliche Verhältnisse einer bestimmten oder bestimmbaren (natürlichen) Person sind. Damit sei auch die Problematik der Identifizierbarkeit von für statistische und andere Zwecke anonymisierten oder aggregierten Daten gelöst. Sobald und solange eine Person durch solche Daten bestimmbar ist, handle es sich eben um vom Gesetz geschützte personenbezogene Daten.“

Im weiteren Gesetzgebungsverfahren nicht durchsetzen konnte sich die Kommission mit der Ausdehnung der Datenschutzkontrolle auf die Geheimdienste, der Trennung von materieller öffentlicher Verwaltung und technischer Verwaltung und der Genehmigungspflicht im nicht-öffentlichen Bereich. Auch die Annahme der Kommission über das sinnvolle Vorgehen bei der Gestaltung der Datensicherung: „Unter Berücksichtigung der in den Einzelsituationen zutage tretenden Risiken, sind die für den konkreten Fall erforderlichen Maßnahmen zu analysieren, vorhandene Methoden zu modifizieren oder auch neue zu entwickeln sowie die schließlich verwendeten zu einem spezifischen System der Datensicherung zusammenzufassen.“ und der daraus folgenden Schlussfolgerung, dass der Gesetzgeber sich „mit einer grundsätzlichen Regelung begnügen“ solle, wurde nicht aufgegriffen. Zwar hat der Gesetzgeber keine Details der Datensicherung geregelt, aber eben auch nicht dafür gesorgt, dass die Datenverarbeiter aus fundierten situationsbezogenen Analysen ein konkretes, sinnvolles Schutzsystem ableiten müssen.

Selbst in der kurzen Hochphase der fundierten interdisziplinären Auseinandersetzung zum Datenschutzproblem in den siebziger Jahren nehmen die Jahre 1974 und 1975 eine Sonderstellung ein. Es waren die Jahre mit der höchsten Dichte interdisziplinärer Workshops, Kongresse und Symposien, deren Ergebnisse dann im Laufe der folgenden Jahre dokumentiert wurden. Aus den Problembeschreibungsansätzen und Lösungsideen waren vollständige Erklärungsmodelle und umfassende und konsistente Lösungskonzepte geworden, deren Ecken und Kanten in den vorangegangenen Diskussionen abgeschliffen worden waren und die bereits den Test der kritischen Begutachtung durch die wissenschaftliche Gemeinschaft bestanden hatten. Gleichzeitig war die Diskussion noch nicht hinabgestiegen in die detailverliebte Auseinandersetzung um einzelne Formulierungen in Gesetzestexten und deren Auslegung.

Die Zeitschrift Bild der Wissenschaft lud im März 1974 zu einem Streitgespräch über den Gesetzentwurf der Bundesregierung zum Datenschutz und die diesem zugrunde liegenden und durch dieses zu regelnden Gefährdungen, dessen Ergebnisse im Jahr darauf in einem Band veröffentlicht wurden. In seiner Einleitung verweist Helmut Krauch darauf, dass der Gesetzentwurf „in erster Linie das Ziel [verfolgt], die Privatsphäre des Bürgers zu schützen“ – ein Ziel, das er dann gleichsetzt mit dem „Freiheitsrecht der Selbstdarstellung“, nur um dann die inhaltlich wohl breitestmögliche Beschreibung des Datenschutzproblems zu liefern:

„Wichtigstes Problem ist es daher, Kontrolle über den Machtzuwachs auszuüben, der durch Datenbanken und Informationssysteme entsteht. Dabei geht es keineswegs allein um den Schutz der Individualsphäre des einzelnen Bürgers, sondern um die Gefahr einer gegen die Verfassung verstoßenden Machtausübung. Wer über große Mengen von Daten über das Verhalten von Gruppen oder einer ganzen Bevölkerung verfügt, wer Informationen hat über die Wandlung politischer Einstellungen, über Sozialisationsprozesse, über den Zusammenhang zwischen Psyche und politischem Verhalten und wer aus diesen Daten psychometrische und soziometrische Simulationsmodelle aufstellen und auswerten kann, der ist auch in der Lage, politische Alter-nativen in bezug auf ihre Durchsetzbarkeit, insbesondere auch gegen wesentliche Interessen von einzelnen Bürgern, abzuschätzen. Dadurch entstehen für die Verwaltung Dispositionsvorteile und Manipulationsmöglichkeiten, wie sie von der Wirtschaft im Rahmen der modernen Marketingmethoden bereits angewandt werden. Wenn es in Zukunft auch noch zu einer systematischen Kombination von Verwaltungsdaten und Simulationen und marktorientierter Disposition kommt, so bedeutet das für die meisten einzelnen Bürger einen ungeheuren Machtverlust.“

Im ersten Beitrag präsentiert der Hessische Landesdatenschutzbeauftragte Willi Birkelbach seine „Überlegungen nach dreijähriger Datenschutzpraxis“. Für ihn geht es um die Bedrohung der „freie[n] und unkontrollierte[n] Entfaltungsmöglichkeit des Menschen durch Einblicke in seine Privatsphäre und durch die Möglichkeit der Manipulation mit den so gewonnenen Informationen“ durch integrierte Informationssysteme und unkontrollierte Datenflüsse. Dem will Birkelbach einen „Fairneßkodex“ entgegenstellen, „der eine Art Konsensus dessen darstellt, was in einer freien demokratischen Gesellschaft unter fairem Umgang mit Informationen zu verstehen ist, und der für alle Arten der Informationsverarbeitung gilt“ und aus dem heraus dann ein Datenschutzgesetz zu entwickeln sei. Die Entwicklung des Datenschutzgesetzes habe dabei schrittweise zu erfolgen: Ausgehend von der allgemeinen Regel – „daß Daten nicht in einer das Persönlichkeitsrecht gefährdenden Weise verwendet werden dürfen“ – müssen diese „im Laufe der Zeit und aufgrund der in der Datenschutzpraxis gemachten Erfahrungen“ ergänzt werden durch bereichsspezifische Regelungen. Auch Seidel sieht im dritten Beitrag die Datenverarbeitung als Bedrohung für eine Privatsphäre, distanziert sich allerdings von der Sphärentheorie, da sie kategorisch zwischen Öffentlichkeits- und Privatsphäre unterscheide, während Seidel aus einer weit vorangeschrittenen Verzahnung des privaten und öffentlichen Lebens schlussfolgert, dass das Persönlichkeitsrecht gerade auch in seinem öffentlichen Ausleben geschützt werden müsse. Trotz allem will Seidel aber am Schutzgut der Privatsphäre im Sinne eines zurückgezogenen Privatlebens festhalten, das zu schützen sei vor dem Zwang eines Sich-öffnen-müssens. Das ungestörte Privatleben, die Individualität des Menschen, die Geheimsphäre, das Recht des Menschen auf Intransparenz und die Persönlichkeitssphäre sind auch für Auernhammer die Schutzgüter des Datenschutzrechts, der anschließend begründet, warum der Entwurf für ein Bundesdatenschutzgesetz dem einzig angemessenen Weg eines Mittelwegs zwischen der umfassenden Kodifizierung des Datenschutzrechts und allein bereichsspezifischen Ergänzungen bestehender Rechtsnormen folgt und als Auffanggesetz ausgestaltet ist. Podlech stellt der Privatsphärenschutzsicht zwei durchaus andere Problemaspekte gegenüber: „[D]ie Herstellung von Persönlichkeitsprofilen und die Verdinglichung der sozialrelevanten Informationen einer Person in die Warenform [. . . ] widerspricht dem unter dem Topos »Persönlichkeitsrecht« durch Artikel 2 Abs. 1 des Grundgesetzes gewährleisteten Recht auf Erhaltung der Selbstdarstellungsmöglichkeit der Bürger“, wobei Selbstdarstellung dabei „der empirisch beschreibbare soziale Interaktionsvorgang [heißen soll], in dem Menschen selbstbewußte Individualität gewinnen.“ Karhausen erklärt die rollenspezifische Exklusivität der Informationspreisgabe zum Schutzgut des Datenschutzes und definiert daher „Mißbrauch“ als Bruch der „akzeptierten und beabsichtigten Verwendungsregeln“. Klaus Lenk benutzt zwar den Begriff der Privatsphäre, allerdings nur als „Symbol“ für die „Ohnmacht gegenüber allwissenden Institutionen“, die „Manipulationen der Medien, um Nachrichten zu kontrollieren und Meinungen zu formen“, die „Reduzierung von Menschen auf Nummern“ oder auch den Konformitätsdruck: „[D]urch neue Informations-technologien [wächst] die Transparenz des menschlichen Verhaltens, seine Sichtbarkeit, leichte Beobachtbarkeit [. . . ]. Unmittelbar folgt daraus, daß Überwachung als ein Mittel sozialer Kontrolle dichter wird, gleichviel ob dies von (Teilen) der Gesellschaft gewünscht wird oder nicht“, so Lenk unter Verweis auf die Rollentheorie. Beschränkungen der Sichtbarkeit und der Transparenz menschlichen Verhaltens dienten auf der individuellen Ebene dem Schutz der persönlichen Autonomie vor möglicher Diskriminierung durch informationell Mächtigere, darüber hinaus seien sie „für den Bestand der Gesellschaft und für das Funktionieren der Mechanismen der sozialen Kontrolle unerläßlich“ und dienten drittens der Beschränkung politischer Macht. Um die Ebene der politischen Macht geht es auch Dammann bei der Untersuchung von Planungsinformationssystemen auf die Möglichkeiten der von der Planung Betroffenen, ihre Interessen in den Planungsprozess – und damit in die Planungsentscheidung – einbringen zu können, auch damit „die kontroversen Auffassungen über Situationen, Probleme und Zielvorstellungen“ ausgehandelt werden können. Entscheidungs- und Planungsinformationssysteme vergrößerten die Handlungsmacht des planenden Subjekts gegenüber allen anderen gesellschaftlichen Kräften und entzögen der demokratischen Öffentlichkeit, aber auch den Parlamenten, mehr und mehr die Kontrolle über den Planungsprozess. Einerseits würde damit die demokratische Legitimation von Planungsentscheidungen durch die „Rationalität des technischen Vorgangs“ ersetzt, obwohl weder Daten, Fragestellungen oder Erhebungsmethoden noch Darstellungs- und Analyseverfahren objektiv seien, sondern immer interessengebunden. Andererseits bestehe die Gefahr, dass Planungsinformationssysteme dazu genutzt würden, „die Macht der etablierten Kräfte zu vergrößern und das demokratische Prinzip des Machtwechsels auszuschalten.“ Um diese Probleme abzuwenden, reiche es nicht, die Planungsdaten offenzulegen – heute als „open data“ bekannt –, sondern es müssten auch die Prämissen der Modellrechnungen offengelegt werden im Sinne eines „open model“. Auch Müller versucht, die soziologische Rollentheorie als Erklärungsmodell für das Datenschutzproblem zu nutzen: Die „verschiedenen Rollenverpflichtungen bestimmen unsere Informationsweitergabe gegenüber Institutionen. Aber unsere Rollen bestimmen nur begrenzt die Datenweitergabe zwischen Institutionen.“ Dadurch ändere sich jedoch das Institutionengeflecht für das Individuum, aber auch für andere soziale Akteure: Vormals getrennte, weil funktional differenzierte, Institutionen veränderten sich zu einer „kommunikativen Einheit“: „Vordergründig erscheint dies nur als eine Effizienzerhöhung, als eine Komplexitätsreduzierung für Institutionen, sie ist aber gleichbedeutend mit einer Komplexitätssteigerung dieses Institutionengeflechts für den Bürger.“

Unter dem Titel „Der numerierte Bürger und die Informationsgesellschaft“ trafen sich im November des gleichen Jahres vierundzwanzig Wissenschaftlerinnen und Praktikerinnen aus dreizehn Disziplinen im Zentrum für interdisziplinäre Forschung an der Universität Bielefeld zu einem Kolloquium, das nach der im Juni vom PEN-Zentrum Bundesrepublik Deutschland verabschiedeten Resolution zum Datenschutz organisiert worden war. Der kurz darauf – und damit vor der Dokumentation der Erfassungsschutz-Veranstaltung – erschienene Tagungsband enthält sowohl die Beiträge als auch einen großen Teil der Diskussionen zu den Beiträgen.

Wilhelm Opfermann, Assistenzprofessor im Fachbereich Rechtswissenschaft der Freien Universität Berlin, versucht, zwei Kategorien von Informationsansprüchen der Bürgerin zu trennen: Betroffenheitsansprüche – auf Informationen, die sich auf die Bürgerin selbst beziehen, – und Informationsteilhabeansprüche – auf Informationen, die sie in ihrer Rolle als Bürgerin interessieren. Für die Informationsteilhabeansprüche untersucht er dann, ob sie als zwingender Anspruch aus dem Grundrecht auf Informationsfreiheit abgeleitet werden können und verneint das. Abschließend verneint er auch die Wünschbarkeit eines individuellen Teilhaberechts und verweist stattdessen auf die Möglichkeit, die individuelle Teilhabe durch politische und wirtschaftliche Organisationen vermitteln zu lassen. Letzteres wird in der Diskussion vor dem Hintergrund der asymmetrischen Machtverteilung in Organisationen zwischen der Leitung und den Mitgliedern stark kritisiert. Podlech geht in seinem Beitrag explizit von der liberalen Konzeption des Individualschutzes aus und benennt als Regelungsziele, „daß erstens die den Privatmenschen (bourgeois) in seiner Freiheit schützende Grundrechtsgewährleistung am besten zugleich den politisch engagierten Bürger (citoyen) in seinen politischen Freiheitsräumen schützt“. Das Persönlichkeitsrecht als „Recht auf Erhaltung der Selbstdarstellungsmöglichkeit“ der Bürgerin werde durch die Bildung von – Zeit und Sektorengrenzen überwindenden – Persönlichkeitsprofilen und die Verwarenförmigung der sozial relevanten Informationen einer Person bedroht. In der Umsetzung unterscheidet er materiellen von organisatorischem Datenschutz. Ersterer sei das Auswahlprinzip, „das aus der Menge technisch möglicher Informationsvorgänge die Menge sozial verträglicher“ auswähle, letztere würden „durch Einführung besonderer Organisations- und Verfahrensformen die Einhaltung der materiellen Datenschutzvorschriften bis auf einen sozial tragbaren Rest erzwingen“. Erst nach der Diskussion problematisierte Podlech, dass in der bisherigen Datenschutzdiskussion „die Gefährdungen individueller Freiheitsräume durch das Informationsverhalten gesellschaftlicher Großverbände oder Institutionen wie Kirchen, Gewerkschaften, Unternehmensverbände und Presse“ nahezu unberücksichtigt geblieben sei.

Barbara Tietze kritisiert in der Diskussion Podlechs Analyse der kompensatorischen Funktion von Familie und Wohnung und insbesondere, dass er vertrete, deren Schutz aufrechtzuerhalten. Stattdessen müsse das Problem von der anderen Seite angegangen werden: Die „Selbstdarstellung des Individuums und die selbstbewußte Individualität in den Bereichen der Öffentlichkeit, das ist der Bereich politischer Partizipation und der Bereich der Organisation von Arbeit“, müssten garantiert werden, dann werde „auch diese kompensatorische Funktion von Familie und Ehe relativ unwichtig“. Eggert Schwan erläutert in seinem Beitrag, dass er es zwar rechtspolitisch für relevant halte, wie Walter Schmidt die allen Freiheitsrechten zugrunde liegende Entscheidungsfreiheit zum Diskussionsgegenstand zu machen, rechtsdogmatisch müssten diese verschiedenen Freiheitsbereiche aber voneinander unterschieden werden, und begründet damit auch, warum die zu Art. 2 Abs. 1 entwickelte Sphärentheorie grundsätzlich zu Analyse staatlicher Informations-sammlung nicht anwendbar sei. In der Diskussion ergänzt Steinmüller, dass das BVerfG „zwar mehrfach von einem angeblich »unantastbaren Kernbereich privater Lebensgestaltung«“ gesprochen habe, sich aber nicht imstande gesehen habe, „ihn zu benennen.“ Kerstin Anér berichtet vom schwedischen Ansatz, eine (Multi-Stakeholder-)Kommission – die „Dateninspektion“ – einzusetzen, deren Aufgabe es sei zu verhindern, dass „die Privatsphäre“ durch „Personenregister“ oder „Datenregister“ verletzt werde, ohne dass das Gesetz „Privatsphäre“ definiert habe. Basierend auf einem Genehmigungsmodell für Datenbanken entscheidet die Kommission fallweise, wobei eine Verkettung zwischen zwei „Registern“ als eigenes „Register“ betrachtet und damit selbst wieder genehmigungspflichtig ist. Aus schwedischer Sicht gebe es daher auch keinen Widerspruch zum Schwedischen Transparenzgesetz von 1766, im Gegenteil: Je weniger „Register“ es gebe, desto leichter ließe sich kontrollieren, wer darauf zugreife. Es dürfe also „keine größere Menge allgemeiner Personenregister über alle Schweden geben.“ Im Zusammenhang mit seiner Analyse der „Machtverteilung zwischen Parlament und Verwaltung in der Informationsgesellschaft am Beispiel der USA“ legt Hans D. Jarass offen, von welchen Grundannahmen und -bedingungen der sozialen Informationsverarbeitung die erste Generation der Datenschützerinnen ausging. In allen Phasen der Informationsverarbeitung werden Entscheidungen – auch Wertentscheidungen, aber nicht nur solche – getroffen, deren Konsequenzen eine notwendige Einseitigkeit der Informationen sind, die gleichzeitig gegenüber möglichen Nutzerinnen tendenziell verborgen bleiben: Alle Informationssysteme sind zweckorientiert, und die Zwecke werden von sozialen Akteurinnen gesetzt. Informationssysteme sind daher immer auf die Bedürfnisse der Zwecksetzerinnen zugeschnitten. In der anschließenden Diskussion fordert Dammann, dass es eine „ausreichende Modellflexibilität und den notwendigen Modellpluralismus“ geben müsse. Elisabeth Endres analysiert – vorwiegend für staatliche Datenbanken – das Zusammenspiel von „Datenerfassung“ und „Datenzugang“. Für die Datenerfassung stellt sie fest, dass diese – unter den Bedingungen der Ausweitung der Staatsaufgaben in der modernen Gesellschaft – umfassend notwendig sei, sie aber „zumindest in ihren negativen Auswirkungen“ einzuschränken sei. Es werde „Geheimhaltung gefordert, Persönlichkeitsschutz, eventuelle Löschung, mitunter soll auch ein Bereich aus der Erfassung ausgeklammert werden. Der Effekt derartiger Postulate darf nicht unterschätzt werden.“ Die wesentliche Gefahr sei dabei allerdings nicht „die Gefahr der Indiskretionen, also des Verrats geschützter Daten an unbefugte Personen“, sondern die Gefahr der Überwachung, vor allem der politischen Überwachung, von Individuen und Gruppen. Als Lösung schlägt Endres eine doppelte Demokratisierung vor: „einmal Demokratisierung der Erfassungskriterien, dann Demokratisierung des Zugangs.“ Die Demokratisierung der Erfassungskriterien habe nach Endres drei Voraussetzungen: Erstens müsse die Sprache des Sach-gebietes allgemeinverständlicher werden, zweitens sei der Zweck anzugeben und drittens müsse zu den geplanten Erfassungskriterien eine „objektive[] Beurteilung“ mitgeliefert werden, „was sich mit dergleichen Speicherungen kontrollieren und vorausplanen läßt.“ Steffen Harbordt untersucht Entscheidungs- und Planungsprozesse in der öffentlichen Verwaltung, die unter der Verwendung von Computersimulationen ablaufen, auf ihre Gefahren für die Beteiligungsmöglichkeiten sowohl des Parlaments wie auch der Bürgerinnen. Dabei verweist er insbesondere darauf, dass die Simulationen und die dabei gewonnenen Ergebnisse – „die zweckmäßigste Entscheidung“, Mittel-Zweck-Relationen, Auswirkungen und Nebenwirkungen oder Alternativen – von Nichtfachleuten nicht kontrolliert werden könnten, weil ihnen das erforderliche Spezialwissen fehle und sie damit die den Simulationen zugrunde liegenden Modellannahmen und Daten-, Variablen- und Parameterauswahlentscheidungen nicht hinterfragen könnten. Stattdessen würde es gesellschaftlich bereits dominierenden Interessengruppen leichter fallen, ihre Interessen vermittels solcher Simulationen – und den diesen eigenen Wahrheitsunterstellungen – durchzusetzen:

„Sie prägen die Sichtweise, mit der ein bestimmter Problembereich gesehen und in einem Modell abgebildet wird. Davon hängt ab, welche Variablen und Beziehungen als wesentlich in das Modell aufgenommen werden und welche vernachlässigt werden. Die dominierenden Interessen können ferner die Anlage der Modellexperimente beeinflussen, nämlich, nach welchen Kriterien eine Lösung als »optimal« definiert wird, welche Maßnahmen überhaupt auf ihre Konsequenzen untersucht und welche von vornherein ausgeschlossen werden, welche Größen als veränderbar angesehen werden und welche als vermeintliche Konstanten gelten [. . . ]. Dementsprechend besteht eine sehr hohe Wahrscheinlichkeit, daß auch die Entscheidungsvorschläge von diesen Interessen geprägt sind.“

Mit Verweis auf Dammanns Identifizierung der Information als einem „immer wichtiger werdenden Rohstoff und sozialen Machtfaktor“ schlussfolgert Harbordt, dass die Verteilung der Machtfaktoren Information und Informationsverarbeitungskapazität der „ungleichen Verteilung wirtschaftlicher und politischer Macht“ entsprechen und die Ungleichheit zwischen den mächtigen Gruppen und den Ohnmächtigen noch verstärken werde. Müller präsentiert ausführlich sein „Privatsphären“-Modell, das auf einem modifizierten rollentheoretischen Ansatz basiert, zusammen mit den Ergebnissen der Auswertung einer empirischen Studie zur Datenweitergabe zwischen Institutionen. „Privatsphäre“ bedeute nach Müller aus der Sicht des einzelnen die „Aufrechterhaltung der unterschiedlichen Bilder, die über ihn bei anderen Personen oder Institutionen existieren“ und sei das Ergebnis sozialer Interaktionen in modernen, hochdifferenzierten Gesellschaften, mit denen die sozialen Verpflichtungen generell aufrechterhalten, aber einige nur minimal abgesättigt würden. Diese rollenspezifische oder selektive Informationsweitergabe ermögliche die unterschiedliche – und voneinander unabhängige – Erfüllung sozialer Verpflichtungen, von Rollenerwartungen, und erzeuge „kontrolliertes Nichtwissen über Dinge, die jeweils »nicht zur Sache gehören«.“ „In dieser Gleichzeitigkeit unterschiedlicher Bilder über einen und nicht im generellen Nichtwissen liegt die Struktur der Privatsphäre in Industriegesellschaften begründet; mehr noch: Privatsphäre ist Strukturmerkmal der Sozialbeziehungen selbst.“ Für eine rechtliche Regelung gelte daher, dass sie weder auf einem „eindimensionale[n] Kontinuum der Sensitivität von Informationen“ noch auf einer Definition von abgrenzbaren Sphären basieren könne. Stattdessen bedeute das für den Datenschutz eine überlegte, nämlich funktions- und kompetenzorientierte Zuweisung von Informationen für das informationelle Handeln von Institutionen, die Gestaltung von Informationsflüssen und damit „Regelungen der »Informationshaus-halte« von Institutionen oder Sektoren der Gesellschaft“. Die empirische Studie, deren Daten Müller neu analysiert und ausgewertet hat, über die Informationsflüsse zwischen Institutionen wurden von der kanadischen Privacy and Computer Task Force durchgeführt. Im Ergebnis stellt Müller fest, dass aufgrund der Datenweitergabe zwischen den Institutionen insbesondere dort „Informationsniveauunterschiede“ verringert würden, wo die meisten Informationen „aus unterschiedlichen Situationen stammen“. Damit werde nicht nur die rollenspezifische Exklusivität der Informationsweitergabe durch Individuen an einzelne Institutionen zerstört, sondern es erhöhe sich auch die Unabhängigkeit von Institutionen von der Kooperationsbereitschaft von Individuen. Anschließend kritisiert Müller die bisherigen empirischen Studien zu den Einstellungen von Individuen zu privacy, Privatsphäre und Datenschutz als theoretisch schwach – eine Kritik, die auch heute noch auf die meisten Studien zu diesem Thema zutrifft. Statt-dessen verweist er auf die Notwendigkeit von empirischen Untersuchungen zur Messung der „Bereitschaft der Bevölkerung, unterschiedliche Institutionen nur Unterschiedliches wissen zu lassen [. . . ], wie dies das anfangs kurz beschriebene Modell der Privatsphäre in hochdifferenzierten Sozialsystemen erwarten läßt.“ Auch Steinmüller betrachtet das Datenschutzproblem als gesellschaftliche Informationskontrolle, als Informationsverteilungskontrolle. Er geht dabei von der Annahme aus, „[d]ie Bedeutung bzw. Leistung von Informationssystemen besteh[e] in der Erzeugung und Optimierung dynamischer kybernetischer »Modelle« über gesellschaftliche Objekte zu deren Beherrschung.“

„»Beherrschung« ist hier eine soziologische Kategorie, die alle diejenigen Mechanismen der Planbarmachung, Steuerung und Lenkung der Gesellschaft durch das politisch-administrative System einerseits, durch das ökonomische und das mediäre System andererseits zusammenfaßt, also ein »wertneutraler« Begriff, der noch vor jeder Differenzierung in legitime und illegitime Mechanismen gelten soll. »Systemherr« sei in diesem Zusammenhang jeder, der berechtigt oder unberechtigt über die Leistung des jeweiligen Informationssystems zu verfügen imstande ist.“

Steinmüller unterscheidet zwischen der „quasi-industrielle[n] Bereitstellung von Informationen als Entscheidungshilfe“ und der Kommodifizierung von Informationen und beschreibt die Integrationstendenzen von Informationssystemen vor dem Hintergrund des aufkommenden – später so genannten – Internets aus der „Verbindung der Computer- mit der Nachrichtentechnik“. Weil soziale Interaktion automationshemmend sei, würden „Kooperations- und Partizipationsstrukturen“ zugunsten von Automationsprojekten zurückgedrängt. Nicht nur stehe dies „ausdrücklich in den staatlichen Vorschriften zur Automationsvorbereitung“, sondern folge auch notwendig „aus dem Modellcharakter der Informationssysteme“. Wie Müller verweist Stein-müller dazu auf den tendenziell sinkenden Bedarf nach Rückmeldungen aus der Gesellschaft – „das Modell ersetzt sie“. Damit komme es zu einer Vernichtung von liberalen Freiheitsräumen:

„Der staatsfreie Raum verschwindet weitgehend: Er ist in Datenform längst als Modell in die staatlichen Informationssysteme aufgenommen – und damit durchschaubar (außer für den Betroffenen), folglich in seiner Funktion beseitigt. – Entsprechendes ist übrigens im wirtschaftlichen Bereich vorgebildet: Erfolgreiches Marketing kennt keine Privatsphäre – wohl aber die Pflege der Illusion darüber; beides ist über ADV zu optimieren.“

In der nachfolgenden Diskussion stellt Harald Weinrich die auch schon von Alan Westin postulierte These auf, dass sich das Datenschutzproblem mit einem „weitergefassten, [. . . .] analogischen Begriff des »Informationseigentums«“ lösen lasse. Steinmüller widerspricht:

„Hier handelt es sich weniger um Eigentumsverhältnisse als um reale Zuordnungen und normative Berechtigungen zu Verfügung über Informationen. Aus diesem Grund versagt leider der Vorschlag, dem betroffenen Bürger eine Art Eigentums-recht an seinen Daten zu geben, weil die für die Institution des Eigentums gebildeten Rechtsfiguren für diese wesentlich beweglichere »Sache Information« nicht paßt! Sie ist längst in »Gemeineigentum« übergegangen. . . “

Klaus Brunnstein weist in seinem Beitrag darauf hin, dass aus der Kontextabhängigkeit der meisten Informationen folge, dass nur kontextunabhängige Daten gespeichert werden dürften, da es generell unmöglich zu sein scheine, „festzustellen und zu speichern, in welchem Zusammenhang zu einer bestimmten Zeit eine bestimmte Information über eine Person erzeugt worden ist.“ Für alle zu speichernden Daten müssten daher „die Interpretationsregeln bei der Benutzung dieser Daten“ definiert und mitgespeichert werden. Wenn es keine „eindeutige Interpretationsregel“ für ein Datum gebe, dürfe das auch nicht gespeichert werden. Auf der Basis der von Carl Adam Petri schon 1962 in seiner Dissertation „Kommunikation mit Automaten“ vertretenen Annahme, dass es sich bei EDV-Systemen um ein „neuartiges, sehr verallgemeinertes Kommunikationsmedium“ handele, mit dessen Hilfe „bisher unübersteigbare Schranken der Kommunikation voll-ständig niedergerissen werden können“, argumentiert Hartmann J. Genrich, wissenschaftlicher Mitarbeiter der Gesellschaft für Mathematik und Datenverarbeitung, dass „ein Disziplinloser Einsatz der EDV zu einer erheblichen Störung [. . . ] der auf herkömmlichen Medien und deren Schranken beruhenden Regelkreise führen, welche eine Gesellschaft im Gleichgewicht halten.“ Ausgehend von der damals und heute verbreiteten Annahme, beim Datenschutz gehe es um einen Schutz gegen Missbrauch, verweist Genrich zumindest darauf, dass Gegenstand eines solchen Schutzes gegen Missbrauch nur sein könne, dessen Gebrauch festliege: „Für eine geregelte und geschützte Kommunikation kommen genau die Nachrichten in Frage, die einer präzise formulierten und von allen Beteiligten akzeptierten Zweckbestimmung und Handhabung unterliegen.“ Beliebiger Gebrauch von Nachrichten sei dasselbe wie „totaler Mißbrauch“. Günter Lemke versucht in seinem Beitrag, anhand von sechzehn Thesen die qualitative Veränderung der Informationsordnung und der daraus folgenden Notwendigkeit einer veränderten Informationspolitik zu belegen. Neben den schon damals überall vorgebrachten Aspekten – Entmaterialisierung, Einmalerfassung und -speicherung, Verfügbarkeit und Benutzbarkeit – identifiziert er Eigenschaften, die bis dahin noch nicht umfassend ausdiskutiert wurden: Aus der Verbesserung der Erschließbarkeit folge, dass das System zur Generierung „ganz neuer Daten aus den bereits vorhandenen Datenbeständen“ in der Lage sei. Auch ließen sich zwischen den Datenbeständen neue Beziehungen herstellen und damit würden „qualitativ neue Daten generiert.“ In der Diskussion verweist Horst Oberquelle, der später Informatikprofessor in Hamburg wurde, auf die Problematik der Präjudizierung der Struktur gesellschaftlicher Vorgänge durch die Technikerinnen, etwa „indem die Struktur und Arbeitsweise von Informationssystemen nach technologischen Gesichtspunkten der Informatik bestimmt werden.“ Stattdessen bedürfe es einer „eingehenden öffentlichen und interdisziplinären Diskussion und Entscheidung.“

Auch die Deutsche Sektion der Internationalen Juristen-Kommission führte 1974 eine Arbeitstagung zu Fragen „des Schutzes des Freiheitsraumes und der Privatsphäre der Bürger vor jedwedem Mißbrauch der in elektronischen Datenbanken gespeicherten »personenbezogenen« Informationen (sog. Datenschutz)“ wegen der Bedeutung des Themas für „die Bewährung der Rechtsstaatidee – Wissen bedeutet Macht, und Macht bedarf der Kontrolle“ durch, bei der zwei Vorträge gehalten wurden, von Gerhard Löchner, Oberstaatsanwalt beim Bundesgerichtshof, und Steinmüller. Für Löchner besteht das Datenschutzproblem in „der hohen Datenkonzentration an zentralen Stellen“, die „in naher Zukunft eine Verknüpfung dieser Datensysteme miteinander“ erlauben werde. Datenschutz sei also der Schutz vor „Daten-(Macht-)Mißbrauch“, Datenschutz im engeren Sinne sei „ein Instrument zum Schutz des grundgesetzlich geschützten Freiheitsraumes des einzelnen Bürgers vor staatlicher Gewalt und vor Eingriffen anderer Institutionen als Trägern gesellschaftlicher oder wirtschaftlicher Macht“. Datenschutz im weiteren Sinne schütze auch „Gruppen und Verbände“ sowie das Informationsgleichgewicht zwischen den Gewalten, einerseits zwischen Regierung und Parlament, andererseits zwischen Verwaltung und Justiz. Datenschutz müsse daher auch „die Ausgewogenheit der Informationshaushalte der Träger staatlicher oder gesellschaftlicher Macht untereinander sicherstellen.“ Für die Frage nach dem Schutzobjekt des Datenschutzes verweist Löchner auf das „Begriffschaos“ der Sphärentheorie, die „Relativität der Privatsphäre“ und die „Stückwerks-Arbeit“ einer kasuistischen Bestimmung der Privatsphäre, um deren Ungeeignetheit zu begründen. Anschließend referiert er die Struktur des Entwurfs des Bundesdatenschutzgesetzes, seine Einzelregelungen und deren Begründung. So weist er etwa darauf hin, dass die Frage, welche Datenschutzmaßnahmen ergriffen werden müssten, „sich dabei nicht nur nach der Art der Daten [richte], sondern [. . . ] auch den Aufbau und die Organisation [der Stelle] und den Datenfluß schlechthin berücksichtigen“ müsse. Abschließend fasst er die offenen Fragen der damaligen Datenschutzdiskussion zusammen: die nach der „konkreten systematischen Form eine[r] wirksamen Kontrolle“ oder die nach der Einbeziehung der „Datenermittlung“ und der nicht in Dateien gespeicherten Daten in das BDSG. In seinem anschließend gehaltenen Referat bezeichnet Steinmüller den Datenschutz „als einseitige Betrachtung eines umfassenderen Problems veränderter Machtstrukturen im Gefolge der Informationsautomation“.

Aufbauend auf der Identifizierung der automationsunterstützten Datenverarbeitung (ADV) als „erstmals gelungene Mechanisierung und Maschinisierung geistiger Tätigkeiten“, würden nach Steinmüller erstmals „sogar gesamtgesellschaftliche Steuerung und Regelung mit Hilfe computerunterstützter Informationssysteme und Rechnerverbundnetze in den Bereich des Möglichen“ rücken. Zwar könnten „nur Teilaspekte menschlichen Denkens und Lernens durch ADV nachgeahmt (»simuliert«)“ werden – nur die formalisierbaren –, allerdings sei dies nur ein temporäres, nicht aber ein grundsätzliches Problem: Langfristig würden all diejenigen „geistigen Funktionen des Menschen“ automatisiert, „an deren Automatisierung ein durchsetzbares Interesse besteht.“ Nach einer Darstellung des Aufbaus von Informationssystemen (Hardware, Software, Daten, Organisation, Menschen und die Beziehung zur Umwelt) beschreibt Steinmüller deren Eigenschaften: Geschwindigkeitszunahme, Verringerung der Fehlerquote, weitgehende Aufhebung bisheriger menschlicher Grenzen von Raum und Zeit (Ortsunabhängigkeit, Zeitinvarianz: „Unsterblichkeit“ und Gleichzeitigkeit) sowie die „Gestaltbarkeit und Anpassungsfähigkeit der ADV und ihrer Organisation an die Bedürfnisse des Menschen“. Letztere hält Steinmüller für die „sozial wichtigste Eigenschaft“: „Entgegen gerade von politisch Interessierten häufig aufgestellten Behauptungen kennt darum ADV kaum »Sachzwänge«, die diese oder jene humane oder partizipationsfreundlichere Gestaltung grundsätzlich verböten.“ Solche Sachzwänge würden durch die Systemgestaltung erst erzeugt. Besonders deutlich kann dies am Beispiel des von Steinmüller beschriebenen Modells der „integrierten Datenverarbeitung“ gesehen werden:

„Integrierte DV ist nach der Vorstellung vieler der Idealtypus der ADV; im integrierten IS ist die technische Rationalisierung auf die Spitze getrieben. Sie ist darum, auch wo die völlige Realisierung als utopisch abgewehrt wird, das unausgesprochene Ziel aller technokratisch ausgerichteten ADV: Alle Daten über alle Betroffenen werden nur einmal erfaßt, einmal gespeichert, einmal gelöscht – »Minimierung der Datenmenge« –; alle Daten werden möglichst häufig verarbeitet und weitergegeben sowie möglichst vielen Benutzern zur Auswertung überlassen – »Maximierung der Datenflüsse und DV-Leistung« –; möglichst wenig Programme werden womöglich zentral erstellt, aber möglichst oft weitergegeben und verwendet; alle IS eines bestimmten Raum-Zeit-Gebietes (z.B. Bayern; Hessen; Bundesrepublik) werden möglichst einheitlich organisiert, um eine »modulare« (baukastenförmige) Gesamtorganisation zu einem virtuell einzigen ADV-System zu erreichen, das die Verwertung aller Daten und Programme aller Teilsysteme in einer Hand erlaubt.“

Prinzipielle Leistung von Informationssystemen ist nach Steinmüller die Modellbildung: einmal als „Lernmodell“, einmal als „Entscheidungsmodell“ und als „beide Typen vereinigende[s] Verhaltens-(Simulations-)modell“:

„Die Gesamtheit der IS [. . . ] bildet tendenziell die Gesamtheit der Gesellschaft, ihrer Teile und ihrer Organisation(en) – einschließlich des Staates selbst – bis herab auf einzelne Personen dynamisch (in ihrem Verhalten) und strukturell (einschließlich ihrer Beziehungen untereinander und zum Staat wie zu anderen Institutionen und zu Sachen) in Informationsform ab und stellt zusätzliche Möglichkeiten zu ihrer gezielten Beeinflussung bereit.“

Steinmüller stellt anschließend die Folgen einer veränderten Machtverteilung, die aus einer Ver-änderung der Informationsverteilung erwachse, dar: zwischen Legislative und Exekutive zu Lasten des Parlaments mit abnehmender Kontrollierbarkeit der Exekutive; zwischen Exekutive und Judikative; die Nivellierung bisheriger Machtschranken, die aus spezifischen Systemdifferenzierungen erwachsen waren; die Ausweitung der Steuerbarkeit der im IS abgebildeten Entitäten; die Zurückdrängung von Kooperations- und Partizipationsstrukturen; die Ausweitung der Macht der Organisation über ihre Mitglieder; die Reduzierung von Handlungsspielräumen im kollektiven Bereich durch eine Immunisierung gegen Kritik und Reform; eine zunehmende Verflechtung von Staat und Wirtschaft; eine Taylorisierung der Informationsarbeit mit der Unterwerfung des Menschen unter das „strenge[] Ritual der Maschinenlogik“. Als letzte Folge beschreibt Steinmüller „die engere Datenschutzproblematik“ als „die Bedrohung des individuellen Verhaltensspielraums“:

„Durch die Abbildung bisheriger »Privatsphären« von Individuen und Minderheiten in staatlichen und kommerziellen Informationssystemen bei gleichzeitiger Planbar-machung erhöht sich der Konformitätsdruck auf diese Teile der Gesellschaft.“

Im Ergebnis ist nach Steinmüller die ADV so zu organisieren, „daß die berechtigten Bedürfnisse des Staates und der Wirtschaft derart erfüllt werden, daß der Freiheitsraum der Betroffenen mindestens erhalten bleibt.“ Seine Darstellung der konkreten rechtlichen, organisatorischen und technischen Einhegungsmechanismen entspricht im wesentlichen seinen schon andernorts vorgestellten Vorschlägen.

Als Jurist und Mathematiker/Physiker sowie Institutsleiter in der Gesellschaft für Mathematik und Datenverarbeitung (GMD) versucht Herbert Fiedler 1975, die Diskussion um den Datenschutz aus informatischer Sicht zu strukturieren. Er unterscheidet zwischen zwei Wurzeln der Datenschutzdiskussion: einerseits der „»privacy«-Problematik“, andererseits der „»Datenbank«-Problematik“. In ersterer gehe es um „Verletzung[en] einer »Privatsphäre«“ und die „Stellung des Einzelnen in der Gesellschaft“, in letzterer um die „automatisierte Datenverwaltung als technologisches Mittel der Bürokratie in Staat und Wirtschaft“ mit dem Ziel der „Garantie der Transparenz und Beherrschbarkeit der DV-Technologie“. In der Datenschutzdiskussion seien beide Diskussionsstränge „derart zusammengeflossen, daß hier eine Technologie als Antagonist eines Persönlichkeitswerts gesehen wird.“ Anschließend unternimmt es Fiedler, die in der Datenschutzdiskussion aufeinandertreffenden „Konflikte mehrere[r] je für sich durchaus legitime[r] Interessen“ zu identifizieren: 1. die „Erhaltung der »privacy« im weitesten Sinne“, 2. die „Gewährleistung der Autonomie von Personen, Organisationen und Gruppen durch Einräumung gesellschaftlicher Freiräume“, 3. die „Erhaltung eines »Informationsgleichgewichts« zwischen verschiedenen Instanzen“, 4. die „Gewährleistung der Funktionsfähigkeit und Konkurrenzfähigkeit der Wirtschaft“, 5. die „Gewährleistung der Funktionsfähigkeit und Effizienz in Staat und öffentlicher Verwaltung“ sowie 6. die „Gewährleistung gesellschaftlicher Transparenz und Kontrollfähigkeit“.

Er beklagt, dass es trotz des Umfangs der Datenschutzdiskussion an einer genaueren Analyse und Definition dieser Ziele, ihrer Bewertung und einer Festlegung ihrer Verhältnisse zueinander mangele. Da eine rechtliche Regelung ihren Zweck nur erfülle, wenn sie „operational“ sei, also „praktisch anwendbar, entscheidbar, kontrollierbar“, unternimmt es Fiedler, den Entwurf für das BDSG zumindest auf die Regelungsgegenstände hin zu untersuchen und zu kritisieren, den als „ganz auf das Gegensatzpaar privacy / Effizienz“ zugeschnitten ansieht. Die von Tiedemann und Sasse übernommene Struktur zur Untersuchung der Regelungsgegenstände überzeugt dabei schon deshalb nicht, weil sie nicht einmal alle Aspekte enthält, die Fiedler selbst in seinem Text bis dahin schon angesprochen hatte. So fehlt unter anderem die Frage nach dem Verarbeitungszweck, die er selbst auf S. 69 schon angesprochen hatte, in der Auflistung. Kritik übt Fiedler am Fehlen „operationalisierte[r] Lösung[en] der zugrunde liegenden gesellschaftlichen Interessenkonflikte“ durch die Verwendung von „Formeln wie »Erforderlichkeit«, »überwiegendes Interesse«, »schutzwürdige Belange«“. Sein zentraler Kritikpunkt ist allerdings das Fehlen der Möglichkeit, „Durchführung und Kontrolle von Datenschutzregelungen weitgehend durch DV zu unterstützen“, weil „[n]ach den Einsichten der Lehre von der »automationsgerechten Rechtssetzung« [. . . ] solche Klauseln der Automation nämlich nicht günstig“ seien. Abschließend verlangt Fiedler nach einem „Weg vom Datenschutz zu einem allgemeinen Recht der Information“, aufgeteilt in „DV-Organisationsrecht“, „DV-Verfahrensrecht“ und „[m]aterielles Informationsrecht des DV-Bereichs“. Seine Begründung verweist auf die fundamentale Veränderung, die sich mit der modernen Datenverarbeitung ergebe:

„Nach ihrem gesellschaftlichen Stellenwert bedeutet Datenverarbeitung nicht nur »Rationalisierung«, sondern den Übergang zu einer neuen Stufe der Rationalität. Die DV tritt dem Menschen nicht nur als Werkzeug und spezieller Kommunikationspartner (»Roboter«) gegenüber, sondern reguliert als Organisationsprinzip und Kommunikationsmedium wichtige Lebensvorgänge menschlicher Gemeinschaften. Sie mediatisiert Prozesse der zwischenmenschlichen Verständigung und kann dazu führen, daß die menschliche Lebenswelt nur noch in der Sichtweise einer bestimmten »Verdatung« aufgefaßt wird. Durch ihre allgemeine Verbreitung geht die Informationstechnologie weitgehend bereits in die Konstituierung gesellschaftlicher Verhältnisse ein und ermöglicht es, diese automatisch zu dokumentieren. Computer realisieren den »objektiven Geist« der Gesellschaft nicht nur als statische Struktur, sondern als Medium und als überindividuellen Prozeß.“

Abschließend fordert Fiedler von der Informatik und den Informatikerinnen, seine Schilderungen als Auftrag zu verstehen: „Die DV und die Informationssysteme der Zukunft werden wesentlich von den Forderungen nach Datensicherheit und Datenschutz sowie deren rechtlicher Ausgestaltung bestimmt und im Hinblick darauf konstruiert werden. Die Informatik wird so ein gesellschaftlich höchst wichtiges Betätigungsfeld hinzugewinnen, zugleich aber auch verstärkt mit den Gesellschaftswissenschaften kooperieren müssen.“ Das Feld der Datensicherheit müsse dabei „die Sicherung der bestimmungsgemäßen Funktion von DV-Systemen einschließen“.

Vermittelt über die Deutung von Freiheitsgrundrechten einerseits als individuelle Abwehrrechte und andererseits als „institutionelle Garantie eines bestimmten gesellschaftlichen Sachverhaltes [. . . ], der sich durch einen Zustand grundsätzlicher Freiheit des gesellschaftlichen Raumes vor staatlicher Informationssammlung und -weitergabe auszeichnet“, das damit eine „rechtlich abgesicherte soziale Flächenwirkung“ habe mit einem „von der Verfassung gewollte[n] Bild der Gesellschaft“, und dem Verweis auf die Gleichartigkeit von Einsatz und Wirkung der EDV in Staat und Wirtschaft begründet Eggert Schwan die Notwendigkeit des Datenschutzes „sowohl vor dem Staat als auch vor der Wirtschaft“. Aus dem „gewohnheitsrechtlich geltende[n] und zum Rechtsstaatsprinzip gehörende[n] Verfassungsrechtssatz“ des Vorbehalts des Gesetzes zieht Schwan die Konsequenz, dass dieser auch auf jede Beschaffung und Weitergabe personenbezogener Informationen durch den Staat anzuwenden sei. Sowohl die massenhafte Erhebung und Speicherung personenbezogener Informationen für Planungszwecke als auch das Erstellen von umfassenden Persönlichkeitsprofilen müsse nach Schwan an einer ordentlichen verfassungsrechtlichen Verhältnismäßigkeitsprüfung – Geeignetheit, Erforderlichkeit, Verhältnismäßigkeit im engeren Sinne – scheitern. Aus dem Auffangcharakter des grundgesetzlichen Anknüpfungspunktes des betrachteten Freiheitsrechts – Art. 2 Abs. 1 GG – folge darüber hinaus, dass es keine vom Schutzbereich ausgeschlossenen personenbezogenen Informationen geben könne.

Mit dem Ziel, die moderne automationsgestützte Informationsverarbeitung umfassend einzuordnen, in ihren Folgen zu analysieren und damit eine fundierte interdisziplinäre „noch kaum begonnene Diskussion [zu] beleben“, veröffentlichte Steinmüller 1975 „Bruchstücke einer alternativen Theorie des Datenzeitalters“. Ausgehend von den Annahmen, dass Datenschutz „weder ein praktikables Mittel zu publikumswirksamer Absicherung effizienter Datenverarbeitung [sei] noch gar lediglich ein Problem, wie individualistische »Privatsphären« einzelner Mittelschichtangehöriger vor den Folgen der bösen Informationstechnik bewahrt bleiben könnten“, behauptet er, dass es „im Kern gesellschaftliche Informationskontrolle [sei] und also ein Problem zieladäquater Systemorganisation“. In seinem Versuch, diese Behauptung zu belegen, beschreibt Steinmüller zu Beginn die automationsunterstützte Informationsverarbeitung als „erstmals in größerem Umfang verwirklichte Mechanisierung und Maschinisierung intellektueller Prozesse“, die sich daraus entwickelnde Informationsorganisation als „Mensch-»Maschine«-System“ mit der spezifischen Leistung der „Erzeugung und Optimierung dynamischer kybernetischer »Modelle« über gesellschaftliche Objekte zu deren Beherrschung“ und ihre Folgen im Bereich der Wirtschaft, der öffentlichen Verwaltung und im sozio-kulturellen Bereich sowie mögliche Alternativen, für die er gleichwohl „die Vermutung ihrer relativen Wirkungslosigkeit“ behauptet. Im Anschluss an Georg Klaus bezeichnet für Steinmüller Automation „den gesellschaftlichen Prozeß fortschreitender Ersetzung menschlicher Tätigkeiten durch Funktionen künstlicher Systeme“, die im Rahmen von ADV „nicht körperliche, sondern (auch) geistige Arbeit“ „»maschinisiert«“ und dabei „nicht nur eine (oder mehrere) bestimmte menschliche Tätigkeit(en) nach[ahmt], sondern simuliert unbestimmt viele“ – sie sei nicht nur „Informations»maschine«, sondern auch Universal»maschine«“. Die „geistigen Funktionen“ würden damit „vergesellschaftet“: „Sie werden dem individuellen Kontext des einzelnen entnommen und in formalisierten »maschinen«verarbeitbaren Abläufen (in »Programmen«) der Allgemeinheit zur Verfügung gestellt.“ Das wichtigste Element der ADV sei dabei nicht die „Maschine“, sondern die „Informationsorganisation“, ein „Mensch-»Maschine«-System“, das seine spezifische Leistung prinzipiell „relativ unabhängig von der Güte des Modells“ erbringe: „Immer wird soziale Realität abgebildet, d. h. verfügbar gemacht, und es ist eine Frage der Funktion und des Einzelfalls, ob »richtige« oder »falsche« Daten (wozu auch die »pragmatisch«, d. h. kontext-falschen Daten zählen) »nützlicher« oder »gefährlicher« für Interessenten und Betroffene sind.“ In der Folge entfalten sie „(vor allem) ihre (negativen) Wirkungen (der politischen Einschüchterung und der sozialen Beeinflussung) relativ unabhängig davon, wie »richtig« die Daten, wie »gut« die Verknüpfungen, wie »realistisch« die mathematischen Modelle sind.“ Idealtypisch würden in einem solchen System „alle Daten über die »Gesellschaft« [. . . ] nur noch einmal erfaßt und gespeichert“ – „Minimierung der Datenquantität“ –, „aber so häufig wie möglich verwendet, vor allem unter so vielen verschiedenen Gesichtspunkten wie möglich ausgewertet [. . . ], um von einem gegebenen Datenvorrat einen maximalen Nutzen zu ziehen“ – „Maximierung der Datenflüsse und Datenfunktionen“. Bedeutsam sei dabei vor allem die Fähigkeit der ADV „zur Integration aller bisherigen Informations»technologien«“ und die „Entwicklung vom Informationssystem zum Informationsverbund und Systemnetzwerk“. Während im Bereich der Wirtschaft Informationen dadurch zur Ware würden, unterliege die ADV im öffentlichen Bereich der „Tendenz [. . . ] zur Aufhebung bisheriger Systemdifferenzierungen“, vor allem solche, „die zugleich grundlegende Organisationsprinzipien der Staatsverfassung darstellen“: zwischen Staat und Wirtschaft, das föderale Prinzip, das Selbstverwaltungsrecht von Gemeinden oder das Gewaltenteilungsprinzip. Im sozio-kulturellen Raume sei die wahrscheinlichere Folge, so Steinmüller, „die Reduzierung von Freiheitsräumen für Kollektive und Individuen“, indem diese verdatet und transparent gemacht würden: Der Mensch werde „den »Gesetzmäßigkeiten« der Informationssysteme ein- und untergeordnet“. Steinmüllers Lösung erscheint schon damals utopisch: „Zunächst erforderlich (und z. T. erreichbar) wäre, die gesellschaftliche Informationsverteilung transparent und kontrollierbar zu machen, sodann die immensen Möglichkeiten der Informationstechnologie für die Erweiterung gesellschaftlicher Handlungsspielräume einzusetzen.“ Wolf-Dieter Narrs „Anmerkungen zu einigen Thesen von W. Steinmüller“ als „dringender Aufruf zur Diskussion“ verhallte allerdings weitgehend unerhört.

Anfang 1976 wurde in der von Podlech und Steinmüller herausgegebenen Reihe „Rechtstheorie und Informationsrecht“ die Dissertation von Christoph Mallmann, „Datenschutz in Verwaltungs-Informationssystemen“, publiziert. In seiner Arbeit versucht Mallmann unter Rückgriff auf Westins „Privacy and Freedom“ und Luhmanns „Grundrechte als Institution“ eine umfassende Ausarbeitung des Rechts auf informationelle Selbstbestimmung, das er mit „Privatsphäre“ gleichsetzt. Er unterstellt dabei, dass Informationen „ja nie wahllos gesammelt [werden], d. h. die Datenverarbeitung in der öffentlichen Verwaltung erfolgt zweckrational im Sinne Max Webers.“ In seiner Argumentation stützt er sich maßgeblich auf Luhmanns Adaption der soziologischen Rollentheorie, übersieht dabei allerdings völlig, dass auch Westin sich wesentlich auf rollentheoretische Arbeiten stützte. Mallmanns Formulierung des Rechts auf informationelle Selbstbestimmung als „Recht, über die Abgabe von Individualinformationen selbst bestimmen zu können und zwar hauptsächlich im Hinblick auf den Inhalt der abgegebenen Individualinformation und den Empfänger“ entspricht dabei fast wörtlich Westins Definition von privacy: „Privacy is the claim of individuals, groups, or institutions to determine for themselves when, how, and to what extent information about them is communicated to others.“ Ob Mallmann die Definition selbst entwickelt hat, von Luhmann übernimmt oder – über Kamlah und Seidel – von Westin, ist unklar. Wenn Datenschutz tatsächlich nur dem Schutz der informationellen Selbstbestimmung dienen würde, wären Datenschutz und privacy damit äquivalent. Zumindest aber sind informationelle Selbstbestimmung und privacy Äquivalenzen. Anschließend versucht er, für dieses sozialwissenschaftlich bestimmte Recht in den Grundrechten eine rechtliche Entsprechung zu finden, muss im Ergebnis allerdings feststellen, dass die speziellen Grundrechte lediglich Teile davon abdecken und verortet es daher im Auffanggrundrecht des Art. 2 Abs. 1 GG: „Aufgrund funktioneller Aussagen über die Privatsphäre in der Rechtsprechung kann eine grundsätzlich vorhandene Bedeutungsgleichheit mit dem sozialwissenschaftlich gefundenen informationellen Selbstbestimmungsrecht des einzelnen festgestellt werden. Die Fundierung dieses Rechts in Art. 2 Abs. 1 GG – teilweise in Verbindung mit Art. 1 Abs. 1 GG – kann als unstreitig bezeichnet werden.“

In einem Seminar im Januar 1975 wurden politische und gesellschaftliche Möglichkeiten und Gefahren „neuer Formen technisch vermittelter Kommunikation“ – „Kabelfernsehen und Breitbandkommunikation“ – diskutiert, und die Ergebnisse 1976 in einem Sammelband veröffentlicht. Wesentlich war die Feststellung, dass „die Konzentration aller Formen technisch vermittelter Kommunikation auf ein Netz [in den Bereich des Realisierbaren rückt], das gleichermaßen Telefon, Datenfernverarbeitung, »Kabel«-rundfunk und -fernsehen, sowie neuartigen Informationsdiensten und anderen Formen der Kommunikation zur Verfügung stünde.“ Gefahren lägen, so Lenk im Vorwort, etwa „in der Verwendung oder Vorenthaltung von Information und von Kommunikationschancen als Mittel der Herrschaft über eine atomisierte Öffentlichkeit“, „die Verwendung von Information zur unmittelbaren Überwachung und Kontrolle menschlichen Ver-haltens“ und „die durch die Datenverarbeitung wesentlich gesteigerte Möglichkeit, Informationen über menschliches Verhalten zu aggregieren, mit dem Ziel einer Vorwegnahme von Reaktionen der Beherrschten.“

Unter anderem mit der Möglichkeit, die bei der Nutzung von „Ferneinkauf oder Partizipation an Programmen“ über Individuen anfallenden Informationen „zu dessen systematischer Auswertung für Kontroll- und Planungszwecke“ einzusetzen, beschäftigt sich Otto Mallmann in seinem Beitrag „Soziale Kontrolle durch Breitbandtechnologien“. Er stellt fest, dass Verkaufsstrategien desto effizienter sein können, je transparenter das Verhalten der Verbraucherinnen sei – eine Transparenz, die sich insbesondere im Zuge der Ausweitung des bargeldlosen Zahlungsverkehrs erhöhe. Damit erhöhe sich auch das Manipulationspotential. Gleichermaßen steige die Gefahr, dass die dabei erhobenen und gespeicherten Informationen „für privatwirtschaftliche und staatliche Überwachungssysteme“ genutzt würden: von Kreditauskunfteien bis zur Polizei – „[a]uch die sozialen Kontakte der Betroffenen werden transparent.“ Informationen, wer welches Fernsehprogramm schaue, welche Dokumente aus Bibliotheken oder Fachinformationszentren anfordere, kurz: „Informationen über individuelle Ansichten und Entwicklungen“ ließen sich für politische Kontrolle nutzen. Abschließend weist Mallmann darauf hin, dass eine Ausdehnung des Gesetzes zur Beschränkung des Brief-, Post- und Fernmeldegeheimnisses auf die Breitbandkommunikation „eine nahezu totale Verhaltenskontrolle“ ermögliche – eine Gefahr, die sich inzwischen offensichtlich bewahrheitet hat. Ulrich Dammann analysiert in seinem Beitrag die Folgen des Einsatzes von Planungsinformationssystemen, d. h. „eine computergestützte organisatorische und technische Einrichtung mit dem Zweck, einem oder mehreren Entscheidungsträgern in Verwaltung und Politik planungsrelevante Informationen bereitzustellen und dadurch zur Verbesserung von Planungsentscheidungen beizutragen.“

„Das Planungsinformationssystem ist ziemlich genau das, was der Datenschutzdiskussion lang als Schreckbild der integrierten, zentralisierten Datenverarbeitung vor-geschwebt hat: eine die gesamte Population erfassende, sich permanent verbreiternde, vertiefende und zeitlich verlängernde Sammlung personenbezogener Informationen aus praktisch allen Lebensbereichen, die aus methodischen Gründen (beliebige Auswertung, Erweiterung, Fortschreibung) in disaggregierter Form und mit persönlichen und engmaschigen regionalen Identifizierungsmerkmalen versehen sind, kurzum: eine Super-Dossier-Datenbank, die zwangsläufig auch planungsfremde Interessenten auf den Plan ruft und enorme Mißbrauchsmöglichkeiten eröffnet.“

Ein „mit überlegenen Informationsinstrumenten ausgestattete[s] Planungssubjekt“ verbessere ihre Position sowohl gegenüber den verplanten Individuen, Gruppen und Organisationen als auch gegenüber konkurrierenden Planungssubjekten, gerade auch dadurch, dass es einem Plan „den Charakter eines in sich geschlossenen Ganzes [verleihe], das partielle Modifizierungen nicht zuläßt“ und damit das politische Entscheidungsverfahren weitgehend vorzeichne: „[D]ie Rationalität des technischen Vorgangs [diene] als Ersatz für eine Rationalität der öffentlichen Diskussion“. Dammann weist dabei darauf hin, dass sich ein Missbrauch von Planungsinformationssystemen „weder bestimmten Verfahren noch bestimmten Datenbereichen zuordnen“ lasse: „Er liegt überhaupt nicht in den Systemleistungen selbst, sondern in einer bestimmten Verwendung derselben im gesellschaftlich-politischen Kontext“ und könne nur durch seine vollständige „Transparenz für Parlament und Öffentlichkeit“ verhindert werden. Unter Rückgriff auf Vorarbeiten Podlechs fordert Dammann für Planungsinformationssysteme eine Trennung zwischen Betreiber und „Planungsträgern und politischen Entscheidungszentren“. Nicht zuletzt fordert er größtes öffentliches Misstrauen „gegenüber Planungsvorschlägen, die keine Alternativen aufzeigen, und gegenüber Modellrechnungen, deren Prämissen nicht offengelegt sind“.

Mit ähnlichen Informationssystemen – „integrierten Personalinformationssystemen“ – und ihren Folgen für die Mitbestimmung beschäftigt sich Wolfgang Kilian in seinem Beitrag und kommt dabei zu einer vergleichbaren Gefährdungsanalyse. Auch für solche Systeme gelte, dass sie einen Informationsvorsprung veschafften, „denn wer Entscheidungen simulieren oder besser begründen kann, stärkt seine Machtposition gegenüber anderen Entscheidungsinstanzen.“ Mit diesen Systemen und insbesondere deren Ankopplung an andere Informationssysteme in Organisationen werde „der Arbeitnehmer und seine Arbeitskraft in größerem Maße disponibel“: „Dem Rationalisierungsgewinn in der betrieblichen Kosten-Nutzen-Analyse steht ein Selbst- und Mitbestimmungsverlust auf der individuellen Ebene gegenüber.“

Fast parallel und in selbstbezeichneter Ergänzung zum Seminar und daraus entstandenen und von Klaus Lenk herausgegebenen Band „Kommunikationsrechte und Kommunikationspolitik“ fand im Februar 1975 in Darmstadt ein von Steinmüller geleiteter Workshop zu „Informationsrecht und Informationspolitik“ statt, dessen Ergebnisse im Jahr darauf unter diesem Titel publiziert wurden. Der dabei entstandene Sammelband soll dabei, wie Steinmüller in der Ein-leitung formuliert, „Material für weitere Forschungen“ bereitstellen, da das Informationsrecht erst in seinen Anfängen stecke.

Im ersten Beitrag des Bandes versucht Steinmüller, ein Forschungsprogramm zum Informationsrecht zu entwickeln. Er beginnt mit der Beschreibung moderner Informationsverarbeitung als Ergebnis einer langen historischen Entwicklung von der ausschließlich individuellen Informationsverarbeitung über eine beginnende „Transindividualität“ durch „Institutionalisierungen von Sitten, Bräuchen und Recht“, die Erfindung der Schrift und die Entwicklung von Organisationen – „eine gewisse Objektivierung der Information über die Grenzen des Individuums hinaus“ –, die Entwicklung von Universitäten und die Erfindung des Buchdrucks – und damit die Multiplikation der Adressatinnen – bis hin zur „Verwissenschaftlichung aller Lebensbereiche“, der „Standardisierung von Informationserzeugung und -verarbeitung“ und der zunehmenden Rationalisierung. Den (vorläufigen) Endpunkt der Entwicklung stellten die „nicht-mechanischen Informations»technologien«“ dar, die „automationsunterstützte Informationsverarbeitung“, die „sich nunmehr mit der sog. »Breitbandkommunikation«“ verbinde, mit der es möglich werde, „»maschinell« in großen Mengen und unter geringem Zeitaufwand“ zu erzeugen, zu verarbeiten und zu nutzen: „die Informations»maschine« simuliert (mehr oder minder vollkommen) den informationsverarbeitenden Menschen.“ Information sei dabei Modell über Systeme oder Prozesse oder beides – „integriertes Modell“ – und Ergebnis eines Informationsprozesses – ein „Prozeß der Erzeugung handlungsrelevanter ideeller Modelle in einem Empfänger über Originale“. Mit der Automatisierung von (Teilen von) Informationsprozessen werde nicht nur der Mensch in-soweit ausgeschlossen, gleichzeitig werden „bisherige menschliche »Beschränktheiten« ebenfalls eliminiert“, „wobei selbstverständlich auch Vorteile humaner Schranken mit verloren gehen (können)“. „Durch Formalisierung und Algorithmisierung individueller Problemlösungen und durch Systemkommunikation wird Informationsverarbeitung in weit folgenreicherem Maße als z. B. bei Presse und Funk aus ursprünglichen individuell-sozialen Zusammenhängen gelöst, in einem bestimmten Sinn »objektiviert« und für allgemeine Verwendung bereitgestellt (»vergesellschaftet«)“, womit einerseits „der Output quantitativ ungeheuer gesteigert“ werde, andererseits – qualitativ – „ein bisher unerreichbarer Komplexitätsgrad sozialer Organisation informations-technisch reduzierbar und damit gesellschaftlich beherrschbar“ werde. Steinmüller schreibt der „Informationstechnologie“ dabei einen „instrumentalen“ Charakter zu. Sie diene „übergeordneten Interessen“, verstärke und verändere sie, erzeuge Rückkopplungen. Das sei allerdings trivial, so Steinmüller, und weiter:

„Problematisch ist vielmehr, in welcher Weise und in welchem Ausmaß bestehende und bekannte Herrschaftsstrukturen durch Informationstechnologien verstärkt oder vermindert werden; mit welchen spezifischen Informationsmitteln sich nunmehr bestimmte Interessen durchsetzen, andere unterdrückt werden; aber auch umgekehrt: wo anzusetzen sei, wenn bestimmte Auswirkungen unerwünscht sind; welche Strategien zu ihrer Verhinderung zu wählen seien, u. s. f.“

Erst auf der Basis einer fundierten Analyse könne und müsse dann das Recht seine „Gestaltungs- und Kanalisierungsfunktion“ wahrnehmen. Dazu müsse es insbesondere auch über die drei bis dahin dominierenden Themenbereiche – „Datenschutz im engeren Sinne“, „Informations»gleich«gewicht zwischen Institutionen“ und „das ADV-Organisationsrecht“ – hinausgegangen werden. Gegenstand des Informationsrechts seien damit, so Steinmüller, „Informationssysteme und deren Bezug zum gesellschaftlichen Umsystem“, wobei Informationssysteme „diejenigen sozialen Systeme [seien], deren Zweck gerade in Informationsprozessen besteht“. Die Einbeziehung des Zwecks sei „systemtheoretisch unvermeidlich“, da ohne sie „Systeme nicht definierbar (abgrenzbar)“ seien. Daraus folge auch, dass „es unter Kontrollgesichtspunkten unerläßlich wird, die Funktion(en) von Informationssystemen hinreichend zu definieren [. . . ], um ihre Transparenz herzustellen“. Steinmüllers weitere Ausführungen zur Methodik und Systematik des Informationsrechts liegen außerhalb des Fokus dieser Arbeit.

Auf der Basis von Vorarbeiten Steinmüllers legt Podlech eine „(i. S. der allgemeinen Systemtheorie) modelltheoretische Interpretation des Informationsbegriffs“ vor. Danach seien Informationen Modelle von Objekten, also „Abbildungen von etwas für jemand für einen Zweck“ und würden damit neben der syntaktischen und der semantischen auch die sigmatische und die pragmatische Dimension einbeziehen, die für das Recht und die Rechtswissenschaft unentbehrlich seien. Informationssysteme ließen sich damit über die Modellbereiche beschreiben, d. h. die „Gegenstandsbereiche“ – Was wird abgebildet? –, die „Adressatenbereiche“ – Für wen wird es abgebildet? –, die „Zweckbereiche“ – Welchen Zwecken dient die Abbildung? – und die „Text-bereiche“ – die Daten in verkörperter Form.

Klaus Grimmer analysiert in einem Beitrag den Informationsaustausch innerhalb des öffentlichen und privaten Bereichs sowie zwischen diesen Bereichen darauf, welche Informationen und welche Arten von Informationen unter welchen Bedingungen vor dem Hintergrund welcher Interessen der Beteiligten ausgetauscht werden, und unterzieht sie einer verfassungsrechtlichen Bewertung. Nach einer umfassenden, aber im Ergebnis wenig hilfreichen und quellenlosen Darstellung existierender Informationsverbünde versucht Grimmer, die Voraussetzungen für eine rechtliche Bewertung zu explizieren. Nach einer „Klassifikation von Datenkategorien“, auf die er später keinen Bezug mehr nimmt, beschäftigt er sich mit dem „Begriff und der Rolle der Information“. Grimmer trennt dabei nicht sauber zwischen Information als Prozess und Information als Objekt, wenn er einerseits definiert, Information sei „die Abgabe und/oder Aufnahme von Zeichen sprachlicher und nichtsprachlicher Form in einem Sinngefüge, Bedeutungszusammenhang“ (S. 73), andererseits über die „entscheidungs- und handlungslogische Funktion von Informationen“ schreibt: „Sie ist Bedingung für Handlungen und Entscheidungen.“ (S. 74). Vor dem Hintergrund, dass die „Entfaltungsmöglichkeiten von Individuen, freigesellschaftlichen und staatlichen Organisationen“ von Informationen abhängen, „welche ihnen – oder Dritten über sie – zur Verfügung stehen“, präsentiert Grimmer – wiederum ohne Quellenangaben – die Interessen, die seiner Meinung nach hinter der Einrichtung von Informationsverbünden stehen, nimmt aber jedenfalls für den öffentlichen Bereich begründungslos Kongruenz rechtlich festgeschriebener und realer Interessen an. Darüber hinaus unterstellt er ohne Begründung oder Verweise auf Quellen, dass die „formale Trennung von Staat und Gesellschaft und die Isolierung des Individuums als Person in Staat und Gesellschaft“ „Strukturelemente der Informationsbeziehungen“ seien, dass „[p]rinzipiell [. . . ] faktisch die Freiheit und Privatheit der Information“ gelte und Information „spezifische Form von Eigentum“ sei. Für die rechtliche Würdigung argumentiert Grimmer, dass eine neue juristische Systematik nicht erforderlich sei, „da Informationsbeziehungen der Struktur einer Gesellschaft und ihren Beziehungen entsprechen“, sich also ganz traditionell an rechtlich geschützten Rechtsgütern und Handlungen orientieren könne, die erlaubt oder verboten seien. Abschließend untersucht er dann Individual- und Gruppengrundrechte sowie das Staatsorganisationsrecht, um daraus Anforderungen an Informationsverbünde abzuleiten. Obwohl er dabei feststellt, dass weder die kategoriale Trennung zwischen öffentlich und privat noch die Sphärentheorie geeignet ist, fordert er eine „Zuordnung von Informationen zu einem privaten oder öffentlichen Bereich“ per „Rechtsdeklaration“. Staatliches Informationsinteresse solle, so Grimmer, Vorrang vor „[i]ndividuelle[n] Verfügungsrechte[n] über Informationen“ haben, „wo es um die Herstellung gleicher Meinungsbildungs- und Entscheidungsfreiheit geht oder um die Entfaltung organisierter und nicht organisierter Interessen zur Verdichtung von Mitwirkungs- und Legitimationsformen in der Ausübung staatlicher Gewalt“. Informationsansprüche gegen den Staat bedürfen eines verrechtlichen Interesses, wobei es zu keinen einseitigen Begünstigungen kommen dürfe. Im privaten Bereich würden neben Wettbewerbsregelungen das allgemeine Persönlichkeitsrecht und der Zweckbindungsgrundsatz ausreichen.

Paul J. Müller ist, soweit sich das übersehen lässt, der erste, der expliziert, dass die Datenschutzdiskussion, wo sie vor allem von der „Verwaltungswissenschaft juristischer Provenienz“ geführt oder beeinflusst wird, die „Informationsflüsse im Netzwerk informeller Beziehungen“ in oder zwischen „formell verfaßten Institutionen“ ausblendet bzw. durch die Herstellung „kontrollierte[r] und selektive[r] Zugänglichkeit von Informationen“, durch die „informelle Arrangements nicht entscheidungsrelevant“ werden können sollen, ignorieren können will. Im Gegensatz zu Steinmüller und Wolter ist für Müller nicht sicher, ob die „Institutionalisierung des Prinzips »Einmalerfassung + Mehrfachverwendung«“ zu einer Steigerung der Stabilität der betreffenden Institutionen führen und nicht eher zu steigender Störanfälligkeit insoweit, als die „selektive Informationsweitergabe des Bürgers“ darauf reagiert, und die „Verzerrungen und Spannungen im Verhältnis Bürger – Verwaltung“ sich auf das Verhältnis zwischen den Verwaltungen ausdehne. Gleichwohl nehme die „Unabhängigkeit der Institutionen von der Kooperationsbereitschaft der Bürger“ zu.

Hans Brinckmann kritisiert die Datenschutzdebatte für ihren individualistischen Ansatz: ihr liege „ein konsequent liberalistisches Grundrechtsverständnis zugrunde, das weder von sozial-staatlichen noch von demokratietheoretischen Ansätzen [. . . ] tangiert oder geprägt“ sei und die „Teilhaberechte auf Information, bedürfnisorientierte Kommunikation und Transparenz öffentlichen wie privaten Handelns“ ignoriere. Die Datenschutzdebatte laufe auf eine Regelung der Verfügung über Informationen über Marktmechanismen hinaus. Brinckmann will „vermuten dürfen“, dass es nur darum gehe, „unternehmerische »Privatheit« [. . . ]gegen [die] Interessen der Mehrheit aufrechtzuerhalten“; es werde „wenig Bezug auf die durchsetzbaren Schutzbedürfnisse der auf abhängige Arbeit und staatliche Sozialleistungen Angewiesenen, noch weniger auf die Informationsbedürfnisse der Mehrheit“ genommen. Darüber hinaus verwirft Brinckmann die in der Datenschutzdiskussion aufgestellte Behauptung von „Organisationsveränderungen und Grundrechtsgefährdungen als Folge der Informationstechnologie“ und behauptet stattdessen, dass diese Veränderungen „vielmehr auf exogene Ursachen zurückgeführt werden“ müssen, ohne dafür allerdings eine Begründung zu liefern. Auch in Bezug auf die Folgen der Automatisierung der Informationsverarbeitung für die Organisation der öffentlichen Verwaltung und das Verhältnis zwischen verschiedenen Verwaltungseinheiten gibt Brinckmann den Stand der Debatte sehr einseitig wieder. Sein Hinweis, dass es kaum möglich sein dürfte, „vom einzelnen Individuum und seiner verfassungsrechtlichen Position aus organisationsrechtliche Forderungen zu stellen, die über den Schutz vor totaler Persönlichkeitsreduzierung und über die Aufrechterhaltung unabhängiger Verwaltungskontrollinstanzen hinausgehen“, ist jedoch sehr beachtenswert. Auch seine Beobachtung, dass gerade jene staatlichen „Entscheidungseinheiten“ einen Funktionsverlust hinnehmen müssten, die für die „sich durchsetzenden Planungsanforderungen [. . . ] dysfunktional geworden“, für die Erfüllung anderer Anforderungen – „demokratische Mitwirkung, Ausrichtung auf gesellschaftliche Problemfelder“ – jedoch erforderlich seien.

Ruprecht B. Kamlah versucht in seinem Beitrag, aus den Entscheidungen des Bundesverfassungsgerichts Hinweise „zur Regelung eines materiellen Informationsrechts“ abzuleiten. Zu schützen sei, so Kamlah, das „Menschenbild des Grundgesetzes“ vor dem „Verlust der Menschenwürde durch Totalerfassung der uns betreffenden Informationen“ durch Regelungen „im Sinne der Wertordnung des Grundgesetzes [. . . ], insbesondere im Sinne der einschlägigen Grundrechtsartikel Art. 1 und Art. 2 Abs. 1 GG (Persönlichkeitsrecht) und Art 5 GG (Informationsfreiheit).“ Die Besonderheit von Kamlahs Ausführungen liegt darin, dass er zwar einerseits die Relativität der Privatsphäre für alle drei in ihr enthaltenen „Schutzbereiche: die Intimsphäre, den Privat- und den Öffentlichkeitsbereich“ aufzeigt und dabei explizit den Verzicht auf „die eine räumliche Schutzvorstellung suggerierenden »Sphären«“ fordert, andererseits aber ein Schutzmodell vertritt, das „personenbezogene Informationen je nach ihrer Zugänglichkeit durch die Allgemeinheit entweder [. . . ]schützt oder nicht [. . . ]schützt“. Auch für die Abgrenzung des allgemeinen Persönlichkeitsrechts zur Informationsfreiheit sind weder die Ausführungen des Bundesverfassungsgerichts noch die Kamlahs hilfreich: Das Bundesverfassungsgericht betrachtet nur das Informationsrecht der Presse und deren Zweck, Informationen einer allgemeinen Öffentlichkeit zugänglich zu machen; Kamlah stellt diese Beschränktheit zwar fest – „[f]ür das Erheben und Weitergeben von Informationen (außer Veröffentlichung) ist nichts Neues abzuleiten“ –, kann allerdings weder die eigentliche Beschränkung identifizieren – das wäre die Veröffentlichung durch die Presse – noch den tatsächlichen Umfang des zu analysierenden Problems – so fehlen etwa Verarbeiten und Nutzen in Kamlahs Betrachtung.

Adalbert Podlech unternimmt in seinem Beitrag die Formulierung eines Organisationsprinzips zur Gewährleistung der „Erhaltung wichtiger Freiheitsspielräume“: die Trennung von politischer, technischer und fachlicher Verantwortung in automationsunterstützten staatlichen Informations-systemen. Nach Podlech soll dabei das Informationssystem in drei voneinander separate Sub-systeme zerlegt werden: das normgebende, das der Benutzerinnen und das der Unternehmerin. Das normgebende Subsystem trage dabei die „politische Verantwortung“ für das Informations-system und lege Informationsbereich und Informationsbahnen des Systems und die Rechte der Benutzerinnen fest. Die Unternehmerin trage die „technische Verantwortung“ und habe dabei die Aufgabe der Durchsetzung der Informationssicherheit. Und die Benutzerinnen trügen die „fachliche Verantwortung“, d. h. etwa die Korrektheit der Informationen oder die Einhaltung von Fristen sicherzustellen. Mit Hilfe der schon von Steinmüller vorgeschlagenen Programmkontrolle mit seiner Trennung von technischer und fachlicher Verantwortung soll, so behauptet Podlech, auch die Kontrolle der Informationsverarbeitung inklusive der Kontrolle der Erzeugung neuer Informationen aus bereits vorhandenen umsetzbar sein.

Kurz darauf versucht Podlech, „Aufgaben und Problematik des Datenschutzes“ umfassend darzustellen, wobei er – wie schon in seinem Entwurf für ein Bundesdatenschutzgesetz – sich wieder nur auf den öffentlichen Bereich konzentriert und den „Datenschutz im Bereich der Wirtschaft und gesellschaftlicher Großverbände wie Parteien, Gewerkschaften und Presse“ einmal mehr „weitgehend“ ausblendet. Er verfolgt mit der Arbeit das Ziel, das gesellschaftliche Problem zu beschreiben, „auf das der Datenschutz Antwort sein soll“. Datenschutz ist dabei nach Podlech Lösung für das „technikvermittelte[] gesellschaftliche[]“ Problem der „Feststellung und Durchsetzung der Bedingungen, unter denen das Informationsgebaren einer Gesellschaft für die Glieder der Gesellschaft akzeptabel sein kann“, vergleichbar zum „Problem des Verfassungsstaates im politischen Bereich und [. . . ] der Kontrolle der Produktionsverhältnisse im wirtschaftlichen Bereich“. Vor dem Hintergrund, dass der Staat als „organisierte Großbürokratie“ erstens durch die Ausnutzung von Informationsvorsprüngen physische Machtausübung substituieren könne, zweitens dadurch auch die Bedingungen der Konsensbildung manipulieren könne und drittens formelle Entscheidungsstrukturen durch informelle ersetzen könne, bezeichnet Podlech die Aufgabe des Datenschutzes als die Formulierung „informationell beschreibbare[r] Bedingungen legitimer Machtausübung“ und der Suche nach Wegen zu ihrer Umsetzung „unter den veränderten ökonomischen und technischen Bedingungen der organisierten Informationsverarbeitung durch Staaten, wirtschaftende Subjekte und gesellschaftliche Großverbände“. Daneben formuliert er die Aufgabe noch einmal negativ: Der Datenschutz diene dazu, „einen Gesellschaftszustand zu verhindern, in dem ein Bürger nicht wissen kann, wer wann was zu welchem Zweck über ihn weiß“ – eine Formulierung, die hier zum ersten Mal auftaucht und die später in der leicht geänderten Formulierung des Bundesverfassungsgerichts eine gewisse Berühmtheit erlangte. Der Individualdatenschutz diene dabei dem Schutz der individuellen Grundrechte innerhalb des bürgerlichen Verfassungsstaats, sowohl dem Schutz des bourgeois wie des citoyen, als Individuum wie in seinen „Rollen als Gruppenmitglied“. Das durch Art. 1 GG gestützte und durch Art. 2 GG gewährleistete Recht auf (informationelle) Selbstdarstellung als Eigentumsrecht darzustellen, sei dabei ebenso eine Sackgasse wie die Sphärentheorie. Vielmehr will Podlech die weitere Diskussion um die verfassungsrechtlichen Anforderungen an das Datenschutzrecht auf der Basis des Beitrags von Benda führen, wobei in der rechtlichen Umsetzung allerdings neue Wege zu beschreiten seien, weil die bisherigen Regelungen, die sich mit dem Informationsbereich befassten, ausschließlich „wohl definierte soziale Kommunikationssituationen“ beträfen wie üble Nachrede, Beleidigung oder Geheimnisverrat, während automationsgestützte Informationssysteme alle Funktionen herkömmlicher Medien in sich vereinen würden und darüber hinaus grundsätzlich pragmatikfrei seien.

Zum Gegenstand des Datenschutzrechts müssten daher «die Informationsbahnen der Gesellschaft mit Quelle, Empfänger und Verwendungszweck der Informationen» sein. Podlech gesteht dabei ein, dass dies nur möglich sei, wenn „inhaltliche Regelungen“ – also materielles Recht – durch „Verfahrens- und Kompetenzregelungen“ – als formelles Recht – ersetzt würden. Die Qualität eines Datenschutzrechts lasse sich – damals wie heute – vor allem anhand der Regelungen im Geheimdienstbereich messen, so Podlech unter Verweis auf Montesquieu – „La liberté politique consiste dans la sûreté“ – und die „technisch ermöglichte Massenhaftigkeit der Überwachung“. Auch mit Blick auf die Erkenntnisse, die das Church Committee zutage förderte, verweist Podlech darauf, dass „[f]reiheitlich-rechtsstaatliche Demokratie [. . . ] durch Kontrolle bedingt [werde] und unkontrolliert gibt es auf Dauer kein korrektes und faires staatliches Verhalten“, wobei schon die Unsicherheit ob deren Korrektheit und Fairness die politische Freiheit der Bürgerinnen beeinträchtige. Podlech formuliert die von ihm identifizierten Anforderungen als „Grundsatz des Erhebungsverbots pragmatikfreier personenbezogener Informationen“, „Grundsatz des Verbots der Zweckentfremdung erhobener personenbezogener Informationen“, „Grundsatz des Löschungsgebots nicht mehr benötigter personenbezogener In-formationen“ und „Grundsatz des Verbots sektorübergreifender Informationskontrolle“.

Fast das genaue Gegenstück zu Podlechs Arbeit ist das Werk von Christoph Sasse, „Sinn und Unsinn des Datenschutzes“. Sasse behauptet, die von ihm als die in der damals herrschenden Diskussion identifizierte Gefährdung:

„Das total durchleuchtete Individuum, dessen Persönlichkeitsprofil von Freund und Feind am jederzeit verfügbaren Informationsbildschirm abgelesen – und verwendet – werden kann, wird zum neuen, den Rechtsstaat bedrohenden Gespenst. Informationsbeherrschung, sei es durch den Staat, sei es durch Private, erscheint als Mittel zur Zerstörung der Freiheit, zur Manipulation des Menschen, zur Potenzierung öffentlicher oder gesellschaftlicher Macht.“

sei übertrieben und schief; stattdessen handele es sich einerseits um ein Problem von Daten-sicherheit und andererseits um ein Problem übertriebener Befindlichkeit, die beide von einer „Computer-Furcht“, einem „[i]rrationale[n] Mißtrauen gegen neue Techniken“ gespeist würden. Als die übertriebene Befindlichkeit – oder auch das „diffuse[] Gefühl der Bedrohung“ – will Sasse mit Habermas und Schelsky „die mangelnde Angemessenheit des eigenen Erfahrungsbereichs, die immer breiteren Schichten die Identifizierung ihrer privaten Interessen mit den gesamtgesellschaftlichen Ordnungen erschwere“ identifiziert haben, die zu einer „Abkehr des einzelnen [. . . ] von einer stets komplexeren Öffentlichkeit“ und einer „Radikalisierung der Privatsphäre“ führen würden. Gleichwohl vermeidet es Sasse trotz aller „Kritik“ an den bestehenden Definitionsversuchen konsequent, eine eigene fundierte allgemeingültige Analyse des Datenschutzproblems vorzulegen: Weder seine tautologisch definierte Aufgabenstellung des Datenschutzes als Missbrauchsverhinderung noch seine Ausführungen zur „Privatsphäre“ können als fundiert bezeichnet werden. Zumindest für den Bereich des Datenschutzes gegenüber der öffentlichen Verwaltung übernimmt er die an verschiedenen Stellen aufgestellte Behauptung, in Datenverbünden würden auch Sammlungen von personenbezogenen Informationen unterhalb der Schwelle von Persönlichkeitsprofilen eine „Nacktheit vor der Verwaltung“ bewirken, die „selbst ohne Mißbrauch, schlicht infolge ihres Vorhandenseins, auf Seiten der Individuen zu einem Spontaneitätsverlust führen würde[n]“, „die Unbefangenheit von Lebensäußerungen“ beeinträchtigen und „mausgraues Anpassungsverhalten“ erzeugen würde, die „mit dem Prinzip demokratischer Ordnung (Art. 20 GG) [. . . ] als unvereinbar gelten“ müsse. Vor diesem Hintergrund vergleicht er dann die Regelungen des Schwedischen Datenschutzgesetzes von 1973 und des Privacy Act of 1974 mit den Entwürfen für das österreichische und das deutsche Datenschutzgesetz in den Bereichen 1. Erheben und Speichern, 2. Weitergabe und 3. Kontrollmechanismen und kommt dabei zum Schluss, dass der deutsche Entwurf in allen Bereichen die schwächsten Regelungen und die größten Regelungslücken enthalte.

Für den privaten Bereich geht Sasse signifikant anders vor. Er beginnt mit einer Darstellung der informationsbezogenen Interessenkonstellation im Kredit-, Versicherungs- und Arbeitsbereich und behauptet, Aufgabe des Datenschutzes sei der Interessenausgleich. Ein Datenschutzrecht für den privaten Bereich dürfe und müsse es aber nur geben, „wenn von der Datenverarbeitung durch Private ähnliche Gefahren ausgehen wie von derjenigen durch die öffentliche Hand.“ Und genau dem widerspricht Sasse und behauptet, dass es in der Bundesrepublik keine zu den Fällen in den USA, die in Presse und Literatur angeführt werden, vergleichbaren Fälle geben würde. Die von ihm als Begründung für das Fehlen solcher Fälle in der Bundesrepublik gelieferte Erklärung beschränkt sich allerdings ausschließlich auf den Kreditbereich, während sowohl der Arbeits- als auch der Versicherungsbereich mit ihrer langen Tradition von Schwarzen Listen schlicht nicht betrachtet werden. Sasses Schlussfolgerung, „[d]ie Privatsphäre [sic!] des Staatsbürgers [sic!] ist also diesseits ses Atlantik [sic!] weniger gefährdet als in den USA“, führt ihn zu der Forderung, dass der Gesetzgeber, bevor er Datenschutzregelungen für den nicht-öffentlichen Bereich erlasse, „mit Rücksicht auf diese ganz anderen Rahmenbedingungen einige Vorfragen entscheiden“. Diese „Vorfragen“ – oder auch: „Vorentscheidungen“ – expliziert Sasse dann nicht, scheint damit aber Fragen des Geltungsbereichs des Datenschutzgesetzes und Grundentscheidungen bzgl. der rechtlichen Operationalisierung zu meinen: Erstens bestreitet Sasse die – vor allem mit ihrer Relativität begründete – Untauglichkeit des Konzepts der Privatsphäre, da Rechtsprechung und Literatur jedenfalls in der Lage seien, diesen unbestimmten Rechtsbegriff zu objektivieren. Die Verwendung des personenbezogenen Datums als Regelungsobjekt sei entschieden zu umfassend, wo doch – nur – „[e]ine »unantastbare Sphäre privater Lebensgestaltung« [. . . ] gewährleistet werden“ solle. Und zweitens behauptet Sasse, es gehe im Bereich der gewerblichen Wirtschaft nicht „um die Sphäre individueller Lebensgestaltung oder dergleichen, sondern um die Minimierung von Verlusten, die der Volkswirtschaft insgesamt unerhörten Schaden zufügen.“ Und er ergänzt begründungslos: „Für den hierzu erforderlichen Informationsfluß passen die Instrumente des Datenschutzes nicht.“ Seine eigene – offenkundig absichtlich beschränkte – Wahrnehmung des Datenschutzproblems als tumbe „»Radikalisierung« der Privatsphäre“ zugrunde legend behauptet Sasse dann, es fehle „an einer sozialpsychologischen oder gesellschaftspolitischen Rechtfertigung“ für eine Anwendung des Datenschutzrechts auf das Verhältnis zwischen „Gewerbetreibenden“. Für den nicht-öffentlichen Bereich fordert Sasse daher eine Zweiteilung: einen individuellen und einen gewerblichen, wo-bei erster einen – wenn auch untauglichen – verstärkten Schutz genießen solle, während letzter keiner neueren Regelungen bedürfe.

Vor dem Hintergrund von Sasses Argumentation, durch eine signifikant eingeengte und gleichzeitig verzerrte Definition des Datenschutzproblems als Problem einer Privatsphäre monadischer Angehöriger der bürgerlichen Klasse das Datenschutzrecht als Mittel zur gesellschaftlichen Informationsmachtkontrolle leerlaufen zu lassen, erscheinen seine „Schlussfolgerungen“ – „[d]ie Überwachung des öffentlichen Bereichs ist zu matt, der Schutz der Sphäre des Privatmanns zu schwach und konturenlos, und der Datenschutz in der Wirtschaft schießt weit übers Ziel hinaus“ – weniger als Schlussfolgerungen einer wissenschaftlichen Analyse als vielmehr als notwendiges Ergebnis von ideologisch beschränkten und sich selbst beschränkenden Annahmen über die bürgerliche Gesellschaft und das bürgerliche Individuum.

In der zweiten Hälfte der siebziger verstärken auch die interdisziplinären Diskussionsforen ihre Hinwendung zu Einzelproblemen der Umsetzung von Datenschutz und Datenschutzrecht auf der einen und Datensicherheit auf der anderen Seite in Technik und Informationsverarbeitungspraxis. Hans-Peter Gassmann ist wohl der erste, der eine explizite Verbindung zwischen dem Problem des Datenschutzes und dem des Umweltschutzes zieht: Moderne Informationsverarbeitung und insbesondere internationale Datenflüsse würden die „Gefahr der Verschmutzung unserer Informationsumwelt“, einer Informationsumweltverschmutzung“, bergen. Dammann vergleicht die Institutionalisierungsansätze von Datenschutzkontrolle in den USA, Schweden, aber auch Hessen miteinander und stellt fest, dass Datenschutzbeauftragte als „»persuasive authority«, als Autorität durch Überzeugung“ bezeichnet werden könnten. Gleichwohl begnüge sich die Datenschutzkontrollinstanz nicht mit der Aufdeckung und Ahndung von Verstößen, ihr Schwerpunkt liege vielmehr in der präventiven Analyse und Beseitigung von Gefahren. Die von Dammann wiedergegebene Beobachtung, dass „die Aussichten, mit vertretbarem Aufwand zu effektiven Datenschutzmaßnahmen zu kommen, dann besonders groß sind, wenn sie bereits im Zusammenhang mit der Planung eines Informationsvorhabens konzipiert werden“, überrascht daher nicht. Josef Gärtner schlägt für den privaten Bereich die Einführung einer Gefährdungshaftung, eine Beweislastumkehr zugunsten der Betroffenen sowie einen Ersatz auch für immaterielle Schäden vor, wobei die Beweislastumkehr auch bei der Durchsetzung von Unterlassungsansprüchen gelten solle. Nicht nur der Entwurf des deutschen Datenschutzgesetzes, sondern auch der Entwurf des österreichischen Datenschutzgesetzes setze stark auf unbestimmte Rechtsbegriffe, so Herbert Wegschneider. Dabei seien die Begriffsbestimmungen „unklar, widersprüchlich oder gar nicht sinnvoll interpretierbar“. Fred Jaster beschreibt drei Gruppen von Maßnahmen, mit Risikofällen umzugehen: 1. Verhinderung, 2. Erkennung und 3. Beseitigung der Folgen, wobei seine Darstellung nur so gelesen werden kann, dass diese Einteilung offensichtlich schon damals als klassisch gilt. Seine Begründung, warum er ausschließlich Innentäterinnen betrachtet – weil alle „bekannt gewordenen Fälle [. . . ] ausschließlich von diesem Personenkreis verübt“ wurden –, kann zwar heute für den IT-Sicherheitsbereich als überholt angesehen werden, jedoch aber gerade nicht für den Bereich des Datenschutzes, der sich primär mit dem Innenverhältnis zwischen Datenverarbeiter und Betroffener beschäftigt. Bruno Losbichler untersucht, welche Konzepte Programmiersprachen aufweisen sollten, damit sich „für alle im Verlauf der Programmausführung behandelten Objekte problem- und datenspezifische Schutzmaßnahmen formulieren lassen, die während der Programmausführung eingehalten werden“. Er will das mit Hilfe von Spracherweiterungen umsetzen, die ähnlich funktionieren sollen wie die Zuweisungen von Typ- und Strukturinformationen oder Anfangswerten.

Jan Schlörer analysiert das Problem der Anonymität in statistischen Datenbanken. Er trennt dabei zwischen Anonymisierung – identifizierende Informationen werden nicht gespeichert – und „funktioneller“ Anonymisierung, bei der die identifizierenden Informationen zwar gespeichert sind, jedoch nicht herausgegeben werden, und identifiziert zwei Gruppen von notwendigen Sicherungen für statistische Datenbanken: Datentransformation und Dialogsicherungen. Datentransformationen seien danach „Veränderungen der Daten selbst, nach deren Durchführung statistische Auswertungen, wenn auch mit verringerter Effizienz, noch möglich, Identifikation von Einzelpersonen aber mehr oder weniger erschwert ist“. Auf der anderen Seite seien Dialogsicherungen etwa „Outputmodifikationen“ oder das Nichtbeantworten bestimmter Anfragen zum Ausschluss von „Vertraulichkeitsbrüchen“. Die von Schlörer beschriebenen Ansätze werden heute im Datenbankbereich etwa unter dem Namen „differential privacy“ diskutiert.

Lotte Tuner beschäftigt sich mit der Bedeutung des Formularwesens für den Datenschutz. Zentrale Eigenschaft des Formularwesens sei die ihr innewohnende Schematisierung, die „gewaltsame Subsumtion eines normfernen Sachverhalts unter ein Muster, das gerade zur Hand ist“, und stelle zugleich eine generelle Fehlerquelle dar, sei gleichwohl aber Grundbedingung für „stärkste Arbeitsteilung und routinemäßige Bearbeitung“. Die Verwendung von Formularen führe – bei Papierformularen über den Vordruck, bei digitalen Formularen über die Beschreibung neben dem Formularfeld bzw. eine kontextuelle Hilfefunktion – zur Suggestion bestimmter Antworten oder Formulierungen von Antworten. Das habe vor allem dann negative Konsequenzen, wenn auch der organisationsinterne Informationsfluss über solche Formulare organisiert ist:

„Wenn z. B. eine behördliche Auskunft nur unter bestimmten Voraussetzungen erteilt werden darf und ein Vordruck eine Reihe solcher Voraussetzungen in der richtigen Formulierung zur Auswahl stellt, wird der Beamte u. U. unter Vermeidung der wahren Begründung die Auskunft nach dem erfolgversprechendsten System anfordern und erhalten. [. . . ] Müßte der Beamte die Begründung selbst formulieren, könnte u. U. die Auskunft aus datenschutzrechtlichen Gründen verweigert werden.“

Jedoch brächten Formulare aus Datenschutzsicht auch Vorteile mit: Nichts könnte – weder unbeabsichtigt noch absichtlich – vergessen werden, weder Fragen, Mitteilungen, Aufgaben, noch Vorgänge, und die Betroffenen könnten durch Formulare umfänglich und erschöpfend über Möglichkeiten und Risiken der Informationsverarbeitung informiert werden. Ein modernes Formularwesen müsse dabei folgende Anforderungen erfüllen: 1. Vereinheitlichung des Formularwesens, 2. Normierung der verwendeten Begriffe, 3. gesetzlich festgelegter Katalog datenschutzrechtlich zulässiger Fragen (Zweckentfremdungs- und Übermaßverbot) oder Formblattregister mit Genehmigungspflicht für Formulare, 4. Angabe von Zweck und rechtlicher Grundlage, 5. Verständlichkeit der Formulierung, 6. Angaben zur Weitergabe von Daten, 7. Angaben von Art und Ausmaß der Sanktionen bei Nicht- oder Falschausfüllung, 8. grundsätzliche Ausfertigung von Doppeln für die Betroffenen. Als zentrales Gestaltungsziel für Formulare benennt Tuner, dass diese in Bezug auf den Datenschutz als auch im Hinblick auf die Verständlichkeit so zu entwerfen seien, dass Informationsflüsse minimiert werden.

Hanns-Wilhelm Heibey, Bernd Lutterbeck, Sabine Rohlfs und Michael Töpel analysieren die Grundlagen und den Charakter moderner Informationsverarbeitung in Organisation und stellen fest, dass der EDV-Einsatz sich „stets im Rahmen der Informationsverarbeitung in organisatorischen Aufgabenlösungsprozessen“ vollziehe. Dabei seien Organisation „Systeme zur Lösung von Aufgaben“, umgesetzt durch arbeitsteilige Ausführung von Einzelaufgaben, wobei im Rahmen dieser Aufgabenlösungs-prozesse Informationsverarbeitung stattfinde. Gleichwohl bestehe trotz jahrelanger Diskussion „Unklarheit über zentrale Begriffe wie Information, Daten, Informationsverarbeitung und den Gegenstand, der geschützt werden soll“, d. h. das Schutzgut, wobei sie für die zentralen Begriffe auf Bekanntes zurückgreifen – syntaktische, semantische und pragmatische Ebene von Informationen, während Daten nur die syntaktische Ebene beschreiben – und zum Problem des Schutzgutes keine Ausführungen machen. Computereinsatz begünstige „Zentralisation [sic!] von Entscheidungskompetenzen an der Spitze der Organisationshierarchie“, und mit der „Standardisierung und Routinisierung von Aufgabenlösungsprozessen vermindert sich der Spielraum und damit auch die organisatorische Bedeutung der Dispositionsaufgaben der mittleren Entscheidungsinstanzen“. Es gebe eine „Tendenz zur Abnahme der Flexibilität bei der Anpassung an Umweltveränderungen“, einen Verlust an Transparenz und einen „»Glaube« an die Richtigkeit computerisierter Entscheidungen“. Im Ergebnis sehen die Autorinnen die Datenschutzdiskussion als mehr oder weniger gescheitert an. Dabei bleibt allerdings unklar, ob sie damit die Datenschutzrechtsdiskussion meinen, die bekanntlich kurz darauf in das BDSG mündete, oder die Datenschutzdiskussion im engeren Sinne.

Podlech erweitert seine Darstellung der „Aufgaben und Problematik des Datenschutzes“ um einige historische und gesellschaftstheoretische Aspekte. Während die entscheidende Leistung des Frühbürgertums gewesen sei, „gegen die feudale Rechtsordnung die Verwandlung menschlicher Arbeitskraft in die Warenform durchzusetzen“, sei die „Verwandlung der Information in die Warenform“ das Kennzeichen der postindustriellen Gesellschaft. Mit der „Verwandlung der Personen repräsentierenden Informationen in die Warenform werden Menschen über ihre Arbeit hinaus aller Möglichkeiten entfremdet, sich selbst, ihre Vergangenheit und ihre Zukunft frei in gesellschaftlicher Kommunikation darzustellen.“ Als notwendige Bedingung der Akzeptabilität des Informationsgebarens einer Gesellschaft für die Glieder der Gesellschaft bezeichnet Podlech „die Gewährleistung der Sicherheit und der Selbstdarstellungschancen.“ Neben die schon vorher formulierten Grundsätze – „Erhebungsverbot pragmatikfreier personenbezogener Informationen“, „Verbot der Zweckentfremdung erhobener personenbezogener Informationen“, „Löschungsgebot nicht mehr benötigter personenbezogener Informationen“ und „Verbot sektorübergreifender Informationskontrolle“ – stellt er drei neue: den „Grundsatz der Fremdkontrolle geheimdienstlicher Informationsübermittlung“, den „Grundsatz der Primärerhebung personenbezogener Informationen“ und den „Grundsatz des privaten Verwertungsverbotes personenbezogener Informationen“ mit dem Ziel der „Verhinderung der Verwandlung von Personen im sozialen Kontakt darstellenden Informationen in die Warenform und die Verhinderung der durch diese Verwandlung eintretenden Entfremdung.“ Abschließend zeigt er an Beispielen aus der jüngeren Geschichte die Notwendigkeit des Datenschutzes:

„Unberührt von dem skizzierten Lösungsmodell bleibt der Alptraum des Datenschutzes angesichts der inhumanen politischen Geschichte unseres Jahrhunderts. Man stelle sich vor, in den europäischen Staaten hätten seit Beginn unseres Jahrhunderts integrierte vollständige Informationssysteme der öffentlichen Verwaltung bestanden. Was wäre 1909 (Türkei), 1910 (Portugal), 1917 (Rußland), 1918 (Deutschland, Österreich-Ungarn), 1922 (Italien), 1925 (Portugal), 1931 (Zypern), 1933 (Deutschland), 1936 (Griechenland, Spanien), 1939 ff. (Europa, Nazifizierung), 1943/45 (Europa, Entnazifizierung), 1947 (Ostblockstaaten), 1950 (Türkei), 1956 (Ungarn), 1960 (Türkei), 1967 (Griechenland), 1968 (Tschechoslowakei), 1974 (Portugal, Griechenland), zusätzlich geschehen, wenn Bürger hinsichtlich ihres gesellschaftlichen Verhaltens so erfaßt gewesen wären, wie es solche Informationssysteme ermöglichen. Ich hege nicht die Zuversicht, daß dieser retrospektive Alptraum nicht eines Tages für Bürger ein prospektiver Alptraum werden könnte.“

In einer auf seiner Habilitationsschrift basierenden Arbeit „Der verfassungsrechtliche Schutz der Privatheit“ versucht Giselher Rüpke, das vom Persönlichkeitsrecht geschützte Rechtsgut, das er „Privatheit“ nennt und mit „privacy“ gleichsetzt, auf der Basis von Anleihen aus der Sozialpsychologie, der Symbol- und der Sprachtheorie zu bestimmen, vor allem auf der Basis des symbolischen Interaktionismus. Er unterscheidet zwischen Information und Kommunikation, wobei er Informationen als „bezogen auf Inhalte oder feststehende Bedeutungen“ und Kommunikation als „die in der je einzelnen sozialen Situation spezifische symbolische Vermittlung und der damit verbundene pragmatische Sinn“ betrachtet, um dann darauf aufbauend zwar nicht Privatheit zu bestimmen, aber zumindest dessen Funktion:

„Bei enger Bindung ist die Kommunikation außerhalb des »Kontextes«, der spezifischen sozialen Beziehung, nicht (voll) verständlich; Privatheit soll sehr wahrscheinlich gegen »Mißverständnisse« im weitesten Sinn, gegen Fehlinterpretation, Entstellung und gegen Umkehrung des pragmatischen Sinns, Entfremdung des symbolisch-immanent festgemachten »Zwecks« der Kommunikation schützen.“

Als Schutzgüter von Privatheit nennt Rüpke dann die „Spontaneität der Kommunikation“ gegen die „Kommunikationsteilhabe Außenstehender“, die Abwehr von erzwungener Vergemeinschaftung, also der „Aufzwingung eines Gesprächspartners“, sowie die Abwehr einer „Konfrontation mit Außenstehenden, die sich jedoch das für persönlich-vertraute Partnerschaft erforderliche Vorverständnis einseitig auf dem Umweg über die Kenntnisnahme der Sozialisations- und Lebensgeschichte des Betroffenen verschafft haben“, also die Abwehr einer „Usurpation einer Partnerstellung“. Seine ganze Konstruktion ist aber nur vorgeschoben, denn dahinter verbirgt sich nichts weiter als eine verklausulierte Sphärentheorie, nur eben eine, die weniger auf abrupten als vielmehr auf fließenden Übergängen zwischen den Sphären basiert: Wenn die Kommunikation weniger „persönlich“ sei, könne sie auch weniger geschützt sein. Und aus seiner Fehlwiedergabe der spezifischen Bezugnahme der frühen Datenschutzdiskussion auf die Rollentheorie – nicht Goffman, sondern Luhmann und damit Parsons – sowie der Fehlwiedergabe der Rollentheorie selbst – Rollenspiel wird von keiner Rollentheorie als „rigide“ unterstellt – folgt, dass er nicht verstehen kann, dass sein Ansatz selbst gegenüber den strukturalistisch-rollentheoretisch begründeten Ansätzen noch zu kurz greift: Mit der Rollentheorie in Verbindung mit dem Informationsbegriff der Semiotik kann jede Rolle, jede Kommunikation, jeder Kontext und jeder Zweck und deren jeweilige Eigenlogiken, Normen und Erwartungen gegen die Übergriffigkeit jeder anderen Rolle, jeder anderen Kommunikation, jedes anderen Kontexts und jedes anderen Zwecks als schutzbedürftig markiert werden.

In seiner Ende 1975 abgeschlossenen, von Spiros Simitis und Walter Schmidt begutachteten und 1977 veröffentlichten Dissertation „Zielfunktionen des Datenschutzes“ versucht Otto Mallmann die „allen Überlegungen über angemessene Schutzinstrumente notwendig vorgeschaltete Frage, [. . . ] was also Datenschutz gegen welche Gefahren schützen soll“, zu beantworten, denn:

„Meist begnügt man sich mit pauschalen Hinweisen auf die Privatsphäre, die es zu schützen gelte. Damit wird ein Konsens vorgetäuscht, der in Wahrheit gar nicht besteht.“

Gleichwohl bezieht sich auch Mallmann nachfolgend auf nicht mehr als die Privatsphäre, indem er in seiner Arbeit unterscheiden will zwischen „dem individuellen Interesse am Schutz der Privatsphäre und demjenigen an der Gewährleistung korrekter Information“.

Mit Verweis auf vorwiegend amerikanische Literatur sieht Mallmann einen „Strukturwandel personenbezogener Datenverarbeitung“, der sich einerseits in der „Erhöhung der gespeicherten Datenmenge“, andererseits in der „vermehrte[n] Datenzirkulation“ begründet. Darauf aufbauend versucht er, Privatsphäre zu bestimmen. Dabei folgt er weitgehend den Vorarbeiten von Westin, Shils und Habermas und beschreibt „Privatheit“, die er mit „Privatsphäre“ gleichsetzt, als „zentrale Kategorie liberalen Gesellschaftsverständnisses“, als Bereich, „in dem [der einzelne] frei, d. h. ohne staatliche Reglementierung über seine materiellen und immateriellen Ressourcen verfügen kann.“ Dazu gehören nach Mallmann „Geheimnisse“, „Intimsphäre“, „Respektabilität“ und „Individualismus“. Für die USA und die Bundesrepublik beschreibt er dann die Verrechtlichung des Privatsphärenschutzes. Das allgemeine Persönlichkeitsrecht diene, so Mallmann, neben dem Schutz der Ehre vor allem der Abschirmung der Privatsphäre.

Anschließend beschäftigt sich Mallmann mit der Begründung eines „informationsbezogenen, nicht allein auf eine räumliche Schutzzone abstellenden Privatheitsbegriffs“. Den für das Recht wegen der Relativität der Privatsphäre gewählten Anknüpfungspunkt des personenbezogenen Datums lehnt er dabei genauso ab wie das dem Recht auf informationelle Selbstbestimmung zugrunde liegende Modell uneingeschränkter Privatautonomie, denn er unterstellt, dass „[e]chte Möglichkeiten informationeller Selbstbestimmung [. . . ] nur in der Interaktion zwischen machtmäßig annähernd gleichgewichtigen Partnern“ bestehen. Darüber hinaus erklärt er es für kaum realisierbar, dem einzelnen die „Möglichkeit einer aktiven Steuerung der Verbreitung ihn betreffender Informationen zu ermöglichen“, und im übrigen wegen der damit einhergehenden „Überbetonung individueller Interessen“ auch nicht für wünschenswert. Stattdessen übernimmt er die Definition Müllers und will „Privatsphäre“ definieren als „ein je nach der individuellen und gesellschaftlichen Interessenkonstellation unterschiedlicher Bereich von Nicht-information über Individuen“. Allerdings:

„Die Entscheidung über Information oder Nichtinformation, d. h. über die jeweilige Zulässigkeit von Informationsverarbeitung, kann dabei weder prinzipiell vom Betroffenen – wohin aber die Konzeption informationeller Selbstbestimmungsrechte zielt – noch allein von den Informationsinteressenten – wie es weitgehend der bisherigen Praxis entspricht – getroffen werden. Vielmehr ist es Aufgabe der Rechtsordnung, auf Grund einer Untersuchung der jeweiligen Konfliktsituationen die Beziehungen zwischen dem einzelnen und staatlichen und privatwirtschaftlichen Informationssystemen vorzustrukturieren. [. . . ] Konturen gewinnt Privatheit erst auf Grund einer Analyse, die festzustellen hat, welche individuellen Interessen sie gegen welche Gefahren schützen soll.“

Diese Analyse will Mallmann derart durchführen, dass er – ohne dabei darauf zu verweisen, dass er hier einfach Westin folgt – „die Funktionen [untersucht], die Privatsphäre erfüllt, und die Konsequenzen, die sich für diese Funktionen jeweils aus einer verstärkten Transparenz des Individuums durch Datenverbundsysteme ergeben.“

Zu Beginn fragt Mallmann nach der Verwendbarkeit der soziologischen Rollentheorie für die Analyse des Datenschutzproblems. Nach dem interaktionistischen Rollenkonzept, das er der Analyse zugrunde legt, bleibt nur dann Raum für eine notwendige Rolleninterpretation durch das Individuum, „wenn die Interaktionspartner nicht schon erschöpfend informiert sind.“ Privatheit sei somit „Voraussetzung für ein flexibles, distanziertes Verhältnis zur Rolle.“ Mit Hilfe von „Computerdossiers“ würde jedoch die Rolle fixiert, Verhaltenserwartungen würden rigider und wenn die einzelne „den Grad der Informiertheit des anderen“ nicht mehr abschätzen könne, würde die „beim Rollenspiel bewußt oder unbewußt vorgenommene Kalkulation der Wirkung eigenen Verhaltens auf das Gegenüber [. . . ] entscheidend erschwert“. Mallmann behauptet, dass sich die Rollentheorie zwar eigne, „einige[] Konsequenzen von Datenverbund-systemen auf Individuum und Gesellschaft“ zu beschreiben, greife jedoch zu kurz, denn sie könne „[n]icht alle Gefahren [. . . ] adäquat beschreiben.“ Für diese Behauptung gibt er jedoch keine Begründung an, sondern verweist nur – quasi als Begründungsersatz – darauf, dass „die Rollen-theorie deshalb meist nur in Verbindung mit anderen Ansätzen verwendet“ werde. Auch als „Instrument rechtlicher Regelung, als Mittel zur Steuerung von Informationsflüssen“ sei die Rollentheorie zwar durchaus brauchbar, jedoch „für sich allein genommen nicht ausreich[end].“ „Hier können rollentheoretische Überlegungen nicht die Analyse des jeweiligen Verwendungszusammenhangs der Informationen und die Abwägung der beteiligten Interessen ersetzen.“ Insgesamt entsteht hier der Eindruck einer unzulässigen Vermischung der Frage nach der Funktion von Datenschutz für den Schutz des Individuums mit der Frage nach dem Ansatz für eine rechtliche Regelung.

Zweitens – und auch hier folgt Mallmann den Ausführungen Westins – reflektiert er die „unterschiedlichen Intensitätsgrade“ „intersubjektiver Beziehungen“ unter dem Titel „Intimität und Distanz“. Insoweit er sich auch hier in Goffmans Fußstapfen bewegt, behandelt er im Kern den inneren Ablauf des Rollenspiels – trotz der vorgenommenen Trennung im Aufbau des Textes. Auch Mallmanns dritter Abschnitt zu den Funktionen „der Privatsphäre“ – „Identität und Selbsteinschätzung“ – bezieht sich auf die rollentheoretische Beschreibung und Erklärung dieses inneren Rollenspiels, in diesem Fall auf den Prozess, in dem Individuen „sich selbst [. . . ] definieren, sich eine Identität [. . . ] schaffen.“ Viertens versucht Mallmann, das Verhältnis von „Privatheit“ und „Individualautonomie“ zu klären. Auch hierzu bedient er sich wieder ausführlich bei rollentheoretischen Ansätzen und Erklärungen und bleibt dabei eine Begründung für seine getrennte Betrachtung schuldig. In diesem Abschnitt beschäftigt er sich vergleichsweise ausschweifend mit den Folgen von „Überwachungsmechanismen“, die er als „Apathie und Anpassung“ identifiziert.

Im Ergebnis will Mallmann feststellen, dass „Privatheit [. . . ] eine Reihe essentieller Funktionen für die Gesellschaft und den einzelnen“ erfülle, und dass gerade ein Menschenbild, dass das Individuum als „gemeinschaftsbezogen und -gebunden ansieht“, „zugleich eine differenzierte gesellschaftliche Informationsstruktur“ bedinge. Aufgabe des Datenschutzes sei es, so Mall-mann, „Privatheit angesichts der von den modernen Informationstechnologien, aber auch von perfektionierten manuellen Systemen ausgehenden Gefahren zu gewährleisten“ – Datenschutz sei also nichts weiter als Privatheitsschutz.

Als zweite große Zielfunktion des Datenschutzes identifiziert Mallmann die „Gewährleistung von Richtigkeit und Vollständigkeit der Informationen“. In seiner Begründung für Korrektheit und Vollständigkeit als Schutzobjekt geht er über die im Rahmen der Datensicherungsdiskussion adressierten Aspekte hinaus und verweist auf die spezifische Rolle von Informationen für die Entscheidungsproduktion. „Entscheidung ist essentiell Informationsverarbeitung“, wobei maßgeblich für die Entscheidung „jeweils vom Entscheider herangezogene Informationen über den betroffenen einzelnen“ seien. Und diese Informationen könnten, so Mallmann, „wenn sie entsprechend aufbereitet [sind], die folgende menschliche Entscheidung präjudizieren.“ Gleichzeitig schwänden die „oft ohnehin bescheidenen Partizipations- und Einwirkungschancen des Betroffenen“, während gleichzeitig nicht über diesen entschieden würde, „sondern über sein Datenprofil“. Entscheidung sei dabei Produkt eines im voraus definierten und formalisierten Entscheidungsprozesses, der den Einwirkungsmöglichkeiten der Betroffenen entzogen wird und zugleich – zwar nur scheinbar, aber dafür sehr effektiv – nicht mehr der Verantwortlichkeit der Entscheiderinnen unterliegt. Datenschutz soll, so Mallmann, „in diesem Zusammenhang [. . . ] für die Betroffenen undurchsichtige Informations- und Organisationsstrukturen transparent [. . . ] machen“.

Insgesamt verschenkt Mallmann – von einigen wenigen Ausführungen im Abschnitt zur Korrektheit und Vollständigkeit von Informationen abgesehen – alle Möglichkeiten, in seiner Problemanalyse über den damaligen Stand der Debatte hinauszugehen – es handelt sich im Grunde um eine etwas erweiterte Übersetzung der Arbeit Westins, ergänzt um eine Fallstudie zu Kreditinformationssystemen.

Ende März 1977 fand in Hamburg das von Klaus Brunnstein organisierte Werkstattgespräch „Gesellschaftliche Auswirkungen großer Informationssysteme aus der Sicht verschiedener Disziplinen“ statt, auf dem Hansjürgen Garstka einen wegweisenden, jedoch nur sehr selten wieder aufgegriffenen Vorschlag für die verfassungsrechtliche, insbesondere grundrechtliche Einordnung der Informationsverarbeitung vorstellte: Er schlug vor, „den durch die Grundrechte geschützten Verhaltensraum auf die Informationen über diesen Verhaltensraum auszudehnen“, d. h. die informationelle Dimension der Grundrechte in den Bereich des Grundrechtsschutzes aufzunehmen und sie so bereichsspezifisch – eben grundrechtsbereichsspezifisch – zu konkretisieren.

Kurz nach dem Inkrafttreten des Bundesdatenschutzgesetzes 1978 erschien die für lange Zeit einzige umfassende Arbeit zur Implementierung von Datenschutz- und Datensicherungsmaßnahmen in Informationssysteme am Beispiel eines medizinischen „Informationssystems für Niedergelassene Ärzte“ (INA), die zugleich methodische Fragen des Verfahrens der Implementierung behandelte. Die Untersuchung entstand bereits 1974, wurde jedoch für die Veröffentlichung überarbeitet, auch im Hinblick auf das erlassene Bundesdatenschutzgesetz, auch wenn dieses nur eine „defiziente Teilmenge sinnvoller Datenschutzvorkehrungen“ mitbrachte. Ausgangspunkt für die Arbeit von Wilhelm Steinmüller, Leonhard Ermer und Wolfgang Schimmel ist die Feststellung, das Automation eine „formalisierungsbedingte Beseitigung von Handlungsspielräumen zwecks Rationalisierung, Leistungsvermehrung und Leistungserweiterung“ bedeute, und Informationsautomation zusätzlich eine „radikal erhöhte Transparenz (und damit Manipulation) sozialer Systeme zugunsten derjenigen, die über diese Informationssysteme zu Verfügungen berechtigt sind.“ Daraus folge, dass die Einbeziehung vorbestehender rechtlicher Schutzmechanismen in technische Abläufe „unter den Bedingungen maschinisierter Systeme neu realisiert werden“ müsse.

„[S]oziale Freiheit ist nunmehr nur noch möglich, wenn sie von vornherein in die Konstruktion der Informationssysteme eingeplant, auch mit den Mitteln der modernen Daten- und Kommunikationstechnologien technisch und organisatorisch abgesichert und schließlich in ihrem sozialen Umfeld rechtlich verankert und gewährleistet wird.“

Oder deutlicher als strukturalistisches Prinzip: „[Es kann] nur noch darum gehen, durch optimale Ausnützung der informationstechnischen und rechtlichen Möglichkeiten in die Informationssysteme Freiheitsspielräume neu zu implementieren [. . . ].“

Datenschutz sei dabei keine „Frage von Einzelmaßnahmen, erst recht nicht von lediglich technischen Vorkehrungen, sondern [eine Frage] der Optimierung der gesamten Systemorganisation im Hinblick auf übergeordnete Zwecke“. Die Formulierung einer geeigneten und angemessenen Datenschutzkonzeption mache dabei „wegen der ständig notwendig werdenden sprachlichen und sachlichen Grenzüberschreitung einen sehr erheblichen interdisziplinären Verständigungs-aufwand erforderlich [. . . ], namentlich was den Übergang von technischer Beschreibung zu organisatorischer Strukturierung und normativer Bewertung betrifft.“

Das für die Untersuchung gewählte Beispiel ist ein „riskantes“ Informationssystem. Riskante Informationssysteme seien dadurch charakterisiert, dass „eines oder mehrere ihrer Elemente besondere Gefahren für abgebildete Betroffene bergen“. Solche Elemente können etwa sein: „Daten“ – dabei sagen die Autoren aber an anderer Stelle zurecht: „Gefährlich sind nicht die Daten, sondern der Benutzer – und der Interessent.“ –, „Programme“ und „Umweltrelationen“, vor allem „bei »multifunktionalen« Systemen, die sehr verschiedenartigen Interessen dienen oder zu besonders mächtigen oder unkontrollierten Teilsystemen der Gesellschaft in Beziehung stehen“. Gestaltungsziele seien dann die Minimierung möglicher Gefahrenquellen, die Erzeugung von Transparenz und damit Kontrollierbarkeit der Systeme für Betroffene und Benutzerinnen sowie einerseits die Isolation des riskanten Systems von seiner Umwelt und andererseits dessen Verbindung mit dem Umsystem über „verantwortete Koppelungen“. Erst die Isolation der Systeme, deren Zuschneidung auf definierte Informationszwecke und die technische, rechtliche, organisatorische und personelle Absicherung dieser Isolation ermögliche es, „innerhalb der Systeme die Datenverarbeitung relativ unbelastet von Restriktionen“ zuzulassen, um damit zugleich hohe Effizienz wie einen hohen Schutz sicherzustellen.

Für die Übersetzung von rechtlichen Anforderungen in Gestaltungskriterien für Informationssysteme legen die Autoren zuerst die Annahmen über Datenverarbeitung und Datenschutz offen, die der Datenschutzdiskussion – und gerade auch der Datenschutzrechtsdiskussion – zugrunde gelegt wurden und werden, um darauf aufbauen erstens „unzureichende Datenschutzauffassungen zurückzuweisen“ und zweitens ihren eigenen Lösungsansatz zu skizzieren. Datenschutz sei „Kehrseite der Datenverarbeitung“ und „im Kern umfassende Informationskontrolle im Interesse und unter Beteiligung“ der Betroffenen durch „Normierung der Datenströme und -operationen (»Datenverkehrskontrolle« durch »Programmkontrolle«) sowie organisierte Transparenz des Systems“. Datenschutz sei dabei ein Organisationsproblem und „kein primär technisches Problem“, es sei „die organisatorische Antwort auf die durch die spezifische Leistung von Informationssystemen entstehenden spezifischen Gefahren.“ Für die im Informationssystem abgebildeten Betroffenen entstehe durch ihre Abbildung als Modelle und deren quasi unbeschränkte Nutzbarkeit zugunsten des „Systemherrn“ ein „Herrschaftsproblem“, das Hauptgegenstand der Datenschutzdiskussion sei. Dabei gehe die stärkste Gefährdung der Betroffenen – „entgegen vielfacher Auffassung“, auch heute noch – keineswegs von illegitimen Informationsinteressentinnen aus, sondern von legitimen Interessentinnen. Zu den von den Autoren als unzureichend identifizierten Ansätzen gehören der Schutz der „Privatsphäre“, das Schutzgut „personenbezogene Daten“ als Versuch der Überwindung des beschriebenen „Privatsphäre“-Problems, genauso wie das Konzept der „sensitiven Daten“ oder auch die „Verrechtlichung des Daten-verkehrs“ nebst seiner Varianten „Einwilligungstheorie“ und „Entfremdungstheorie“.

Der vorgeschlagene Lösungsansatz ergebe sich, so die Autoren, „aus der Kritik der bisherigen Ansätze unter Anwendung informationswissenschaftlicher Gesichtspunkte.“ Der Schutzbereich soll umfassend sein und alle Daten einbeziehen, nicht nur die personenbezogenen, ferner alle Arten von Datenverarbeitung, d. h. manuelle wie automatisierte, „alle Phasen, Formen und Prozeduren der Datenverarbeitung [. . . ], von der ersten Datenerfassung bis zur Löschung.“ Wichtigstes Ziel sei eine „von vornherein kontrollfreundliche Strukturierung“ des Systems. Dies werde erreicht durch „Programmkontrolle“:

„Da die Maschinisierung geistiger Funktionen durch die ADV sich in den Algorithmen (Programmen) verkörpert, liegt auch hier der Kern des Schutzes; Programmkontrolle ermöglicht die Nachprüfbarkeit aller Datenverarbeitungsprozesse; Datenflüsse werden durch Programme geregelt, sie sind die Verkehrswege der Daten im Informationssystem.“

Hinzu käme eine „kompetenzorientierte Datenverarbeitung“, die sicherstellen müsse, dass „das Minimum an legitimen Benutzern das legitime Minimum and Informationen verarbeitet und weitergibt“. Flankierend müssten die „Möglichkeiten der Datensicherung [. . . ] in den Dienst des Datenschutzes gestellt werden“, etwa die eindeutige Zuordenbarkeit von „Daten zu Kompetenzen, Kontexten und Benutzern“ und deren Absicherung sowie technische Sicherungen gegen ungenehmigte Programme und Programmänderungen. Die Phasen seien so zu organisieren, „daß sie auch in ihrer Interaktion transparent bleiben.“ Gleiches gelte auch für die Arbeitsteilung zwischen Informationsorganisation und ärztlicher Tätigkeit. Zur Stabilisierung der Transparenz bedürfe es einer funktionierenden Fremdkontrolle zusätzlich zur informationstechnischen und organisatorischen Festschreibung von „Datenbedarf und Datenverkehr“ durch eine unabhängige Instanz, „die diese Fixierung überwacht und die notwendigen Veränderungen legitimiert“, mit Sachkunde, fehlendem Eigeninteresse, weisungsfreier Stellung und angemessener Ausstattung. Die Autoren verpassen in diesem Zusammenhang die Chance, über eine technische Absicherung der Kontroll- und Abwehrrechte der Betroffenen sowie der Kontrollrechte der Aufsichtsorgane zu reflektieren, und verweisen stattdessen nur darauf, dass „eindeutige technische, organisatorische und rechtliche Verantwortungen [dafür] getroffen werden müssen.“ Die allgemeinen Ausführungen zum Lösungsansatz werden anschließend in zehn INA-bezogene Datenschutzpostulate überführt, von denen nur einige sich nicht schon in der vorhergehenden Darstellung wiederfinden, wie etwa die Ausdehnung der Abschottung auf Empfängersysteme, aus dem das Verbot einer Datenweitergabe „ohne Nachweis von für diesen Informationskontext ausreichenden Datenschutzvorkehrungen im und durch das Empfängersysteme“ folgt, oder das Postulat der definierten Struktur – nicht im Sinne einer statischen Festschreibung, sondern zur Erschwerung nicht verantworteter und nicht definierter Änderungen am System.

Mit dem Ziel einer „möglichst vollständigen Abschottung des Systems nach außen“ bei gleichzeitig „optimale[r] Bereitstellung von Informationen für übergeordnete gesundheitspolitische und allgemeine Planungszwecke sowie für die wissenschaftliche Forschung“ wird anschließend ein Datenschutzkonzept vorgestellt, das vor allem auf konsequenter Pseudonymisierung aller verarbeiteten Daten – sowohl von Patientinnen wie von Ärztinnen – verbunden mit einer an unter-schiedlichen Informationsinteressen ausgerichteten Rollentrennung basiert und sowohl definierte Verantwortlichkeiten schafft und diese personell zuweist als auch ein Kontroll- und Freigabeorgan institutionalisiert, mit dem zugleich die Entwicklungsoffenheit des Systems sichergestellt werden soll. Die Autoren weisen dabei explizit darauf hin, dass wegen der „Transformierbarkeit der Datenkategorien“ die vorgelegte Lösung mittels Pseudonymisierung nur „bei entsprechender Programmkontrolle und Abschottung (und nur dann)“ datenschutzkonform sei. Für kontext- und zweckabhängige Informationen – exemplarisch genannt werden Diagnosen für verschiedene Zwecke wie Überweisungen, Nachweise für Arbeitgeberinnen oder Gerichte – schlagen die Autoren vor, zusammen mit den Informationen den Herkunftskontext zu speichern. Andererseits wird im Zusammenhang mit der Beschreibung der Programmkontrolle deutlich, welchem (Fehl-)Verständnis die Autoren hinsichtlich von Programmen unterliegen: Sie imaginieren Programme als technische Implementation von (vorher abschließend definierten) „Arbeitsabläufen“ und können (nur) aus diesem Grund für ihr Datenschutzkonzept annehmen, dass „[f]ür Patienten und Arzt gefährliche Datenoperationen [. . . ] nur durch unerlaubte Datenverarbeitung entstehen“ kann, nämlich entweder durch „unerlaubten Gebrauch genehmigter Programme“ oder durch „unerlaubten Gebrauch ungenehmigter Programme“. Ein besonderer Schwerpunkt in der Darstellung des Datenschutzkonzepts wird auf die „Interessenten“ gelegt, d. h. systemexterne Informationssysteme.  Das Prinzip der Abschottung erfordere eine vollständige Definition aller Schnittstellen des Systems, während jedoch INA als multifunktionales System, das selbst wiederum in ein komplexes System – das Gesundheits- und Sozialwesen mit Versorgung, Vorsorge und Gesundheits- und Sozialpolitik – eingebettet ist, in dem verschiedene widerstreitende Interessen aufeinandertreffen und viele – gerade auch konkurrierende – davon gesetzlich oder vertraglich normiert sind. Die Autoren schlagen daher eine „Interimslösung“ vor, eine dem schwedischen „datalag“ entsprechende „Institutionalisierung von »trial and error«“, die für INA Erfahrungen mit den Informationsinteressentinnen sammeln, allgemeine Regelungen entwerfen und vorschlagen, „Einzelfallprobleme [. . . ] auf ihren generellen Hintergrund [. . . ] durchdenken und [. . . ] lösen“, Datenschutzmaßnahmen bei Interessentinnen durchsetzen, „Transmitterstelle für legitime externe Datenwünsche und ihre kontrollierte Befriedigung“ sein soll und dabei „wegen ihres geringen Fixierungsgrades hoch adaptiv“ sei. Informationsinteressentinnen müssten dabei gegenüber INA den Nachweis führen, dass sie „nur berechtigte Operationen mit der berechtigten Datenmenge vornehmen“ werden und dass ihre Informationssysteme „eine datenschutzkonforme Organisation“ aufweisen.

Das in der Untersuchung entwickelte Datensicherungskonzept ist explizit als „datenschutzorientiert“ ausgewiesen, indem unter „Datensicherung“ auch „alle Maßnahmen technischer wie organisatorischer Art zur Realisierung des beabsichtigten Datenschutzes“ verstanden werden sollen. Die im Datenschutzkonzept problematisierten Verarbeitungen und Verwendungen von Daten, „die das Persönlichkeitsrecht der Betroffenen gefährde[n] oder verletzen“ können, werden mit anderen unberechtigten Verwendungen von Daten, Programmen und Rechenzeit unter dem Begriff „Mißbrauch“ zusammengefasst. Die Maßnahmen zielen dabei darauf ab, sowohl die Eintrittswahrscheinlichkeit von Gefahrenereignissen zu verringern als den eingetretenen Schaden dabei so gering wie möglich zu halten sowie einen Wiederanlauf des Systems im Schadensfall, eine nachträgliche Revision und die Aufdeckung von Fehlern oder Missbräuchen zu ermöglichen.

Die Arbeit ist in der Forschung weitgehend unbeachtet geblieben, gerade auch in der Informatik. Vor allem wurde sie nie einer grundlegenden Kritik unterzogen. Dies ist umso misslicher, als sich in ihr kondensiert die Annahmen wiederfinden, die in der ersten Phase der Datenschutzdiskussion prägend waren für die Gestaltung des Datenschutzrechts, das bis heute eine starke architektonische Kontinuität gewahrt hat.

Mit dem Beschluss und dem Inkrafttreten des Bundesdatenschutzgesetzes endete eine Ära – die Ära der intensiven Diskussion über die Beschreibung, Einordnung, Begründung und „Lösung“ des Datenschutzproblems als gesellschaftlichem Problem. Stattdessen konzentrierte sich die Diskussion nunmehr in erster Linie auf Anwendungs- und Auslegungsprobleme. Dabei wird insbesondere die Frage, inwieweit das Bundesdatenschutzgesetz überhaupt eine Lösung des gesellschaftlichen Datenschutzproblems darstellt, weitgehend ausgeklammert. Diese grundlegende Tendenz der Neuverortung der Diskussion zeigt sich auch in den beteiligten Akteurinnen: Die überwiegende Mehrheit wendet sich den Anwendungsproblemen zu und geht in die Praxis, sei es in die entstehenden Datenschutzaufsichtsbehörden oder die anwaltliche Praxis, einige verlagern den Schwerpunkt ihrer Arbeit, etwa hin zur Verwaltungsinformatik, und nur wenige – wie Podlech und Steinmüller – halten die Grundsatzdiskussion am Laufen, nicht zuletzt mit dem Ziel, die im Laufe der 1970er Jahre in der wissenschaftlichen Debatte aufgeworfenen grundsätzlichen Probleme noch datenschutzrechtlich „lösen“ zu können, denn das meiste davon wurde vom Gesetzgeber ignoriert.

Dem umfangreichen Material, das Werner Liedtke seiner rechtssoziologischen Untersuchung des Gesetzgebungsprozesses zum Bundesdatenschutzgesetz analysiert hat, zufolge hat sich die Gesetzgebungsdebatte offensichtlich zwischen 1972 und 1974 von der wissenschaftlichen Debatte entkoppelt – sie wurde einerseits hochgradig selbstreferenziell, andererseits jedoch auch stark beeinflusst von den Interessen von Privatwirtschaft und Verwaltung, deren Lobbies schon damals hervorragenden Zugriff auf den Gesetzgeber sowie die zuarbeitende Ministerialbürokratie hatten. Allein die Tatsache, dass das von Herbert Auernhammer geleitete Referat im Bundesministerium des Innern Steinmüllers Gutachten „Grundfragen des Datenschutzes“ zur Grundlage der Regelungsarchitektur des Bundesdatenschutzgesetzes machte, verhinderte die völlige Unwissenschaftlichkeit von Problemanalyse und gesetzlicher Regelung als „Lösung“ dieses Problems, wie es etwa noch für das erste Hessische Landesdatenschutzgesetz kennzeichnend war. Dennoch bleibt festzuhalten, dass das BDSG in erster Linie eine gesetzliche Festschreibung der bestehenden vermachteten Informationsordnung, d. h. der „freiheitsbedrohende[n] gesellschaftliche[n] Tendenzen zur absoluten Kontrolle fast aller durch wenige“, war. Und selbst wenn das Gesetz eine geeignete Basis zur Adressierung des gesellschaftlichen Datenschutzproblems darstellte, war damit keineswegs sichergestellt, dass nicht durch passende Auslegung der Schutz, den das Gesetz hätte bieten können, unterminiert wurde. Dennoch sind zumindest einige der offenkundigsten Lücken in späteren Novellierungen, vor allem nach dem Bundesverfassungsgerichtsurteil zur Volkszählung, geschlossen worden.

Jörg Pohle; Humboldt-Universität zu Berlin; 2019

Open-Access-Erklärung: https://edoc-info.hu-berlin.de/de/nutzung/oa_hu

https://edoc.hu-berlin.de/handle/18452/19886

Zur leichteren Lesbarkeit wurden die Quellenverweise entfernt. Bei Interesse finden Sie sie im obigen Link.

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.

Swiss Infosec AG; 28.05.2021

Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch


© Swiss Infosec AG 2024