Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Robot Recruiting

04/2023

Die Haftung des Arbeitgebers für Persönlichkeitsverletzungen beim Einsatz von Künstlicher Intelligenz im Bewerbungsprozess

I. Einleitung

Wie findet man am effizientesten den perfekt geeigneten Mitarbeiter? Diese Frage stellt sich täglich für Arbeitgeber weltweit – und endlich scheint dank modernster Technologie eine befriedigende Antwort in Sicht. Seit Jahren tüfteln Wissenschaftler bereits an Künstlicher Intelligenz («KI») und können dabei kontinuierlich neue Erfolge vorweisen.  Nun scheint der Zeitpunkt gekommen zu sein, KI auch ins Arbeitsumfeld zu integrieren. Angeregt wurde diese Entwicklung mitunter durch die Covid-19-Pandemie, welche eine grundsätzliche Umverteilung auf dem Arbeitsmarkt bewirkte. Viele Arbeitgeber haben heutzutage Mühe, gut ausgebildetes Personal zu finden – und dies nicht nur bei notorisch knappen Fachkräften wie Pflegenden oder IT-Spezialisten. Gleichzeitig fehlt dem Arbeitgeber häufig die Zeit, langwierige Bewerbungsprozesse durchzuführen. Was wäre deshalb einfacher, als ein zuverlässiges Computerprogramm die Suche nach passenden Angestellten übernehmen zu lassen?

So gut diese Lösung auf den ersten Blick erscheint, eine gewisse Vorsicht ist dennoch angebracht. Denn der Einsatz einer KI bietet eigene Risiken, für welche der Arbeitgeber allenfalls einzustehen hat. Im Folgenden wird zuerst dargestellt, wo KI heute und zukünftig im Bewerbungsprozess eine Rolle spielen kann, bevor in einem zweiten Schritt aufgezeigt wird, wann ein Arbeitgeber grundsätzlich im Bewerbungsprozess haftet. Ausgestattet mit diesem Wissen wird anschliessend die zentrale Frage, wann ein Arbeitgeber für den Einsatz oder eine Handlung der KI haftbar gemacht werden kann, im Detail analysiert.

II. Der Einsatz von KI im Bewerbungsprozess

1. Definition von KI

Die Wissenschaft befasst sich seit längerem mit der Entwicklung von KI, welche mit Hilfe von Computersystemen menschliche Denk- und Verhaltensweisen simuliert. Dies geschieht durch die Verarbeitung grosser Mengen an eingespeisten Trainingsdaten, welche es dem IT-System erlauben, Muster und Korrelationen zu erkennen und diese auf zukünftige Sachverhalte anzuwenden – kurz gesagt, die KI ist ein lernfähiges Computersystem.

2. Status quo

Bereits relativ etabliert ist der Einsatz von KI bei Personalvermittlungen und Personalverleihern. Während Arbeitnehmer ihre Lebensläufe und Arbeitszeugnisse online in einem Nutzer-Profil auf der entsprechenden Plattform hochladen können, wenden sich Arbeitgeber mit ihren Stellenangeboten sowie ihren Auswahlkriterien an den Betreiber der digital ablaufenden Stellenvermittlung. Der Algorithmus der Plattform sucht nun für jede ausgeschriebene Stelle den am besten geeigneten Kandidaten und lädt diesen automatisch zur Bewerbung ein. So erhält der Arbeitgeber nur auf die Ausschreibung zugeschnittene Bewerbungen von einigen wenigen Kandidaten, die alle (objektiven) Voraussetzungen erfüllen.

Der Arbeitgeber kann auch selbst eine Software einsetzen, welche alle eingehenden Bewerbungen automatisch analysiert und eine Selektion anhand definierter oder von der KI gelernten Kriterien vornimmt. In den USA sind bereits KI-Systeme im Einsatz, die Bewerbungsvideos anhand von Körpersprache und Mimik analysieren und basierend darauf Persönlichkeitsprofile erstellen. In der Schweiz ist diese Vorgehensweise bisher sehr umstritten. Unterhält der Arbeitgeber ein eigenes Stellenportal im Internet, kann eine KI auch in Form von Chatbots mit potentiellen Bewerbern agieren und gestellte Fragen beantworten. Nach Eingang der Bewerbungen kann die KI für den Arbeitgeber Fragen für Vorstellungsgespräche entwickeln oder diese sogar mittels Chatfunktion selbst führen.

3. Ausblick in die Zukunft

Heute würde noch kaum ein Arbeitgeber eine längerfristige Stelle einzig aufgrund der Empfehlung einer KI besetzen. Der persönliche Eindruck über den Charakter, die Motivation und die sozialen Kompetenzen der Bewerbenden wird von Arbeitgebern nach wie vor als sehr wichtig eingestuft. Dies kann sich aber in Zukunft durchaus ändern, denn das Potential von KI als Rekrutierungsinstrument ist noch lange nicht ausgeschöpft. Die Technologie entwickelt sich stetig weiter und es können sicherlich noch weitere Anwendungsmöglichkeiten für KI gefunden werden. Möglich wäre beispielsweise die Verhaltensanalyse von Bewerbern, welche mit spezifisch zugeschnittenen Problemen und Aufgaben konfrontiert werden. Im Extremfall wird künftig der gesamte Bewerbungsprozess von der Stellenausschreibung über das Bewerbungsgespräch bis zur Endentscheidung von einer KI gesteuert, ohne dass der Arbeitgeber selbst direkt je Einfluss genommen hat.

4. Möglichkeiten der Persönlichkeitsverletzung

Es sind einige Szenarien vorstellbar, in welchen der Einsatz von KI im Bewerbungsprozess zu einer Persönlichkeitsverletzung führen könnte. Beispielsweise werden gewisse Stellenangebote durch die Vorselektion der KI nur noch wenigen, den Kriterien entsprechenden Personen angezeigt. In den Medien präsent ist weiter die Ablehnung geeigneter Bewerber durch eine KI, welche basierend auf Stichwörtern und vorgegebenen Kriterien die Bewerbungsschreiben sortiert. Eine Studie der Harvard Business School kam zum Schluss, dass allein im Jahr 2021 ungefähr 27 Millionen Bewerbungsschreiben von den genutzten Softwares der Arbeitgeber in einer Vorselektion aussortiert wurden, obwohl es sich um brauchbare Bewerber gehandelt hätte. Diese Vergeudung an Arbeitspotential ist bedauerlich, stellt jedoch noch keine Persönlichkeitsverletzung dar. Der Bewerbende hat schliesslich kein Recht auf eine Anstellung, nur weil er objektiv alle Kriterien der Stellenbeschreibung zu erfüllen vermag. Ausserdem kann es auch bei einer menschlichen Triage dazu kommen, dass brauchbare Bewerbungen einer Vorselektion zum Opfer fallen.

Problematisch hingegen ist eine Selektion der KI basierend auf diskriminierenden Kriterien. Die KI stützt ihre Entscheidungen dabei auf die unabsichtliche oder absichtliche Reproduktion von Vorurteilen, welche durch die eingespeisten, ihr zum Lernen dienenden Daten beigebracht werden. Schlagzeilen machte in dieser Hinsicht beispielsweise das eingesetzte KI-System der Firma Amazon. Dieses lernte aufgrund der getroffenen (menschlichen) Entscheidungen der letzten zehn Jahre, dass in der Technikbranche männliche Bewerber dominieren. Daraus lernte die KI, die Bewerbungen von weiblichen Arbeitsuchenden im Ranking herabzustufen und im Endeffekt abzulehnen. Auch in anderen Branchen kann diese Gefahr bestehen, wenn die KI lernt, auf längere Lücken im Lebenslauf zu achten, welche Frauen im traditionellen Familienbild aufgrund von Kinderbetreuung häufig aufweisen dürften. Die Diskriminierung durch KI muss sich aber nicht zwangsläufig auf das Geschlecht fokussieren, es gab leider in den vergangenen Jahren auch viele weitere Fälle von insbesondere rassistischen und altersdiskriminierenden Vorgehensweisen von KI-Systemen.

Weiter wäre eine Persönlichkeitsverletzung auch möglich als Folge von unzulässigen, von der KI generierten Bewerbungsfragen, welche in die grundrechtlich geschützten Arbeitnehmerinteressen eingreifen. Dies ist ein Problem vieler auf Algorithmen basierenden Persönlichkeitstests, insbesondere wenn die (Nicht-)Beantwortung solcher Fragen am Ende den Selektionsprozess beeinflusst. Zu beachten sind für den Arbeitgeber je nach eingesetztem KI-System auch die betreffenden Datenschutzregelungen. Problematisch ist insbesondere eine selbstständige, weiterführende Recherche der KI über die Bewerbenden im Internet und den sozialen Medien. Dies kann zu einer Sammlung von Personendaten führen, welche für die Eignungsabklärung der betreffenden Person für die ausgeschriebene Stelle nicht mehr relevant ist und damit eine Verletzung der Datenbearbeitungsgrundsätze darstellen kann.

III. Haftung des Arbeitgebers für Persönlichkeitsverletzungen im Bewerbungsprozess

Der Bewerbungsprozess wird in der Regel durch eine als invitatio ad offerendum zu qualifizierende Stellenausschreibung des Arbeitgebers eingeleitet. Mit der Bewerbungseinreichung tritt der Arbeitsuchende somit erst in ein Vertragsverhandlungsverhältnis. Während des Bewerbungsprozesses können sich die Arbeitsuchenden als Konsequenz noch nicht auf die im Arbeitsvertragsrecht und Arbeitsgesetz festgehaltenen Pflichten des Arbeitgebers zum Schutz ihrer Persönlichkeit berufen. Stattdessen werden die Persönlichkeitsrechte der Parteien in der Bewerbungsphase durch die nachfolgend dargestellten Regelungen geschützt.

Abgesehen von den in den entsprechenden Rechtsnormen gesetzlich verpönten Auswahlkriterien gilt jedoch die allgemeine Vertragsfreiheit. Der Arbeitgeber ist nicht verpflichtet, bei der Bewerbungsauswahl auf sachliche, objektiv nachvollziehbare Kriterien abzustellen.

1. Allgemeiner Persönlichkeitsschutz

a. Art. 28 ZGB

Das in Art. 28 ZGB statuierte Verbot widerrechtlicher Persönlichkeitsverletzung schützt die Persönlichkeitsrechte der Arbeitssuchenden in all ihren Ausprägungen, vom Recht auf Schutz der Privatsphäre bis zum Schutz vor Alters- oder Rassendiskriminierung. Die Widerrechtlichkeit der Verletzung eines Persönlichkeitsrechts liegt vor, falls sich der Arbeitgeber nicht auf ein überwiegendes Interesse berufen kann.

Allerdings muss die Frage aufgeworfen werden, was die Berufung auf Art. 28 ZGB einem in seiner Persönlichkeit verletzten Stellensuchenden praktisch tatsächlich nützt. Ein Anspruch auf Anstellung lässt sich aus einer Verletzung von Art. 28 ZGB wohl nicht ableiten. Dies wäre ein erheblicher Eingriff in die Vertragsfreiheit und kann nicht als zulässig erachtet werden. Ein allfälliger Anspruch auf Schadenersatz wird regelmässig auch nicht über die angefallenen direkten Kosten einer Bewerbung hinausgehen – deswegen ein Verfahren einzuleiten erscheint kaum lohnenswert. Möglich (aber in den wenigsten Fällen wohl tatsächlich erfolgsversprechend) wäre ein Anspruch auf Genugtuung bei einer schwerwiegenden Persönlichkeitsverletzung. Die Rechtsbehelfe von Art. 28 ZGB werden sich demgemäss in den meisten Fällen als wenig hilfreich erweisen.

b. Treu und Glauben

Art. 2 Abs. 1 ZGB verlangt vom Arbeitgeber ein Verhalten nach Treu und Glauben. Diese Generalklausel kann ausgelegt eine immense Fallrelevanz aufweisen. Im Bewerbungsprozess geschieht dies insbesondere in Fällen einer quasivertraglichen Haftung aus culpa in contrahendo. Bei einem Verstoss gegen das Gebot von Treu und Glauben im Vertragsverhandlungsverhältnis kann ein Geschädigter Anspruch auf den Ersatz des Schadens erheben, welcher ihm aus dem von der Gegenpartei erweckten Vertrauen auf das Zustandekommen eines Vertrags erwachsen ist. Die Gerichte zeigen sich jedoch sehr streng bei der Beurteilung, ob die Voraussetzungen für eine culpa in contrahendo vorliegen. Zusätzlich mindern die vergleichsmässig geringen Schadensummen sowie die bundesgerichtliche Rechtsprechung, analog zur deliktischen Haftung in Art. 60 OR für die culpa in contrahendo die kurze Verjährungsfrist von drei Jahren anzuwenden, für Bewerber regelmässig den Anreiz zu klagen. Nichtsdestotrotz kann die Haftung aus culpa in contrahendo den Arbeitgeber im Einzelfall treffen.

2. Das arbeitsrechtliche Diskriminierungsverbot

Erteilt der Arbeitgeber einem Bewerbenden eine Absage, hat der Arbeitssuchende grundsätzlich kein Recht auf eine Begründung. Sollte der Arbeitgeber jedoch trotzdem einen spezifischen Grund für den negativen Entscheid nennen, darf diese Begründung nicht gegen ein gesetzlich verankertes Diskriminierungsverbot verstossen.

a. Erscheinungsformen der Diskriminierung

Eine Diskriminierung ist gemäss bundesgerichtlicher Rechtsprechung eine qualifizierte Ungleichbehandlung von Personen in vergleichbaren Situationen, indem sie eine Benachteiligung von Menschen bewirkt, die als Herabwürdigung oder Ausgrenzung einzustufen ist. Dies geschieht, indem an Unterscheidungsmerkmalen anknüpft wird, die einen wesentlichen und nicht oder nur schwer aufgebbaren Bestandteil der Identität der betroffenen Personen ausmachen. Wenn ein Rechtsakt ohne hinreichende Rechtfertigung an ein sensibles Persönlichkeitsmerkmal anknüpft, wird von einer direkten Diskriminierung gesprochen. Eine indirekte, oft schwierig zu beweisende Diskriminierung liegt hingegen vor, wenn eine Regelung, die keine offensichtliche Benachteiligung von spezifisch gegen Diskriminierung geschützter Gruppen enthält, in ihren tatsächlichen Auswirkungen Angehörige einer solchen Gruppe ohne sachliche Begründung besonders stark benachteiligt.

b. Völkerrechtliche Diskriminierungsverbote

Diskriminierungsverbote finden sich in zahlreichen völkerrechtlichen Abkommen, so beispielsweise im UNO-Menschenrechtsübereinkommen, in der EMRK oder in den ILO-Übereinkommen. Die von der Schweiz ratifizierten Abkommen auferlegen dem Gesetzgeber die Pflicht, innerstaatlich einen wirksamen Schutz vor der Diskriminierung verschiedener Persönlichkeitsmerkmale zu gewährleisten. Damit ist der primäre Adressat dieser völkerrechtlichen Pflichten der Staat, wodurch die arbeitsrechtlich relevanten Diskriminierungsverbote auf private Arbeitgeber lediglich eine indirekte Drittwirkung entfalten.

c. Verfassungsrechtliches Diskriminierungsverbot

Um sowohl den völkerrechtlichen Ansprüchen gerecht zu werden als auch die bisherige richterliche Rechtsprechung zu kodifizieren, wurde im Jahr 1999 nach dem Gleichheitsgebot in Art. 8 Abs. 2 BV ein Diskriminierungsverbot in der Bundesverfassung festgehalten. Dieses verbietet jegliche Diskriminierung aufgrund einer Reihe nicht abschliessend aufgezählter Merkmale wie beispielsweise der Herkunft, des Geschlechts oder des Alters. Beim verfassungsrechtlichen Diskriminierungsverbot handelt es sich um ein Grundrecht, welches sich in erster Linie wieder an den Staat sowie an Institutionen, welche staatliche Aufgaben verrichten, richtet. Die staatlichen Behörden haben zwar grundsätzlich für die Wirksamkeit der Grundrechte auch unter Privaten zu sorgen. Durch den Konflikt zwischen dem Diskriminierungsverbot in Art. 8 Abs. 2 BV einerseits und der aus Art. 27 BV abgeleiteten Vertragsfreiheit andererseits wird eine Privatperson aufgrund der fehlenden direkten Drittwirkung vor Gericht einen schwierigen Stand haben, wenn allein gestützt auf Art. 8 Abs. 2 BV oder eine internationale Vereinbarung eine Diskriminierung im Bewerbungsprozess geltend gemacht wird.

d. Gesetzliches Diskriminierungsverbot

Neben den bereits erwähnten Bestimmungen in Art. 2 ZGB sowie Art. 28 ZGB wurde das Diskriminierungsverbot während des Bewerbungsprozesses vom Gesetzgeber insbesondere im Gleichstellungsgesetz umgesetzt. Dieses statuiert ausdrücklich, dass niemand aufgrund des Geschlechts vom Zugang zu Arbeitsstellen ausgeschlossen oder benachteiligt werden darf. Gerechtfertigt sein können Ausnahmen, wenn das Geschlecht selbst ein essentielles Merkmal der ausgeschriebenen Arbeit darstellt oder untrennbar mit der Erreichung eines rechtmässigen Arbeitsziels verknüpft ist. Eine bewerbende Person, welche sich ernsthaft um eine Stelle bemüht und aufgrund einer (in-)direkten Geschlechterdiskriminierung eine Absage erhält, hat Anspruch auf eine Entschädigung. Dazu muss die betroffene Person die Diskriminierung beweisen, ohne dabei von der für die meisten Diskriminierungstatbestände vorgesehenen Beweislasterleichterung profitieren zu können. Immerhin kann gestützt auf das Gleichstellungsgesetz vom Arbeitgeber eine schriftliche Begründung des negativen Entscheids verlangt werden. Zu beachten ist auch, dass das Diskriminierungsverbot in Art. 3 GlG bei einem Stelleninserat noch keine Anwendung findet. Es darf also theoretisch eine Stelle geschlechterspezifisch ausgeschrieben werden.

3. Datenschutz

Eine weitere Haftungsgrundlage für eine Persönlichkeitsverletzung kann sich aus dem Bundesgesetz über den Datenschutz ergeben. Dabei erweisen sich insbesondere die Datenbearbeitungsgrundsätze als relevant. Diese umfassen unter anderem die Rechtmässigkeit und Verhältnismässigkeit der Datenbearbeitung, ein Verhalten nach Treu und Glauben, das Zweckbindungsgebot, die Erkennbarkeit der Beschaffung und des Bearbeitungszwecks sowie die Datenrichtigkeit und -sicherheit. Das Bundesgericht kam vor kurzem in einer Abkehrung von der bisherigen Praxis zum Schluss, dass Art. 328b OR, welcher vorsieht, dass sich jegliche Datenbearbeitung durch den Arbeitgeber auf die Eignung für das Arbeitsverhältnis einzuschränken hat, ebenfalls als Bearbeitungsgrundsatz zu qualifizieren ist. Dies bedeutet, dass eine gegen Art. 328b OR verstossende Datenbearbeitung zwar rechtswidrig ist, sich allenfalls aber auf einen Rechtfertigungsgrund gemäss Art. 13 DSG stützen kann.

4. Das Verbot automatisierter Einzelentscheidungen

Wenn Entscheide, welche rechtliche Konsequenzen für die betroffenen Personen haben oder sie sonst in wesentlicher Weise beeinträchtigen, statt von einer Person durch ein algorithmusbasiertes System getroffen werden, spricht man von automatisierten Einzelentscheiden. Problematisch an solchen sind insbesondere die Entscheidfindungen anhand statischer Angaben, Berechnungen und schlussendlich eines Persönlichkeitsprofils (sog. Profiling). Verschiedene Nachbarländer der Schweiz sowie die EU haben Vorschriften zur Zulässigkeit solcher automatisierter Einzelentscheidungen erlassen. Der Schweizer Gesetzgeber plant nun im nDSG immerhin die Einführung einer Informationspflicht bei einer automatisierten Einzelentscheidung.

5. Zwischenfazit

Von praktischer Relevanz im Hinblick auf die Haftung des Arbeitgebers im Bewerbungsprozess sind für den Geschädigten hauptsächlich die Bestimmungen des Gleichstellungsgesetzes sowie allenfalls Art. 28 ZGB und die culpa in contrahendo. Diese Gesetzesbestimmungen sollen jedoch in erster Linie einen Schutz gegen ein rechtswidriges Verhalten des Arbeitgebers bieten. Was bedeutet es nun allerdings für diese Haftungsgrundlagen, wenn die Selektion der Bewerbenden nicht vom Arbeitgeber selbst, sondern durch eine KI vorgenommen wird?

IV. Haftung des Arbeitgebers für Handlungen der KI?

In der Schweiz gibt es heute noch keine explizite gesetzliche Regelung für die Haftung bei KI-Einsätzen. Eine interdepartementale Expertengruppe des Bundes kam sodann vor Kurzem zum Schluss, dass die bestehenden Rechtsnormen ausreichen würden, um sämtliche durch den Einsatz von KI beeinflussten Situationen rechtlich abzudecken. Diese Einschätzung wird in der Lehre jedoch zu Recht angezweifelt. Einem «gewöhnlichen» Roboter mangelt es an der Rechts- und Handlungsfähigkeit, womit er keine eigene rechtswirksame Willenserklärung abgeben kann. Solche Erklärungen und Handlungen sind dementsprechend einem Menschen zuzuordnen. Eine KI hingegen zeichnet sich dadurch aus, dass sie die Fähigkeit hat, aus eingespeisten Daten zu lernen und aus den daraus gezogenen Schlüssen mit einem gewissen Grad an Autonomie zu handeln. Aufgrund dessen wird die Kausalkette zwischen Handlungen der KI und deren Nutzer, hier dem Arbeitgeber, in der Gesellschaft als schwächer empfunden. Doch eine eigenständige Haftung der KI ist in unserem Rechtssystem nicht vorgesehen und momentan auch gar (noch) nicht umsetzbar – zuerst müssten zahlreiche Grundsatzfragen geklärt werden, wie zum Beispiel die Frage der Rechtsnatur einer KI, Beweislastregeln oder die Bestrafungsmöglichkeiten für KI.

Wird nun jedoch im Bewerbungsprozess das Persönlichkeitsrecht eines potentiellen Arbeitnehmers durch eine KI verletzt, müsste nach dem gängigen Rechtsempfinden jemand die rechtliche Verantwortung dafür übernehmen. Eine prominente Lehrmeinung vertritt dazu die Ansicht, dass dies der Arbeitgeber sein müsse. Andere sehen den Programmierer bzw. den Hersteller der KI oder deren Algorithmus-Trainer in der Pflicht.

1. Kausalitätsproblematik

Häufig wird bereits unklar sein, ob ein Schaden durch ein Produktfehler der KI oder ein Fehlverhalten des Arbeitgebers ausgelöst wurde. Verstärkt wird dies noch durch die Tatsache, dass die Daten für das kontinuierliche Training der KI aus Datenschutzgründen oftmals nicht oder nur in verschlüsselter Form verfügbar sind. Und selbst wenn die entsprechenden Daten abgerufen werden können, handelt es sich in der Regel um Millionen aus Codezeilen aus verschiedenen Quellen, was eine Rückverfolgung des Fehlers nahezu verunmöglicht. Erschwerend kommt noch hinzu, dass die einzelnen Daten nur einen Bruchteil der Funktionsweise einer KI beeinflussen. Damit wird die Kausalität zwischen der Persönlichkeitsverletzung und dem Verhalten der KI oder des Arbeitgebers oft nur sehr schwer nachzuweisen sein. Ohne Zugang zu allen vorhandenen Logdaten, zur Codierung der Software und unter Umständen sogar zu dem für das Training verwendeten Datensätzen wird es regelmässig unmöglich sein, den Entscheidungsprozess der KI transparent zu machen und damit die Kausalität nachzuweisen.

Ein möglicher, vielversprechender Ansatz zur Erleichterung der Beweisführung für die bewerbende Person wäre hier der Rückgriff auf die Doktrin des allgemeinen Gefahrensatzes. Damit müsste derjenige, der einen gefährlichen Zustand schafft, aufrechterhält oder anderweitig rechtsverbindlich zu vertreten hat, alle in seiner Situation erforderlichen und zumutbaren Schutzmassnahmen ergreifen, um eine Beeinträchtigung der gefährdeten Rechtsgüter zu verhindern. Wie der Arbeitgeber diese Schutzpflicht in der Praxis konkret umsetzen müsste, wäre von der Rechtsprechung zu etablieren.

Möglich wäre auch eine Angleichung der schweizerischen Gesetzgebung an die momentan in der EU diskutierte Beweislasterleichterung, welche in der Richtlinie über KI-Haftung vorgeschlagen wird. Diese sieht die Einführung einer «Kausalitätsvermutung» vor. Wenn Opfer beweisen können, dass eine Person eine für den Schaden relevante Verpflichtung nicht eingehalten hat und dass ein ursächlicher Zusammenhang mit einer KI-Leistung wahrscheinlich erscheint, darf das Gericht von einer Kausalität zwischen Nichteinhaltung der Verpflichtung und des Schadens ausgehen. Diese Vermutung wäre von der Gegenpartei zu widerlegen. Um an die einschlägigen Beweismittel zu gelangen, dürfen Kläger die Offenlegung von Informationen über Hochrisiko-KI-Systeme beantragen. Diese Handhabung der Problematik erscheint grundsätzlich sinnvoll, jedoch wäre für Arbeitnehmer eine Ausweitung der Informationsoffenlegung auf alle KI-Systeme notwendig.

2. Verschuldensabhängige Haftung

Grundsätzlich gibt es zwei mögliche Haftungssubjekte: der Arbeitgeber als Nutzer der KI und der Hersteller. Die Zuordnung einer ergangenen Persönlichkeitsverletzung in die Risikosphäre einer der beiden Haftungssubjekte gestaltet sich als überaus schwierig. Der Arbeitgeber wird sich bei der Frage nach der Haftung zweifellos auf den Standpunkt stellen, dass der KI-Hersteller durch seine Programmierung die Kontrolle über das Handeln der KI innehält. Die Lernfähigkeit der KI wird jedoch graduell mit der Zunahme der Nutzungsdauer zu einer Verminderung der Kontrolle des Herstellers führen. Entscheidend für eine verschuldensabhängige Haftung muss also schlussendlich sein, wie der Arbeitgeber mit dem KI-System interagiert und welche Kontrollmöglichkeiten er besitzt.

Für eine grundsätzliche Haftung des Arbeitgebers spricht, dass er die Entscheidungsgewalt darüber hat, wann, wo und zu welchen Zwecken er ein KI-System einsetzt. Gleichzeitig profitiert auch in erster Linie er von der Nutzung einer KI. Aus Sicht des Bewerbenden ist eine Haftung des Arbeitgebers natürlich einer Haftung des KI-Herstellers vorzuziehen, denn in Anbetracht der momentanen Rechtslage hat der Bewerber keine gesetzliche Haftungsgrundlage, mit welcher er direkt gegen den KI-Hersteller vorgehen könnte. Meist wird auch schon die Information, um welchen Hersteller bzw. Programmierer es sich im spezifischen Fall handelt, nur mit Mühe zu bekommen sein. Ebenfalls zu bedenken sind die arbeitnehmerschutzbedingten prozessualen Vereinfachungen im Arbeitsprozess.

Gegen eine Haftung des Arbeitgebers wird jedoch in den meisten Fällen sprechen, dass ohne besondere Sachkenntnisse die wenigsten Arbeitgeber in der Lage sein werden, über die KI Kontrolle auszuüben, geschweige denn ihre internen technischen Vorgänge nachzuvollziehen. Deshalb wird von einem Teil der Lehre auch dafür plädiert, die Haftung auf professionelle KI-Nutzer einzuschränken. Selbstverständlich sollte es aber in jedem Fall darauf ankommen, wie sehr der Arbeitgeber in den Entscheidungsprozess der KI eingebunden ist. Es muss differenziert werden zwischen Szenarien, in welchen die KI lediglich als Entscheidungshilfesystem fungiert («human in the loop»), die KI vom Arbeitgeber überwacht selbstständig Entscheidungen trifft («human on the loop») und völlig autonomen Entscheidfindungsprozessen der KI («human off the loop»).

Ein Verschulden des Arbeitgebers müsste in jedem Fall im Sinne einer Sorgfaltspflichtverletzung erfolgen. Eine solche könnte beim Einsatz der KI, bei der Datenauswahl für den Lernprozess, bei der Wartung oder bei der Überwachung auftreten. Eine praktische Schwierigkeit wird sich ergeben, wenn es darum geht, einen realistischen Sorgfaltsmassstab festzulegen. Für den technischen Laien wird es nämlich in der Regel sehr schwierig sein, eine vernünftige Einschätzung darüber zu treffen, in welchen Situationen die Entscheidungen der KI übersteuert werden sollen – sofern diese überhaupt als einzelständige Entscheidungen erkenntlich sind. Die kontinuierlichen technischen Fortschritte bei der Entwicklung von KI werden hier noch erschwerend hinzukommen. Vernünftig durchsetzbar wäre zum heutigen Zeitpunkt wohl lediglich die Feststellung eines Verschuldens, wenn der Arbeitgeber gegen die vom Hersteller bekanntgegebenen Informationen zum bestimmungsgemässen und sicheren Gebrauch der KI verstösst. Expertengruppen arbeiten seit Längerem daran, das Problem der mangelnden Nachvollziehbarkeit von KI-Entscheiden durch eine konkrete Aufgliederung der technischen Prozesse zu beheben (sog. Explainable AI). Dies mag für bestimmte Empfängerkreise durchaus von Nutzen sein und künftig eine Basis für eine entsprechende Haftungsgrundlage schaffen, durch die Heterogenität der Arbeitgeber in der Schweiz müssten die entsprechenden Erklärungen allerdings auf ein generelles technisches Niveau heruntergebrochen werden, dass schlussendlich am praktischen Mehrwert solcher Darstellungen zu zweifeln ist.

Von Teilen der Lehre wird aufgrund der genannten Gründe eine Verschärfung der Verschuldenshaftung von KI-Benützern befürwortet. Eine solche würde jedoch tiefgreifende rechtliche Änderungen wie beispielsweise die Subsumtion einer KI als Gehilfe im Sinne von Art. 55 OR oder eine Verschuldenshaftung mit einer widerlegbaren Vermutung des Verschuldens oder des Kausalzusammenhangs erfordern. Zum jetzigen Zeitpunkt sind dies jedoch (noch) rechtstheoretische Diskussionen, welche für die Haftung der Arbeitgeber beim Einsatz von KI keine praktische Relevanz haben dürften.

3. Verschuldensfrage bei spezifischen Persönlichkeitsverletzungen im Bewerbungsprozess

Die durch eine KI begangenen Persönlichkeitsverletzungen im Bewerbungsprozess werden bezüglich des Verschuldens eines Arbeitgebers im Einzelfall beurteilt werden müssen. In Fällen von unzulässigen Bewerbungsfragen sowie Datenschutzverletzungen dürfte wohl regelmässig derjenige verantwortlich sein, welcher die Programmierung vornimmt und dabei der KI keine angemessenen Schranken setzt. Dies wird in der Regel nicht der Arbeitgeber sein. Ausgenommen sind selbstverständlich Fälle, in welchen der Arbeitgeber konkret eine bestimmte unzulässige Bewerbungsfrage vorgibt, da hier die Kontrolle klar beim Arbeitgeber und nicht beim Programmierer der KI liegt.

Anders sieht die Situation allenfalls aus, wenn die KI aufgrund von Datensätzen, welche vom Arbeitgeber stammen, ein diskriminierendes Verhalten erlernt. Jede diskriminierende Entscheidung einer KI stellt letztendlich lediglich eine Wiederholung bzw. Vertiefung menschlichen Verhaltens dar. Demzufolge wäre in Fällen, in welchen aus den vom Arbeitgeber gelieferten und damit gutgeheissenen Daten bereits Diskriminierungen ersichtlich sind, eine Haftung des Arbeitgebers durchaus möglich. Falls der Arbeitgeber zusätzlich für eine bestimmte Stellenausschreibung noch Kriterien und Stichworte vorgibt, welche eine Diskriminierung weiter unterstützen, muss fast von einer Zurechnung in die Risikosphäre des Arbeitgebers ausgegangen werden.

4. Verschuldensunabhängige Haftung

Wie aufgezeigt ist der Verschuldensnachweis neben dem Kausalitätsbeweis eines der Hauptprobleme bei der Frage der Haftung für KI-Systeme. Eine verschuldensunabhängige Haftung wäre deshalb auf den ersten Blick eine einfache Lösung, birgt allerdings bei näherer Betrachtung ihre eigenen Probleme. Für Gefahrenquellen mit besonders hohem Risikofaktor existieren für KI im geltenden Recht bereits Haftungsregelungen, so beispielsweise im SVG bzw. LFG für KI-gesteuerte Fahrzeuge oder Drohnen. Für KI, wie sie ein Arbeitgeber im Bewerbungsprozess nützt, gibt es derzeit soweit ersichtlich noch keine spezifische anwendbare Haftungsnorm. Weitere Regulierungsansätze, wie beispielsweise die Idee, das schweizerische Datenschutzrecht an die neuen technischen Herausforderungen durch KI anzupassen, wurden bisher nicht gross weiterverfolgt.

V. Fazit und Ausblick

Zusammenfassend muss festgehalten werden, dass der zunehmende Einsatz von KI für die heutigen Schweizer Haftungsregelungen eine erhebliche Herausforderung darstellt. Klar ist, dass der Einsatz von KI im Bewerbungsprozess erweiterte Möglichkeiten für eine Persönlichkeitsverletzung schafft.

Bereits die Feststellung, ob überhaupt durch das Verhalten einer KI eine Persönlichkeitsverletzung ergangen ist und wem eine solche kausal zugerechnet werden kann, dürfte in der Praxis grösste Schwierigkeiten bereiten und überdies in der Regel zwingend ein vertieftes technisches Verständnis voraussetzen. Die Beweislast der Persönlichkeitsverletzung trägt zudem der Bewerbende, welcher ohne Einsicht in die Algorithmen oder zumindest in die eingespeisten Datensätze kaum Erfolg haben wird. Dazu kommt, dass sich der Hersteller der KI als nicht direkt in den Gerichtsprozess involvierte Partei regelmässig gegen eine Datenherausgabe sträuben wird. Generell befindet sich der Bewerbende durch das vorvertragliche Verhältnis in einer schwachen Position, da er in seiner Persönlichkeit hauptsächlich durch rechtliche Generalnormen und das Gleichstellungsgesetz geschützt ist. Aufgrund dieser Tatsachen dürfte es auch zukünftig kaum zu Haftungsfällen des Arbeitgebers basierend auf Persönlichkeitsverletzung durch den Einsatz von KI kommen. Dafür fehlen schlicht die gesetzlichen Grundlagen und eine Rechtspraxis. Einzig bei einer offensichtlich diskriminierenden Selektion der Bewerbenden durch eine KI kann zum heutigen Zeitpunkt eine Haftung des Arbeitgebers realistisch gesehen allenfalls eine erfolgsversprechende Rechtsverfolgung nach sich ziehen.

Trotz der eingeschränkten Haftung des Arbeitgebers durch fehlende rechtliche Regelungen sollte der Einsatz von KI im Bewerbungsprozess nicht verteufelt werden. Im Endeffekt ist es wohl schwierig zu beurteilen, ob eine KI oder ein Mensch einen Bewerbungsprozess objektiv betrachtet auf gerechtere Art und Weise durchführen kann. Eine KI wird nie durch Krankheit ausfallen, kann Bewerbungen viel gründlicher und schneller durchsehen und, falls gewünscht, in zahlreichen Sprachen agieren. Theoretisch können arbeitsrechtliche Vorgaben sogar besser umgesetzt werden als von einem menschlichen Arbeitgeber, weil die entscheidenden Algorithmen im Vorfeld kontrolliert werden können. Man könnte ausserdem argumentieren, dass der Einsatz von KI auch genutzt werden kann, um unbewusste menschliche Vorurteile im Bewerbungsprozess komplett auszuschliessen, indem der KI beigebracht wird, streng nach ausgesuchten objektiven Kriterien zu entscheiden. Beispielsweise könnte man eine Altersdiskriminierung vermeiden, indem der KI beigebracht wird, lediglich auf den Detailreichtum, die Geschwindigkeit sowie die grammatikalische Korrektheit der Antworten in einem Bewerbungsinterview zu achten. Dies wäre schlussendlich ein grosser Gewinn für Arbeitgeber und -nehmer.

Wie sehr Arbeitgeber im Bewerbungsprozess zukünftig von KI Gebrauch machen werden – und sich damit die Rechtsprechung zwangsläufig näher mit den sich damit stellenden Haftungsfragen beschäftigen muss -, bleibt abzuwarten. Momentan wird noch stark zu von Menschen geführten Bewerbungsgesprächen tendiert, während eine Vorselektion der Bewerbungsschreiben durch KI bereits teilweise umgesetzt und von der Gesellschaft auch mehrheitlich akzeptiert wird. Es bleibt stark zu hoffen, dass der Schweizer Gesetzgeber in naher Zukunft eine detailliertere Regelung für die rechtliche Handhabung von KI erlassen wird. Nur so können die KI-Hersteller und Arbeitgeber ausreichend motiviert werden, seriös und unter Beachtung der Rechte der Bewerber zu agieren. An der Wirksamkeit einer freiwilligen Selbstregulierung darf aufgrund der bisherigen Erfahrung gezweifelt werden. Durch klare Leitlinien wird ein rechtmässiger Einsatz von KI im Arbeitsumfeld gefördert, was wiederum zu neuen Erfahrungswerten und Erkenntnissen für die Wissenschaft und damit letztlich zu mehr technischer Innovation führt. Es erscheint essentiell, insbesondere die Kausalitäts- und Verschuldensthematik bei Haftungsfragen im Zusammenhang mit KI einer generellen, abstrakten Lösung zuzuführen, damit der Bewerber als schwächere Partei im Anstellungsprozess in seinen Rechten geschützt wird. Weiter wäre es sinnvoll, wenn der Bund durch gezieltes Informieren seiner Bürger, insbesondere der Arbeitgeber, zu einer Sensibilisierung der Bevölkerung für diese Thematik beitragen würde.

Zur einfacheren Lesbarkeit wurden die Quellverweise entfernt.

Fabia Stöcklin, Robot Recruiting, sui generis 2023, S. 1

https://doi.org/10.21257/sg.223

https://creativecommons.org/licenses/by-sa/4.0/


Privacy als Paradox

04/2023

1. Problemaufriss

Der Streit um Daten und Datennutzung ist eine der zentralen Machtfragen unseres Jahrhunderts. Datenschutz und Datennutzungsrechte stehen in komplexen Spannungsverhältnissen zueinander. Digitaler Privatheitsschutz und Datenschutz als Konzept sind kontroverse, politisierte Themenfelder. Auf der individuellen Ebene von Nutzer:innen hat sich Privatheitsschutz durch Datenschutz zudem zunehmend zu einer unlösbaren Aufgabe entwickelt: Die Verbreitung persönlicher Informationen erscheint nicht mehr kontrollierbar. Das ist vor allem dann problematisch, wenn diese Preisgabe und Verarbeitung persönlicher Daten nicht mehr der autonomen Entscheidung der Betroffenen entsprechen. Die Annahme ist naheliegend, insbesondere in dem durch informationelle Machtasymmetrien und Vormachtstellung einzelner globaler Unternehmen geprägten digitalen Raum des Internets. Der Allgemeinplatz, dass Datenschutz nicht Daten, sondern Personen schützt, gerät aus dem Fokus. Denn Privatheits- und Datenschutz wird oft als innovationshindernd, paternalistisch und ineffektiv wahrgenommen. Auch das so genannte Privacy Paradox scheint mit einer Argumentationsstruktur für effektiveren Schutz zu brechen. Menschen verhalten sich höchst widersprüchlich was den Schutz ihrer Privatsphäre betrifft: sie folgen schlicht nicht ihren eigenen, zumindest kommunizierten Präferenzen. Das Privacy Paradox ist damit ein relevantes und juristisch lohnenswertes Beispiel, um die Reflektion menschlichen Verhaltens durch Recht zu untersuchen. Der Beitrag skizziert Definition, Grundlagen, und Konsequenzen des Privacy Paradox aus rechtswissenschaftlicher Perspektive und entwirft Vorschläge für Reaktionen des Rechts.

Das Privacy Paradox beschreibt das Phänomen, dass Menschen nach außen bekunden, ihre Privatheit und den Schutz ihrer persönlichen Daten besonders zu wertschätzen, dieser Selbsteinschätzung aber keine Taten folgen lassen. Ihre innere Einstellung divergiert von ihren tatsächlichen Verhaltensweisen: Der betonten Wichtigkeit von Privatheit zum Trotz geben viele Personen niedrigschwellig oder gar anlasslos höchstpersönliche Informationen über sich preis – das erscheint widersprüchlich. Das Credo, dass Privatsphäre schützenswert ist und vor allem akzessorisch andere Rechtsgüter schützt, scheint nicht mehr zu greifen. Die Divergenz zwischen inneren Einstellungen und Verhaltensweisen ist zunächst nichts Ungewöhnliches, sondern ein allbekanntes Alltagsphänomen. Das Privacy Paradox ist ebenfalls ein leicht erklärbares Verhaltensmuster, aber andererseits eine akademische Fragestellung, welche vielfach und interdisziplinär untersucht wird, jedoch immer noch umstritten ist.

In Bezug auf Privatheit und rechtliche Regulierung ist das Privacy Paradox auch deshalb interessant, da Privatheitsschutz, grundrechtlich im Recht auf informationelle Selbstbestimmung verankert, als Ausfluss persönlicher Autonomie angesehen wird. Dazu gehört auch, auf eben diese Privatheit zu verzichten.

Muss das Recht dennoch die Menschen „vor sich selbst“ schützen? Rechtliche Regulierung kann neben dem – online in großen Teilen versagenden individuellen Selbstschutz und der ebenfalls nicht sehr erfolgreichen Selbstregulierung der Industrie – ein Schutz- und Ermöglichungsmechanismus sein. Oder ist ein Regulierungsansatz, der wie im Datenschutzrecht den individuellen Rechtsgüterschutz abstrakt sehr stark betont, aber erheblichen Vollzugsdefiziten unterliegt, deshalb grundlegend falsch? Sollte Privatheit als Rechtsgut allgemein überdacht werden?

Meine Ausgangsthese ist, dass Privatheitsschutz durch Datenschutz erstrebenswert ist, auch wenn einzelne Personen sich nicht privatheitsschützend verhalten oder gar gegenläufige Präferenzen äußern; das vermeintliche Paradoxon der Privatheit ist hierfür kein Gegenargument.

2. Grundlagen des Privacy Paradoxes

Die Grundlagen des Privacy Paradox setzen sich aus dem theoretischen Verständnis von Privatheit (2.1) und der empirischen Erforschung von Verhalten zusammen (2.2), das im vermeintlichen Widerspruch zur Vorstellung von Privatheit steht.

2.1 Konzeption von Privatheit und Datenschutz im Kontext des Privacy Paradoxes

Privatheit ist seit Jahrhunderten ein kontroverses Thema und wurde bereits lange vor dem Siegeszug digitaler Technologien diskutiert. Grundsätzlich zielt Privatheit im Verständnis des Selbstbestimmungsrechts darauf ab, Menschen Autonomie zu ermöglichen und zu sichern. Deshalb ist die Idee einer universellen Definition von Privatheit auch nicht realisierbar, da sie letztlich in der individuellen autonomen Entscheidung der einzelnen Person wurzelt.

Juristisch betrachtet ist Privatheit ein unbestimmter Rechtsbegriff, der nicht explizit von Gesetzen definiert oder benannt wird. Privatheit ist gewinnbringend aus rechtswissenschaftlicher Perspektive vor allem im Hinblick auf normative Konsequenzen zu beurteilen. Ein rechtlicher Hebel für die Umsetzung ist das Datenschutzrecht, denn dieses zielt durch den Schutz personenbezogener Daten auch auf Privatheitsschutz. Privatheitsschutz und Datenschutz sind nicht deckungsgleich, haben aber viele Überschneidungspunkte. Datenschutz ist kein Selbstzweck, sondern wurzelt, ebenso wie Privatheit, im Autonomieschutz. Diese Differenzierung und gleichzeitige Rückführbarkeit auf gemeinsame Schutzgüter ist auch in den Rechtsgrundlagen reflektiert. Sowohl das Recht auf informationelle Selbstbestimmung als auch das Recht auf Datenschutz in der Charta der Grundrechte der Europäischen Union zielen auf den Schutz autonomer Entscheidungen von Individuen über ihre persönlichen Daten ab. Die Verfügungsgewalt über persönliche Daten kann den Schutz von Privatheit ermöglichen. Datenschutz hängt deshalb eng mit dem Verständnis von Privatheit und Privatheitsschutz zusammen.

Der Schutz von Privatheit dient in erster Linie der Bewahrung persönlicher Entscheidungsfreiräume, wobei die Funktionen vielfältig sind. Viele Konzeptionen von Privatheit fußten auf einer Trennung verschiedener Sphären, einem räumlich geprägten Verständnis von Öffentlichkeit und privaten Raum. Das Private findet danach „hinter verschlossenen Türen“ statt, durch die Fenster des eigenen Hauses sollte niemand schauen dürfen. Die dazu konträre öffentliche Sphäre war außerhalb dieses privaten Raumes angesiedelt, dadurch aber auch klar erkennbar. Die digitale Transformation verändert das Verständnis von Privatheit, die Vorstellung von individueller Kontrolle des Zugangs zu persönlichen Informationen ist letztlich überholt. Denn digitale, online-basierte Anwendungen brechen mit dem Verständnis der Abgrenzung durch Räumlichkeit, da sie durch ihre Konzeption selbst entgrenzend wirken. Bis heute werden diverse Konzepte von Privatheit diskutiert, welche die Entwicklungen von Privatheit in unterschiedlichen Kontexten beleuchten. Privatheit entfaltet auch eine gesellschaftliche, demokratietheoretische Dimension, die dafürspricht, auch Datenschutz nicht nur aus individueller Perspektive zu betrachten.

Die meisten Autor:innen stimmen darin überein, dass Privatheit durch quantitative Datenanalysen in digitalen Kontexten gefährdet ist und daraus negative Konsequenzen für den ökonomischen und sozialen Zugang von Bürger:innen und deren gesellschaftliche Teilhabe folgen. Andere hingegen meinen, dass nicht die gefährdete individuelle Privatheit problematisch ist, sondern fehlende Sicherheit und Sanktionen. Die Verfügbarkeit von Informationen sei kein Problem, sondern ihr Missbrauch. Überwachung durch Staat und Wirtschaft seien kein Grund zur Beunruhigung. Denn es gäbe keine Anhaltspunkte dafür, dass Menschen weniger frei seien, wenn sie weniger Privatsphäre hätten. Diese Ansicht gewichtet den Aspekt zu gering, dass die eigene Entscheidung darüber, welche Informationen preisgegeben werden, der autonome Akt ist und nicht die daraus folgenden Konsequenzen. Für die Folgen von Privatheitsverletzungen können auch der generelle Missbrauch wirtschaftlicher oder politischer Macht verantwortlich gemacht werden. Diese Faktoren beziehen sich aber auf die mittelbaren Folgen und nicht auf die Entscheidung des Individuums. Die Konsequenzen aus Privatheitsschutz sind auch nicht zwingende Geheimhaltung und Intransparenz auf allen Ebenen, sondern Entscheidungsalternativen über Informationspreisgabe.

Eine abschließende Klärung des Begriffs der Privatheit ist nicht erforderlich, um Grundlagen für die rechtliche Handhabung daraus abzuleiten. Unzweifelhaft begegnet der Schutz von Privatheit in digitalen und vernetzten Umgebungen neuen individuellen und gesellschaftlichen Herausforderungen; schon deshalb, da bei allen Onlineaktivitäten z.B. auch ohne bewusste Preisgabe von Informationen Meta- und Nutzungsdaten generiert werden. Zudem werden behaviorale und psychologische Prozesse gezielt genutzt, um die Preisgabe persönlicher Informationen zu befördern. Grundlegende Informationsasymmetrien können verhindern, dass das eigene Verhalten überhaupt den geäußerten Präferenzen angepasst werden kann.

2.2 Empirische Grundlagen: Privacy Calculus oder Privacy Paradox?

Grundlage des Privacy Paradox ist auch das Verständnis darüber, was Menschen motiviert und wie sie Entscheidungen treffen, d.h. was leitend für menschliches Verhalten ist. Dabei können persönliche Daten selbst freigegeben werden, oder es werden schlicht keine Maßnahmen getroffen, die persönlichen Daten zu schützen – was oft zwei Seiten derselben Medaille sind.

Zur Erklärung des Privacy Paradox werden unterschiedliche Theorien diskutiert. Die Argumentationsstränge unterscheiden sich vor allem darin, wie viel Rationalität den Entscheidungsträger:innen zugesprochen wird: entweder richtet sich das Verhalten nach einer Gegenüberstellung von Risiken und Vorteilen oder es erfolgt schlicht keine Risikoevaluation. Ob sich die sich von der Selbsteinschätzung divergierenden Verhaltensweisen durch rationale Kosten-Nutzen-Abwägung (2.2.1), oder Impulsivität und Irrationalität (2.2.2) begründen lassen, ist umstritten. Zudem sind Resignation und gewolltes Unwissen (2.2.3), Beeinflussung und Manipulation (2.2.4) sowie informationelle Asymmetrien und Kontextabhängigkeit (2.2.5) zu beachten.

2.2.1 Ausfluss rationaler Entscheidung

Die Idee des Privacy Calculus beruht auf der rational-choice theory und geht davon aus, dass Personen eine Kosten-Nutzen-Analyse vornehmen, bevor sie persönliche Informationen offenlegen. Die ökonomische Theorie beurteilt diese Einschätzung von Personen als handlungsleitend. Danach geben Konsument:innen dann persönliche Daten preis, wenn sie davon ausgehen, dass der erwartete Nutzen die Risiken übersteigt. Dieser kann in monetären (Rabatte, Gutschein), persönlichen (Anpassung, Individualisierung) oder sozialen Faktoren (Zugehörigkeit bei sozialen Netzwerken, Aufbau von Sozialkapital) bestehen. Ziel ist es daher nicht, stets möglichst hohen Privatheitsschutz herzustellen, sondern dass eine Balance gefunden wird und Daten bereitgestellt werden, wenn es sich für die Person lohnt.

Der Privacy Calculus hat allerdings keine Erklärung für die Preisgabe persönlicher Daten, wenn schlicht keine Vorteile bestehen, diese nicht erkennbar oder nur geringwertig sind. Denn wenn der Schutz personenbezogener Daten einen vergleichsweise hohen Stellenwert genießt, wäre nach dem Rationalitätsmodell eine Datenpreisgabe nur bei erheblichen Vorteilen zu erwarten. Diese Erwartungen werden nicht durch das tatsächliche Verhalten von Verbraucher:innen bestätigt, insbesondere im Onlinebereich bzgl. Konsum und in sozialen Netzwerken.

2.2.2 Verzerrte Risikoabwägung

Zahlreiche verhaltenspsychologische Studien haben aufgezeigt, dass Menschen sich nicht stets rational verhalten, sondern Verhaltensanomalien auftreten. Diese Urteilsfehler führen dazu, dass Informationen falsch eingeschätzt oder nicht korrekt verarbeitet werden. Es ist nicht möglich, stets alle Argumente und Informationen objektiv korrekt zu verarbeiten und danach zu entscheiden. Komplexere Risikoabwägungen sind für Menschen schwierig zu vollziehen; um Entscheidungen zu treffen, nutzen wir einfache Entscheidungsregeln, sog. Heuristiken. Diese sind Ausfluss einer begrenzten Rationalität, denn viele Personen tendieren dazu, Risiken, die mit positiv konnotierten Dingen verknüpft sind zu unterschätzen und gleichzeitig zu überschätzen, wenn sie mit Sachverhalten oder Dingen verknüpft sind, die sie nicht mögen. Auch besteht eher die Bereitschaft, sogar sensible Informationen gegen Vergütung preiszugeben als diese gegen anfallende Kosten zu schützen.

Die zeitliche Dimension bzgl. der Schadenswahrscheinlichkeit kommt hinzu: Privatheit wird in konkreten Entscheidungssituationen ein sehr geringer Stellenwert beigemessen, selbst wenn der Preisgabe ein extrem geringer Nutzen gegenübersteht – dadurch wird eine Delegation der Kosten in die Zukunft ermöglicht. Diese hyperbolische Diskontierung beschreibt, dass die zukünftigen Kosten den Vorteilen der gegenwärtigen Nutzung überproportional unterliegen. Im digitalen Bereich stellt sich die Problematik von unterschätzten Risiken und impulsivem Handeln (z.B. Clickbait) in besonderem Maße. Danach läge also kein Widerspruch zwischen Selbsteinschätzung und Handeln vor, sondern eine verzerrte bzw. fehlerhafte handlungsleitende Risikoeinschätzung.

2.2.3 Resignation und gewolltes Unwissen

Online basierte Warenkäufe und Dienstleistungen sowie smart wearables sind inzwischen so alltäglich geworden, dass die meisten Menschen diese Angebote auch wahrnehmen, wenn sie nur ein geringes Vertrauenslevel haben, es also „gar nicht so genau wissen wollen“. Neben dem praktisch unüberwindbaren Aufwand, stets die privatheitsfreundlichste Einstellung zu wählen besteht ein Wissensdefizit, welches sich gerade im Internet multipliziert. Dauerhaft informierte Entscheidungen über die tausenden involvierten Webseiten unterschiedlicher Firmen, Apps und ihren Modalitäten der Datenverarbeitung zu treffen, kann durch Einzelpersonen nicht erreicht werden. Versuche des Privatheitsschutzes enden deshalb auch oft in Resignation. Wenn Nutzer:innen ständig selbst entscheiden müssen, ob ihre Daten verarbeitet werden dürfen, führt dies nicht in wenigen Fällen zu einer „Consent-Fatigue“ und wahllosen Klicks, um weiter fortfahren zu können. In diese Richtung zielen auch die Erklärungen der Konsistenztheorien, z.B. wenn online die Dissonanz zwischen allgemeinen Bedenken und situativen Hinweisreizen zugunsten letzterer aufgelöst wird und damit z.B. die Bedeutung einer Datenschutzrichtlinie ignoriert wird.

2.2.4 Beeinflussung und Manipulation

Die rechtlichen Implikationen von Nudging und „Dark“ Patterns werden kontrovers diskutiert. Sowohl Nudging zugunsten der Nutzer:inneninteressen z.B. zur Wahl einer datenschutzrechtlichen Voreinstellung als auch Beeinflussung entgegen deren eigentlichen Interessen („Dark“ Patterns) nutzen Verhaltensanomalien gezielt aus. Mechanismen und Gestaltungen, die Nutzer:innen keine echte Wahlmöglichkeit eröffnen, z.B. die Auswahl datenschutzfreundlicher Einstellungen erschweren oder Widerspruchsmöglichkeiten nicht auffindbar in Webseiten verstecken, sind ein weiterer Umstand, der bei der Bewertung des Widerspruchs zwischen geäußerten Präferenzen zu Privatheit und tatsächlichem Verhalten berücksichtigt werden sollte.

2.2.5 Informationelle Asymmetrie und Kontextabhängigkeit

Das Privacy Paradox kann als Ausfluss fehlender bzw. begrenzter Rationalität gedeutet werden. Menschen werden von systematischen Verhaltensanomalien, sozialen Normen und Emotionen, persönlicher Erfahrung, Netzwerkeffekten und Persönlichkeitszügen beeinflusst. Einige sind der Auffassung, dass sich die wahren Präferenzen der Verbraucher:innen nur in ihrem Verhalten widerspiegeln, z.T. werden die Studien zum Privacy Paradox deshalb methodisch kritisiert. Aus rechtlicher Perspektive lässtsich die Frage darauf zuspitzen, ob schutzbezogene Vorgaben sich an der Selbsteinschätzung und ggf. auch den Wünschen der betroffenen Gruppe oder nach deren Verhalten orientieren sollten.

Hierbei ist wichtig, dass die Kontextabhängigkeit insbesondere bei Entscheidungen von Verbraucher:innen eine besondere Rolle spielt. Präferenzen werden schon deshalb nicht stets konsistent sein können, da die Situationen der Präferenzkundgabe und der tatsächlichen Datenfreigabe im digitalen Raum nicht deckungsgleich sind. Generelle Bedenken sind nicht mit situativen Bedenken gleichzusetzen. Die Absicht, sich selbst privatheitsschützend zu verhalten, kann mit situativen Problemen in Konflikt geraten und durch fehlendes Wissen, fehlende technische Expertise oder mangels Alternativen verstärkt werden. Es kommt deshalb darauf an, welche Daten wem gegenüber offenbart werden. Auch die Persönlichkeitsmerkmale der Nutzer:innen können eine entscheidende Rolle spielen.

Unabhängig von den verschiedenen Theorien zu handlungsleitenden Faktoren besteht im digitalen Raum ein erhebliches Ungleichgewicht zwischen Nutzer:innen und Anbieter:innen digitaler Produkte. Deshalb ist eine rationale Entscheidungsfindung aufgrund unvollständiger Informationen, höchst komplexen Verarbeitungsvorgängen und Unkenntnis über die Datenverarbeitungen erheblich erschwert.

Rechtlich entscheidend für eine Einordnung des Privacy Paradoxes sind zudem die abstrakte Erkennbarkeit und das Verständnis darüber, welche Daten überhaupt wem gegenüber preisgegeben werden. Informationelle Asymmetrien und das systemische Ungleichgewicht zwischen Verbraucher:innen und Firmen bspw. im Kontext von Onlinedienstleistungen müssen bei der Bewertung des Verhaltens berücksichtigt werden.

3. Rechtliche Implikationen des Privacy Paradox

Dass sich die Selbsteinschätzung nicht oder nur geringfügig im Verhalten von Nutzer:innen niederschlägt, führt zu der Frage, mit welchen Verhaltensannahmen Schutz durch Recht operiert und wie sich diese auf rechtliche Vorgaben auswirken. Das Privacy Paradox beschreibt damit im digitalen Bereich wohl vor allem ein Problem der mangelnden Informationsgrundlage und die erschwerte Möglichkeit rationaler Entscheidungen. Das Recht reflektiert diese realen Voraussetzungen von Privatheit bisher unzureichend, wie die Beispiele der datenschutzrechtlichen Einwilligung und des Wettbewerbsrechts zeigen.

3.1 Datenschutzrecht: Einwilligung als untaugliches rechtliches Instrument im digitalen Raum

Die DSGVO fordert stets eine Rechtsgrundlage für die Verarbeitung personenbezogener Daten nach der Grundregel des Art. 6 Abs. 1 DSGVO. Praktisch höchst relevant ist die zweckgebundene Einwilligungserklärung der von der Datenverarbeitung betroffenen Person nach Art. 6 Abs. 1 UAbs. 1 lit. a) DSGVO. Im digitalen Raum wird von dieser Ermächtigung zur Datenverarbeitung flächendeckend Gebrauch gemacht (Cookie-Banner, die bei jedem Webseitenbesuch über die Verarbeitung personenbezogener Daten informieren und dazu entsprechende Einwilligungen erfordern). Die Kritik am Instrument der Einwilligung bleibt nicht auf die DSGVO beschränkt: Auch das TTDSG in Umsetzung der e-Privacy-Richtlinie setzt in § 25 auf die Einwilligung als zentrales Instrument bei der Regulierung von Cookies und Tracking, wobei dort aber dieselben Anforderungen wie nach Art. 4 Nr. 11 DSGVO gelten.

Die datenschutzrechtliche Einwilligung wird durch das Privacy Paradox weiter entwertet. Denn dass Personen in digitalen, durch Algorithmen kreierten oder gesteuerten Kontexten eine tatsächlich freie und vor allem informierte Entscheidung über die Zustimmung zur Verarbeitung ihrer persönlichen Daten treffen, kann nur schwer angenommen werden. Die Einwilligung geht, wie die Rational Choice Theory, von einer informierten Entscheidung aus. Rational kalkulierte Kosten-Nutzen-Analysen sind bei Informationsasymmetrien aber in vielen Fällen nicht möglich. Nutzer:innen müssten umfassend unsichere, kaum greifbare und durch komplexe Prozesse entstehende Folgen ihrer Entscheidung berücksichtigen. Eine vollständig rationale Entscheidung wird umso unwahrscheinlicher, je komplexer und unübersichtlicher der zu entscheidende Sachverhalt und die daraus folgenden Konsequenzen sind, z.B. auch die Auswirkung der eigenen Datenfreigabe auf andere Personen.

Die Komplexität und Quantität der Datenverarbeitung wird durch transparenzsteigernde Maßnahmen wie Bildsymbole und privacy agents auch nur bedingt reduziert, sondern vor allem verlagert. Denn auch eine gut illustrierte Datenschutzerklärung, die u.U. mehrere Dutzend Verarbeiter:innen und Zwecke umfasst, wird wieder unübersichtlich. Auch Einwilligungsmanagementsysteme (Personal Information Management Systems

– PIMS), müssen für eine informierte Nutzer:innenentscheidung über alle möglichen Folgen der Datenverarbeitungsvorgänge, z.B. des Trackings, informieren. Dies erfordert einen erheblichen Detailgrad, der sich konträr zu dem abstrakt-generellen Ansatz solcher stellvertretenden Systeme verhält.

Das Privacy Paradox spricht deshalb für eine Untauglichkeit der Einwilligung bei den großen social-media- und anderen Plattformen, im Onlineshopping und -dienstleistungsbereich und allen digitalen Umgebungen, die weitreichende quantitative Datenanalysen für und über Dritte ermöglichen. Daneben spielen sozialer Druck und Monopolstellungen eine Rolle. Dadurch produzierte Informationsasymmetrien verhindern, dass eine informierte Entscheidung getroffen werden kann, weil z.B. die Konsequenzen der eigenen Datenpreisgabe für andere Nutzer:innen gar nicht bekannt ist. Somit kann das eigene Verhalten auch nicht adäquat den geäußerten Präferenzen angepasst werden.

Zudem ist die Einschätzung der Privatheitsrelevanz und damit die informierte Einwilligung praktisch gesehen auch deshalb erschwert, weil Maßstäbe zur Bewertung fehlen. Bei monetär-basierten Austauschgeschäften ist eine größere Vergleichbarkeit gegeben: Ein teureres Produkt verspricht, vereinfacht gesagt, oft eine höhere Qualität. Bei der Inanspruchnahme vermeintlich kostenloser Dienste gibt es hingegen keine Preisvergleichbarkeit. Verstärkt wird diese durch eine die Monopolstellung der globalen Plattformbetreiber, da es bereits an unterschiedlichen Angeboten fehlt. Es gibt beispielsweise keine Möglichkeit Google kostenpflichtig zu nutzen, ohne dass Daten gesammelt werden. Auch lassen die Anbieter:innen keine Verhandlungen über die Nutzungsbedingungen zu, auch wenn diese offenkundig rechtswidrig sind.

Das gängige Bild, wonach Vebraucher:innen mit ihren Daten „bezahlen“, trägt deshalb nicht. Es besteht kein vergleichbares Bewusstsein über die Modalitäten der Datenverarbeitung wie bei der monetären Bezahlung über einen bestimmten Betrag, weil die „Kosten“ der Daten nicht sichtbar sind. Unternehmen verarbeiten Daten auf unterschiedliche Weise, weshalb aus Perspektive der Verbraucher:innen eine Einschätzung, die mit einer einheitlichen Währung vergleichbar wäre, nicht möglich ist. Digitale Dienstleistungen sind deshalb näher an Vertrauensgütern, deren Wirkung weder vor noch nach dem Bezug valide eingeschätzt werden kann, ähnlich wie andere Bereiche in denen Expertise erforderlich ist, z.B. im medizinischen Sektor. Solange Menschen Onlinedienste nutzen, online mit anderen interagieren oder staatliche Leistungen in Anspruch nehmen werden zudem stets neue Daten erzeugt, die dann keine begrenzte oder erschöpfliche Ressource mehr darstellen.

Aus einer ökonomischen Perspektive stellt sich die Frage, ob digitale Märkte mit ihren jetzigen Angeboten die Privatsphäre-Präferenzen von Nutzer:innen erfüllen oder ob ein Marktversagen vorliegt. Dies führt zu Datenschutz als Wettbewerbsfaktor und zum Verbraucher:innenschutz.

3.2 Wettbewerb und Verbraucherschutz

Privatheitsschutz durch Datenschutz kann theoretisch ein relevanter Wettbewerbsfaktor sein. Durch das fehlende privatheitsschützende Verhalten der Nutzer:innen hat sich ein hohes Datenschutzniveau aber bisher kaum praktisch auf die Marktstellung von Unternehmen auswirken können: datensparsame Angebote haben sich trotz eines höheren Datenschutzniveaus nicht flächendeckend gegenüber datenintensiven Unternehmen und Angeboten durchsetzen können. Bisher ist damit allein die Datenmacht bzw. der Datenbestand selbst ein positiver Wettbewerbsfaktor.

Große Datenmengen, konzentriert bei wenigen Unternehmen, können den Wettbewerb hingegen negativ beeinflussen und ggf. auch Missbrauch fördern. Das Privacy Paradox verstärkt diesen Effekt noch, wenn die Wahl der Verbraucher:innen nicht auf datenschützende Angebote fällt. Fraglich ist aber, ob Verbraucher:innen überhaupt noch eine echte Wahl haben. Durch die Konzentration auf Plattformen (insbesondere in sozialen Netzwerken) ist eine Abhilfe durch Wettbewerb schwierig. Gerade dort, wo es um Vernetzung und Austausch geht, profitieren Anbieter:innen von Diensten mit besonders vielen Nutzer:innen; eine größere Anzahl an Alternativen ist gerade nicht gewünscht, sondern andernfalls eine alternative Konzentration. Für Verbraucher:innen bestehen damit hohe Kosten, wenn sie sich über die Vor- und Nachteile informieren wollen. Lock-In- und Netzwerkeffekte erschweren einen Wechsel und damit ebenfalls eine andere Nachfrage.

3.3 Argument gegen Regulierung?

Aus dem Privacy Paradox wird zum Teil gefolgert, dass Privatheitsschutz von der überwiegenden Mehrheit nicht gewünscht wird, Privatheit ein überholtes Rechtsgut sei und die rechtliche Regulierung mit dem Schutz­ ziel Privatheit, insbesondere durch Datenschutzrecht, ins Leere laufe. Dies fügt sich in eine generelle Kritik an Privatheitsschutz ein, wonach die Instrumente des Datenschutzes den Herausforderungen der digitalen Transformation nicht mehr gewachsen seien; rechtliche Regulierung sei stets zu spät oder ausgeschlossen. Andere sehen die digitale Transformation als zwingende Entwicklung, die unumkehrbaren systemischen Logiken folgt. Entscheidend für Legitimität und Akzeptanz sei allein das Funktionieren digitaler Technik.

Die Einwände tragen aus verschiedenen Gründen nicht, denn die Entscheidungsfindung von Individuen ist von zahlreichen Faktoren abhängig, die im Kontext von privatheitsrelevantem Verhalten z.T. verzerrt oder nicht gegeben sind. Unvollständige oder asymmetrische Informationen führen dazu, dass viele Personen sich den mit ihrem Verhalten verbundenen Datenanalysen nicht bewusst sind, aber dennoch der Datenweitergabe an Dritte zustimmen. Durch die Unmöglichkeit eines monetären Referenzpunktes für die eigenen Daten wird die Einschätzung von „Leistung und Gegenleistung“ zusätzlich erschwert. Bereits die Unterscheidung zwischen Metadaten, Nutzungsdaten und selbst freigegebenen persönlichen Daten (self-disclosure) spielt eine entscheidende Rolle. Denn die verschiedenen Arten von Daten sind unterschiedlich kontrollierbar. Es geht eben nicht nur darum, keine sensiblen persönlichen Informationen auf sozialen Netzwerken zu posten, sondern es werden Daten durch die schlichte Nutzung verarbeitet und neue Daten entstehen durch den Vorgang der Kommunikation an sich. Die Verarbeitung von Meta- und Nutzungsdaten hat mit der rechtlichen Idee der autonomen Entscheidung des Individuums über persönliche Informationen nicht mehr viel gemein, da sie individuelle Eigenschaften und Verhaltensweisen ebenso offenlegen können.

Diese Diskrepanz zwischen Selbsteinschätzung und realem Verhalten sollte vom Recht nicht unbeachtet bleiben, entscheidend ist aber die Frage der Konsequenz. Zum einen legt das Privacy Paradox das Dilemma offen, dass die Einschätzung und das tatsächliche Verhalten von Menschen stets kontextabhängig zu betrachten sind, Kontextverlust aber gerade das Ziel von quantitativer Datenverarbeitung ist, weil gerade eine multifunktionale Verwendung angestrebt wird. Als tragfähiges Argument gegen Regulierung, Daten- und Privatheitsschutz taugt das Privacy Paradox deshalb nicht. Das Privacy Paradox spricht nicht gegen eine Regulierung, sondern nur dafür, dass die bisherigen Mechanismen unzureichend sind. Denn gegen die Straßenverkehrsordnung (StVO) spricht auch nicht, dass sich viele Menschen nicht an Verkehrsregeln halten, das Erfordernis für die Regelungen der StVO ist, dass viele Menschen am Verkehr teilnehmen. Dies ist auf den Daten- und Privatheitsschutz im digitalen Zeitalter übertragbar.

3.4. Privacy Paradox als Mythos?

Die Kritik am Privacy Paradox zielt primär auf unzutreffende Grundannahmen aufgrund der bereits geschilderten Gegebenheiten in digitalen Sphären. Verhaltenspsychologische Implikationen sollten nicht generell-abstrakt, sondern kontextualisiert betrachtet werden. Das Privacy Paradox hingegen sei ein Mythos.

Das Privacy Paradox ist weder Mythos noch ein tatsächliches Paradox, sondern ein Dilemma. Es illustriert, parallel zu vielen rechtlichen Vorgaben, dass im digitalen Bereich immer noch aufgrund unzutreffender Grundannahmen operiert wird, die im analogen Bereich effektiv sein mögen, aber in online-basierten Umgebungen ins Leere laufen.

Es gibt inzwischen immer weniger Möglichkeiten online aktiv zu sein, ohne Daten mit den global führenden Onlineunternehmen zu teilen. Alternativangebote z.B. zu Googles Suchmaschine, haben sich zwar gehalten, sind aber Nischenprodukte geblieben. Zudem wird die Onlinepräsenz immer mehr mit sozialem Kapital verbunden. Technologien wie biometrische Gesichtserkennung in Echtzeit bieten den Menschen gar nicht die Möglichkeit, Privatheit überhaupt paradox erscheinen zu lassen – sie haben schlicht keine Wahl solchen Maßnahmen, wenn sie bspw. auf öffentlichen Plätzen angewendet werden, zu entgehen. Für Widersprüche zwischen Selbsteinschätzung und Verhalten bleibt dann kein Raum mehr. Selbiges gilt für das omnipräsente Tracking als unwissentliche Speicherung von Daten in digitalen Umgebungen, was zu einer Intransparenz gegenüber den Folgen des eigenen Handelns führt, da keine Nachvollziehbarkeit mehr gegeben ist, und Verhaltensmanipulationen ermöglicht werden.

Die Grundannahme des Privacy Paradox, dass es Ausdruck der eigenen Autonomie ist, Daten selbst preiszugeben, setzt reale und effektive Entscheidungsmöglichkeiten voraus. Um entscheiden zu können, sind Alternativen und Informationen erforderlich. Die Funktionsweise der prädiktiven Analytik führt dazu, dass Verhaltensweisen und Charakteristiken von Personen dauerhaft prognostiziert werden. Die Verletzung der Privatsphäre erfolgt dann nicht durch die gezielte Zweckentfremdung oder Entwendung vorhandener Daten, sondern dadurch, dass sensible Informationen vorhergesagt werden. Die Privatsphäre wird nicht durch die Preisgabe, sondern durch die Entstehung neuer Daten verletzt: durch die Prognose bestimmter Verhaltensweisen aus einem kollektiven Datenpool. Selbst wenn der eigenen Datenverarbeitung widersprochen wird, kann die kollektive Datenanalyse Rückschlüsse auf die eigene Person zulassen. Damit haben es Bürger:innen sowohl bei staatlichen als auch bei privaten prädiktiven Analysen nicht mehr selbst in der Hand, durch eigenes Verhalten einer Erfassung und digitalen Datenverarbeitung zu entgehen. Dies führt ebenfalls dazu, dass bereits keine Divergenz zwischen Selbsteinschätzung und Verhalten entstehen kann, da die Privatheitsverletzung bereits vor dem tatsächlichen Verhalten stattfindet.

4. Reaktionen des Rechts: Privacy kein Paradox

Das Privacy Paradox ist ein Anwendungsfall für Grundfragen der Verhaltensannahmen im Recht und durch Recht. Rechtswissenschaft betrachtet menschliches Verhalten nicht voraussetzungslos, sondern unter dem Blickwinkel einer Norm, weshalb auch kein rechtswissenschaftliches Verhaltensmodell existiert. Die Diskussion effizienter rechtlicher Regulierungen setzt unter anderem voraus, dass zutreffende Annahmen über menschliches Verhalten gemacht werden müssen. Als Strategien gegen das Privacy Paradox wird die verstärkte Nutzbarkeit von Wissen, insbesondere auch von prozeduralem Wissen, keine Pathologisierung von Onlineverhalten sowie anwendungsbezogene Strategien im Umgang mit Internetangeboten diskutiert.

Das größte Problem sind aber weiterhin solche Daten, die Personen ohnehin nicht kontrollieren können. Dagegen schafft das Bewusstsein darüber, an welchen Stellen persönliche Informationen generiert und verarbeitet werden nur bedingt Abhilfe, wenn dies ohnehin Dauerzustand ist. Die Schaffung von mehr Wissen hilft Ausflüssen wie dem Real-Time Bidding nicht ab und führt ohne reale Handlungsmöglichkeiten zur Resignation. Dass digitale Umgebungen inzwischen wichtige Infrastrukturen sind, entkräftet das Argument einer individuellen Entscheidung, diese Dienste nicht zu nutzen. Der gesellschaftliche Aspekt des sozialen Kapitals und der Auswirkungen digitaler Anwendungen spricht gegen die schlichte Ablehnung der Nutzung datenintensiver Dienste in der Verantwortung des Einzelnen. Entsprechend ist eine institutionelle oder systemisch Regulierung auch erforderlich, die bspw. durch Zertifizierung, datenschutzfreundliche Entscheidungen erleichtert.

Privatheit als Konzept in der Vorstellung vieler Menschen kann unendlich viele Facetten abdecken, die sich nur teilweise oder auch gar nicht mit konkreten persönlichen Verhaltensweisen überschneiden. Der Schluss von menschlichem Verhalten als nach außen gerichtetem Akt auf innere Einstellungen wie das Verständnis von Privatheit muss kritisch hinterfragt werden. Das Privacy Paradox illustriert diese verschiedenen Probleme von Privatheitsschutz in digitalen Kontexten.

Maßstab für die Regulierung im Datenschutzrecht kann deshalb nicht nur sein, dass Nutzer:innenverhalten zu untersuchen, sondern zu klären, welche Normen und Erwartungen durch die Datenverarbeitung verletzt werden. Vielmehr sollte Regulierung sich auch auf die andere Seite der Datennutzung konzentrieren und nicht alles in Nutzer:innenhand legen.

Transparenz wird oft angeführt, z.B. wenn es um Datenschutzerklärungen geht. Transparenz allein ist nicht ausreichend, es braucht Verständlichkeit und freie Wahl mehrerer Optionen. Mehr Entscheidungsoptionen führen nicht automatisch zu mehr Kontrolle. Nur wenn auch tatsächlich vollständige Informationen als Entscheidungsgrundlage vorliegen, ist die kalkulierte „informationelle Selbstgefährdung“ Ausdruck der individuellen Autonomie. Eine umfassende Transparenz und Offenlegung über alle relevanten Faktoren erreichen allein noch keine informierte Entscheidung. Im Kontext von Onlinediensten erscheint dies ohnehin illusorisch, da die Vorgänge der Datenverarbeitung schlicht zu komplex sind. Die Menge an Informationen würde nicht zu tatsächlichem Verständnis führen, sondern ins nächste Paradox: nach dem „transparency paradox“ wird zwar Transparenz durch detaillierte Aufklärung erzeugt, die Quantität der Informationen erschwert aber den Blick auf das Wesentliche.

Es sollte deshalb generelle Ziele des Privatheitsschutzes geben, der möglicherweise nicht nur als subjektives Recht zu konstruieren ist. Das kann auf Tatbestands- oder Vollzugsebene passieren, wie durch privacy by default and by design, Art. 25 ff. DSGVO. Situationsspezifische Besonderheiten sind zu berücksichtigen, z.B. durch besondere Darlegungspflichten in der konkreten Transaktion. Die europäische Verbandsklagerichtlinie hat zudem bspw. erstmals über Art. 80 DSGVO hinaus explizite kollektive Rechtsschutzmöglichkeiten gegen Datenschutzverstöße eingeführt.

Zudem ist das Credo der rein individuellen Risikobewertung in digitalen Kontexten nicht ausreichend. Das Internet führt zwangsläufig zu einem Kontrollverlust über die eigene Selbstdarstellung, da es keinen zumutbaren Überblick mehr über die personenbezogenen gespeicherten Daten gibt. Dem wirken Entwicklungen wie das „Recht auf Vergessen“ oder dem „Right to reasonable inferences“ nur sehr punktuell entgegen und setzen vor allem die Kenntnis der Datenspeicherung voraus. Neben individuellen Faktoren sind systemische Gegebenheiten, wie faktische Monopolstellungen großer Digitalkonzerne in bestimmten Bereichen der Sozialen Medien oder Messengerdienste, relevante Einflüsse. Rechtliche Regulierungsansätze sollten systemische Risiken und die Strukturen von Datenverarbeitung, -übermittlung und -bereitstellung stärker in den Blick nehmen anstatt den Privatheitsschutz als rein subjektive Angelegenheit des jeweiligen Verarbeitungsvorgangs zu begreifen. In einigen Bereichen, wie z.B. bei Kindern, sollte die Einwilligung als Rechtmäßigkeit der Datenverarbeitung ausgeschlossen sein. Zudem sollte erwogen werden, die Einwilligung in Situationen, in denen sie offensichtlich ihren Zweck nicht erfüllt (Beispiel: Cookie-Banner) unter erhöhte Rechtmäßigkeitsanforderungen zu stellen, wie eine Evaluation der tatsächlichen Wahrnehmung und Verarbeitung der Informationen durch vorgegebene Zeiten zur Anzeige der Einwilligungserklärung oder Kontrollfragen, die sich auf das Verständnis beziehen. Dadurch wird die Einwilligung im Massengeschäft unattraktiv und Anbieter:innen wären angehalten, sich z.B. um eine Zertifizierung zu bemühen.

Vermeintliche Regulierungen von Technik allein sind nicht zielführend, tatsächlich adressieren diese ohnehin die rechtsrelevanten Auswirkungen von Technik. Zukünftige Regelwerke sollten den Einfluss auf Privatheit individuell und in der Breite stärker in den Blick nehmen. Dazu gehört es auch, sozialwissenschaftliche und psychologische Implikationen stärker zu reflektieren. Konkrete datenschutzrelevante Anwendungsszenarien, insbesondere bei der Verhaltensbeeinflussung oder -steuerung können risikobasiert klassifiziert werden. In diese Richtung deutet auch der Vorschlag der Europäischen Kommission zum Artificial Intelligence Act, der allerdings in der jetzigen Fassung zu weitreichende Ausnahmen für bestimmte KI-Anwendungsszenarien vorsieht, welche grundrechtlich problematisch sind. Bestimmte, besonders privatheitsgefährdende Praktiken, wie z.B. KI-basierte Echtzeitgesichtserkennung oder andere biometrische Analysen sollten mit Verboten belegt werden.

5. Conclusio

Das sogenannte Privacy Paradox ist kein Paradox, sondern ein Dilemma, welches durch digitale Umgebungen, Techniken und ihre Strukturen bedingt ist, auf die Einzelpersonen keinen oder nur wenig Einfluss haben. Privacy by default and by design sind ergänzende, verheißungsvolle technische Lösungen, müssten aber konkretisiert und durchsetzbar gemacht werden. Das Privacy-Dilemma lässt sich durch den Abbau asymmetrischer Machtstrukturen zumindest abschwächen, bspw. wenn die Gruppe der Verbraucher:innen eine tatsächliche Kalkulation aufgrund einer vollständigen Informationsgrundlage und daraus abgeleiteten informierten Risikoeinschätzung treffen kann, durch institutionelle Unterstützung, wie z.B. Zertifizierung. Letztlich sollte der Fokus auf kollektive Aspekte von Privatheit und Datenschutz gelenkt werden, um die Konzentration auf die Verantwortlichkeit des Individuums aufzulösen und dadurch schließlich auch das Privacy Paradox. Das Ziel, Machtasymmetrien auszugleichen, ist keine paternalistische Bevormundung, sondern die notwendige Schaffung eines Freiheitsraumes. Ein anderer Weg ist es, anonyme Kommunikationsräume für die breite Nutzung zu popularisieren. Eine vollständige Ökonomisierung oder Tokenisierung aller Güter und damit auch der persönlichen Daten, über die Nutzer:innen ihre Daten dann an Anbieter:innen im Web 3.0 verkaufen können, wird hingegen das Problem der Machtasymmetrie nicht lösen, sondern reproduzieren.

Hanna Ruschemeier in: Künstliche Intelligenz, Demokratie und Privatheit; Nomos Verlagsgesellschaft mbH & Co. KG, 76530 Baden-Baden; 2022

DOI: https://doi.org/10.5771/9783748913344

https://creativecommons.org/licenses/by/4.0/deed.de

Zur einfacheren Lesbarkeit wurden die Fussnote und Quellenverweise entfernt.


© Swiss Infosec AG 2026