Die Herausforderungen für die Privatsphäre im Zeitalter intelligenter Systeme
06/2025
Die Definition der Privatsphäre ist eine schwierige Aufgabe. Daniel Solove, eine Autorität auf dem Gebiet des Datenschutzrechts und der Datenschutztheorie, beschreibt sie als ein Konzept in „Unordnung“ – etwas, das „nicht auf eine einzige Essenz reduziert werden kann“. Stattdessen handelt es sich um ein Sammelsurium verwandter Konzepte, die am besten „pluralistisch und nicht als einheitlicher gemeinsamer Nenner“ verstanden werden. Im digitalen Zeitalter hat dieser grundlegende Aspekt in Verbindung mit dem Aufkommen von Informations- und Computertechnologien zu vielen bedeutenden Problemen im Bereich der Privatsphäre geführt. Wie Luciano Floridi feststellt, haben diese Technologien die informationelle Privatsphäre gleichzeitig erweitert und ausgehöhlt, was eine Herausforderung für politische Ansätze darstellt, die entweder auf die Regulierung von Aktivitäten abzielen, die zu unerwünschten Folgen führen (der „Folgen“-Ansatz) oder die Menschenrechte oder das Wohlergehen verletzen (der „Rechte“-Ansatz). Der Konsequenzen-Ansatz hat mit der Aussage zu kämpfen, dass „eine Gesellschaft ohne jegliche informationelle Privatsphäre nicht unbedingt eine bessere Gesellschaft ist“, während der Rechte-Ansatz mit Definitionsfragen zu gemischten öffentlich-privaten Informationen und Ungenauigkeiten bei grundlegenden Konzepten wie Eigentum konfrontiert ist. Solche Fragen zeigen, dass sich die Wissenschaftler möglicherweise nicht darauf einigen können, was Privatsphäre ist, auch wenn sie in der Regel wissen, worum es dabei geht. Unabhängig davon, ob sie die Kontrolle über die Erfassung, Speicherung, Verwendung oder Weitergabe von Informationen (oder die Zustimmung zu solchen Praktiken durch andere) beinhaltet oder ob es um das „Recht, in Ruhe gelassen zu werden“ in „freien Zonen“ fernab der Kontrolle, Einmischung, des Eindringens oder des Zugriffs durch andere geht, bedeutet Privatsphäre Macht. Angesichts der zunehmenden Forderung nach einer auf den Menschen ausgerichteten KI, die die Technologie auf das Wohlergehen der Menschen und ihre Interessen ausrichtet, bleibt die Frage nach den Auswirkungen der KI auf die Privatsphäre eine zentrale Frage.
Die KI-Technologie stellt den Datenschutz in zweierlei Hinsicht in Frage. Erstens gibt es eine Zustimmungslücke. Bestehende Einwilligungs- und Awareness-Regelwerke, die darauf abzielen, Einzelpersonen und Gruppen zu befähigen, werden durch die Art der zunehmend vielseitigen und allgegenwärtigen Datenerfassung, die KI-Systeme speist, in Frage gestellt. Heutzutage ist der Einzelne selten in der Lage, vollständig zu verstehen, wo, wann und wie seine Daten gesammelt und dann von KI-Systemen verwendet werden. Zweitens gibt es eine Wissenslücke. Es ist unrealistisch, die von den meisten KI-Systemen verwendeten Prozesse vollständig zu verstehen. Selbst für Experten übersteigen die Synthese- und Schlussfolgerungsprozesse, die von komplexen oft Black-Box-Algorithmen unter Verwendung riesiger Datensätze durchgeführt werden, die kognitiven Fähigkeiten des Menschen. Da KI-Systeme ausserdem häufig „freie Variablen auf extreme Werte setzen, können die Systeme, wenn eine dieser freien Variablen tatsächlich etwas ist, was uns am Herzen liegt“, diese unserer Kontrolle entreissen und die von ihnen produzierten „Lösungen“ höchst unerwünscht machen – was erhebliche Fragen hinsichtlich der Übereinstimmung zwischen menschlichen Werten und technologischer Entwicklung aufwirft. Diese Realität wird durch einen Mangel an Transparenz noch verschärft, der dazu führt, dass KI-Systeme ihre Ziele mit manchmal unbeabsichtigten, schädlichen Auswirkungen oder mit sich entwickelnden Zielen erreichen, die sich der menschlichen Kontrolle entziehen.
Diese Zustimmungs- und Wissenslücken führen dazu, dass immer wieder in Bereiche eingedrungen wird, die ansonsten von der Privatsphäre kontrolliert werden könnten. Um beispielsweise KI-Systeme besser auf den Menschen und die Privatsphäre abzustimmen, versuchen Regierungen, KI-Eingaben und -Prozesse zu regulieren. Auf der Ebene der Eingaben umfassen diese Bemühungen die Stärkung von Benachrichtigungs- und Zustimmungsregelungen und die Forderung nach robusten Sicherheitsvorkehrungen für die Datenverarbeitung; auf der Ebene der Prozesse umfassen sie das Recht auf Erklärungen und andere Formen der Rechenschaftspflicht wie Validierungsstudien, Fehlerberichte usw. Doch angesichts der Nützlichkeit der Ergebnisse von KI-Systemen kann der Wunsch nach Kontrolle über die Eingabe oder den Prozess für alle ausser den eifrigsten Verfechtern des Datenschutzes schnell an Priorität oder Dringlichkeit verlieren. Die Verlockung von KI-Ergebnissen, die auffallend nützlich, präzise, effizient, genau und zuverlässig sind – was dazu beiträgt, dass sie immer mehr Zeit, Aufmerksamkeit und Vertrauen der Menschen für sich gewinnen -, macht Versuche, die Eingaben oder Prozesse der KI zu kontrollieren, oft überflüssig. Die viel diskutierte Frage, ob wir eine menschliche Ausrichtung in eine entstehende und entwicklungsfähige Intelligenz einführen können oder nicht, hat Experten dazu veranlasst, vorsichtig zu argumentieren, dass, während wir technische Fortschritte erzielen, die KI über diese anfänglichen Beschränkungen hinausgehen könnte, um ihre eigenen besten Ziele zu erreichen.
Wir haben zwar nicht allen Kompromissen zugestimmt – und sind auch selten in der Lage, dies zu tun -, aber wir geben KI-Systemen zunehmend unsere wertvollsten Ressourcen: unsere Zeit, unsere Aufmerksamkeit und unser Vertrauen. Die Folgen dieser Machtübertragung zu verstehen, ist einer der Schwerpunkte dieses Artikels, der versucht, die Privatsphäre als transversales Konzept in der Vergangenheit, Gegenwart und Zukunft zu untersuchen. Die Privatsphäre ist nicht nur ein Wert, sondern eine Reaktion auf die Technologie. Die Privatsphäre bestimmt, wie weit wir die Technologie in Bereiche des menschlichen Lebens und Bewusstseins vordringen lassen. Da die Künstliche Intelligenz (KI) aufgrund der Anzahl der Mutationen und Variationen, die in kürzerer Zeit eingeführt und ausgewertet werden können, die menschliche Evolution wohl übertrifft, ist die Privatsphäre kybernetisch geworden – sie ist im Fluss mit den KI-Technologien selbst und interagiert mit ihnen, um ihre Konturen ständig neu zu zeichnen. Wie die sprichwörtlichen „Nutzungsbedingungen“, die uns immer wieder über neue Eingriffe in unsere Privatsphäre durch neuartige Verwendungen unserer persönlichen Daten informieren, verändert sich auch das Wesen der Privatsphäre ständig. Gelegentlich kommt es zu dramatischen Situationen, in denen die Interessen der Privatsphäre uns vor unerwünschten Eingriffen warnen. Doch wenn diese Schocks abklingen, wird der Schutz der Privatsphäre schnell neu definiert und aufgefasst, und da KI immer mehr Zeit, Aufmerksamkeit und Vertrauen in Anspruch nimmt, wird der Schutz der Privatsphäre weiterhin eine entscheidende Rolle bei der Grenzziehung zwischen Mensch und Technologie spielen.
Die Vergangenheit
Es mag hilfreich sein, zu verstehen, wie wir hier gelandet sind. Im Laufe der Geschichte haben die Rechtsordnungen vieler Länder traditionell Rechte auf Privatsphäre gewährt, um die Bürger vor Eingriffen des Staates zu schützen. Später wurde die Formulierung der Privatsphäre als „Recht, in Ruhe gelassen zu werden“ in einem breiteren sozialen Kontext zu einem Dreh- und Angelpunkt in den Kämpfen um das Recht auf Empfängnisverhütung für verheiratete und unverheiratete Paare, Abtreibung, gleichgeschlechtliche sexuelle Aktivitäten und die gleichgeschlechtliche Ehe. Dann setzte sich der Begriff der Privatsphäre in einem Verbraucherkontext durch, der die Privatsphäre als „den Anspruch von Einzelpersonen, Gruppen oder Institutionen, selbst zu bestimmen, wann, wie und in welchem Umfang Informationen über sie an andere weitergegeben werden“ definiert. Das Flaggschiff dieser gesetzgeberischen Bemühungen war bisher die Datenschutz-Grundverordnung der Europäischen Union, die Rechte für betroffene Personen in Bezug auf Transparenz, Zugang, Berichtigung und automatisierte Entscheidungsfindung (einschliesslich des Rechts, keiner ausschliesslich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden) schuf. Die Datenschutz-Grundverordnung (DSGVO) wies jedoch erhebliche Mängel auf, da ihr Ansatz zum Schutz der Privatsphäre und zum Datenschutz an einer Vision des Datenschutzes festhielt, bei der die wichtigsten Leitplanken für die Nutzung von Informationen die Regelungen zur Benachrichtigung und Einwilligung waren. Seit der Verabschiedung der Datenschutz-Grundverordnung ist die demokratische (und nicht-demokratische) Welt überschwemmt worden mit Gesetzesvorhaben zum Schutz der Privatsphäre und zum Datenschutz. Einige dieser Gesetze sind datenspezifisch, wie z. B. themenspezifische Gesetze (z. B. für biometrische Daten) und instanz- oder verhaltensspezifische Gesetze (z. B. Meldung von Datenschutzverletzungen, spezifische Strafen für die Veröffentlichung intimer Bilder usw.). Auch wenn einige behaupten, dass diese Legislation eine ansteckende oder katalytische Wirkung habe, ist ihr wahres Vermächtnis das Fehlen einer sinnvollen Reaktion und die bereits erwähnte „Unordnung“. Dieser Ansatz erlaubt neue Eingriffe in die Privatsphäre.
Während der Begriff der Privatsphäre die Macht des Einzelnen qua Verbraucher beschreibt, „Informationen über sich selbst zu verbergen, die andere zu ihrem Nachteil nutzen könnten“, argumentieren einige, dass eine angemessene Reaktion die ausdrückliche Formulierung der Privatsphäre als grundlegendes Menschenrecht erfordert. Wieder andere, wie Helen Nissenbaum, haben erklärt, dass jedes Paradigma von individuellen Rechten unzureichend sein könnte – sie schlagen vor, dass kollektivistische Paradigmen ein notwendiger Teil jeder zukünftigen Regulierung sind. Andere haben gesagt, dass der Schwerpunkt auf einer Abstufung der Daten nach ihrer Sensibilität liegen sollte. Diese Stimmen argumentieren, dass der derzeitige Ansatz zum Schutz der Privatsphäre und des Datenschutzes für Verbraucher nur deshalb fehlerhaft ist, weil nicht zwischen verschiedenen Arten von sensiblen Daten unterschieden wird – wobei einige Befürworter vorschlagen, dass ein verbesserter Schutz der Privatsphäre eine Konzentration auf die Art, Qualität oder Natur des Gegenstands erfordert. Dieser Ansatz der „Datensensibilität“ fordert uns auf, den Gegenstand und die damit verbundenen Schutzmassnahmen zu staffeln. Dieser Ansatz ignoriert jedoch die Tatsache, dass der Missbrauch personenbezogener Daten im Allgemeinen die zugrundeliegenden Datenschutzinteressen auslöst – und angesichts der ständigen Veränderungen in der Technologie nicht oft vorhersehbar ist. Darüber hinaus hat die Konzentration auf den Inhalt dazu geführt, dass sich die Regelungen zum Schutz der Privatsphäre und des Datenschutzes auf Fragen wie die Richtigkeit der Informationen konzentriert haben, während dringendere Fragen wie die, ob die Erhebung, Speicherung und Verwendung der Daten überhaupt notwendig war, sowie die Frage, welche Schäden von bestimmten Verwendungen und Praktiken ausgehen, ignoriert wurden. Fragen der Nutzung und Praxis berühren fast zwangsläufig schwierigere Fragen des öffentlichen Interesses, die in anderen Zusammenhängen der Vertraulichkeit und Geheimhaltung auftreten, wo die öffentlichen Interessen an der Geheimhaltung (z. B. die Wahrung wichtiger kommerzieller Interessen, die für das Funktionieren der Wirtschaft unerlässlich sind) mit den öffentlichen Interessen an der Offenlegung (z. B. offener Zugang zu Informationen) in Konflikt geraten. Verstösse gegen die Privatsphäre müssen in der Tat regelmässig mit solchen Belangen des öffentlichen Interesses rechnen, wie man in so unterschiedlichen Zusammenhängen wie Whistleblowing, journalistischen Enthüllungen, Verletzung der Privatsphäre zum Schutz der Sicherheit oder zur Verhinderung von Schäden und Doxing im öffentlichen Interesse sieht.
Die Gegenwart
Die vielleicht wichtigste Veränderung im Bereich der Privatsphäre ist die Frage, wer in die Privatsphäre eindringt. Entgegen der Warnung von George Orwell in 1984, dass die grösste Gefahr der Überwachung von der Staatsmacht ausgeht, geht die zunehmende Überwachung nicht mehr nur von staatlichen Akteuren aus, sondern von „anderen staatlichen Akteuren, Unternehmen und sogar Einzelpersonen“. Der traditionelle Rahmen für den Schutz der Privatsphäre war für dieses Paradigma nicht ausgelegt. Wo früher der Staat im Mittelpunkt stand, können die Regierungen heute problemlos die erforderlichen Informationen von privaten Dritten einholen, was sie auch häufig tun. Diese so genannte Drittparteien-Doktrin, nach der Einzelpersonen, die Dritten freiwillig Informationen zur Verfügung stellen, keinen Anspruch auf diese Informationen haben, wenn sie dann vom Staat eingeholt werden, hat in der modernen Zeit sowohl die Privatsphäre als auch die Durchsuchung und Beschlagnahme untergraben. Viele dieser Dritten sind zudem genauso mächtig wie Staaten (z. B. übersteigt der Marktwert von Apple das BIP von zwei G7-Staaten). Das Paradigma des Überwachungskapitalismus, in dem personenbezogene Daten erfasst und zu Waren gemacht werden, um die Ausrichtung von Technologienutzern als Konsumenten zu verstärken und aufrechtzuerhalten, ist heute eine gängige Redewendung dieser Ära.
Die KI beschleunigt diese Trends, indem sie sich immer mehr Macht in Form von menschlicher Zeit, Aufmerksamkeit und Vertrauen aneignet. Die KI strebt selbst nach Macht, und zwar aus dem einfachen Grund, dass sie durch die Anhäufung von Macht ihre primären Ziele besser erreichen kann. Die Forschung zeigt auch, dass Algorithmen in einem breiten Spektrum von Umgebungen nach Macht streben. Bezeichnend für diese Macht ist die Art und Weise, wie die öffentliche Diskussion über KI von den Akteuren beeinflusst wird, die diese Technologien entwickeln. Es ist unbestreitbar, dass Macht die Art und Weise beeinflusst, wie wir sprechen. „Die politische Sprache“, so schrieb Orwell, „ist darauf ausgerichtet, Lügen wahrhaftig und Morde respektabel klingen zu lassen.“ Wie Carissea Véliz hervorgehoben hat, haben die die Privatsphäre untergrabenden Technologien des digitalen Zeitalters einen beeindruckenden Kampf gegen die Rechte auf Privatsphäre auf der diskursiven Ebene geführt. „Private Werbe- und Überwachungsnetzwerke werden als ‚Gemeinschaften‘ bezeichnet“, schreibt sie,
Bürger sind „Nutzer“, die Sucht nach Bildschirmen wird als „Engagement“ bezeichnet, unsere sensibelsten Informationen werden als „Datenabgase“ oder „digitale Brotkrümel“ bezeichnet, Spionageprogramme heissen „Cookies“, Dokumente, die unseren Mangel an Privatsphäre beschreiben, werden als „Datenschutzrichtlinien“ bezeichnet, und was früher als Abhören galt, ist heute das Fundament des Internets.
Wenn der Schutz der Privatsphäre ein semantisches Schlachtfeld ist, dann ist die Sprache zu seiner Waffe geworden. Daraus folgt, dass die wirksamste Form der Regulierung oft eine Verbraucherschutzgesetzgebung ist, die Strafen für falsche Angaben und falsche Werbung festlegt.
Obwohl die modernen Schnittstellen zum Schutz der Privatsphäre den Nutzern oft das Gefühl geben, die Kontrolle zu haben, beruhen sie auf Doktrinen, die nicht mehr funktionieren. Diese Dynamik wird immer deutlicher, da der Datenhandel in fast allen gesellschaftlichen Institutionen Einzug hält. Die nahezu ungehinderte Sammlung, Speicherung und Nutzung persönlicher Daten führt zu erheblichen Machtasymmetrien. Die Aufnahme von Daten von und über Personen dient dann der Identifizierung von Mustern, Verbindungen, Kategorisierungen, Klassifizierungen und Korrelationen. Dies geschieht mit Technologien, die in den meisten Fällen auch noch undurchsichtig und urheberrechtlich geschützt sind – geschützt durch Rechtsgrundsätze wie Geschäftsgeheimnis oder vertrauliche Informationen. Diese Formen von Macht und Verwundbarkeit sind nicht immer greifbar. Erstens verkompliziert die KI das Paradigma der Datenverwendung für „unbeabsichtigte Zwecke, die den Nutzern zum Zeitpunkt der Erhebung nicht bekannt sind“, in exponentieller Weise. Zweitens macht die rasche Entwicklung von KI-Modellen Transparenz und Rechenschaftspflicht schwer nachvollziehbar, da das Training von Algorithmen deren Wesen verändern kann. Bei diesen doppelten Angriffen auf die menschliche Kontrolle muss auch mit der Verlockung der Ergebnisse der Technologie gerechnet werden. In dem Masse, wie KI-Technologien die Zeit, das Vertrauen und die Aufmerksamkeit der Menschen gewinnen, sind sie häufig in der Lage, vieles von dem, was wir Menschen tun, zu ersetzen“ – ganz gleich, ob es sich um die Verbesserung von Suchvorgängen, das Verfassen einer E-Mail, die Steuerung eines Fahrzeugs oder die Warnung von Menschen vor einer drohenden Gefahr handelt. Die Vorteile dieser Technologien machen uns oft blind für ihre Kosten. Genauso wie die Rhetorik der nationalen Sicherheit von Staaten genutzt wird, um Eingriffe in die Privatsphäre zu rechtfertigen, berufen sich staatliche Akteure immer wieder auf die öffentliche Sicherheit, um Gesetze zum Schutz der Privatsphäre und des Datenschutzes zu umgehen. Eine ähnliche Dynamik lässt sich bei dem jüngsten Vorstoss zur Einführung solcher Technologien während der COVID-19-Krise beobachten.
Sicherlich gibt es in der Gegenwart noch viele Beispiele für das menschliche Interesse an der Privatsphäre. In der Tat wird die Privatsphäre von denjenigen geschätzt, die KI-Systeme entwickeln und besitzen. Ein Besuch im Silicon Valley zeigt, dass es nicht an Menschen mangelt, die im Epizentrum der KI-Wirtschaft arbeiten und sich weigern, deren Technologien zu übernehmen (oder dies ihren Familienmitgliedern zu erlauben). Um ihre Privatsphäre zu schützen, kaufte Meta-CEO Mark Zuckerberg Häuser in der Umgebung seines Hauses, der frühere Alphabet-CEO Eric Schmidt beantragte die Löschung von Datensätzen in der Google-Suchfunktion, und Twitter-CEO Elon Musk stellte Konten ein, die den Standort seiner Privatflugzeuge verfolgten. „Dass berühmte und mächtige Menschen ihre Privatsphäre gewissenhaft schützen, sollte keine Überraschung sein“, schreibt Véliz. „Sie ist etwas, das wir alle schätzen. Sonst würden wir unsere Passwörter freiwillig preisgeben“.
Die Zukunft
Da die KI weiterhin die Zeit, die Aufmerksamkeit und das Vertrauen der Menschen in Anspruch nimmt, wird die Umwandlung von KI-Technologien in Erweiterungen des Menschen eine kybernetische Dynamik in Bezug auf den Begriff der Privatsphäre hervorrufen. Mit anderen Worten: Die Privatsphäre wird sich mit der Akzeptanz oder Ablehnung von KI-gesteuerten Technologien verändern. Diese kybernetische Sichtweise der Privatsphäre ist nicht neu. Was die Menschen als private Interessen gefordert, gewünscht oder artikuliert haben, hat sich im Laufe der Zeit weiterentwickelt. In der Vergangenheit zielte der Schutz der Privatsphäre gegen staatliche Eingriffe auf den Schutz vor staatlichen Eingriffen an bestimmten Orten ab – häufig in der Wohnung. Das Recht auf Schutz vor unangemessener Durchsuchung und Beschlagnahme bezog sich auf bestimmte Orte. Später wurde der Schutz der Privatsphäre auf Personen bezogen, als das Datenschutzrecht Praktiken im Zusammenhang mit der Verwendung von Kondomen, Abtreibung und intimen sexuellen Handlungen schützte. Heute wird der Schutz der Privatsphäre häufig in elektronischen Räumen im Zusammenhang mit der Nutzung personenbezogener Daten (und anderer Datenarten) wahrgenommen. Der Aufstieg der KI hat einen weiteren massiven Eingriff in die Privatsphäre verschleiert.
Vor diesem Hintergrund könnte man sich fragen, ob die Privatsphäre als Wert überhaupt Bestand haben kann oder wird. Diese Frage ist nicht neu. Der Philosoph Alan Watts stellte in den 1960er Jahren die Frage, ob die Netzwerkausweitung mit der Zeit „die Privatsphäre abschaffen“ würde. Eine solche Vision entspringt der Erkenntnis, dass sich im digitalen Zeitalter aus dem „riesigen Ozean von Daten ein erschreckend vollständiges Bild von uns“ ergibt. Watts betrachtete Technologien als „Erweiterungen“ des Menschen in der gleichen Weise wie Marshall McLuhan, der argumentierte, dass neue Medientechnologien Teile des menschlichen Körpers verstärken und ersetzen und damit den Organismus selbst grundlegend verändern. Diese Theorie sieht die Übernahme von Technologien als Erweiterungen des Selbst, bei denen Störungen oder Ausfälle in der Funktion einer bestimmten Technologie, wie z. B. der Verlust der eigenen Brille, der Kopfhörer oder der Autoschlüssel – oder heutzutage das Hacken des eigenen digitalen Avatars oder Zwillings – Funktion und Wohlbefinden empfindlich stören können. Auch wenn Menschen versuchen, „digitalen Minimalismus“ zu betreiben und ihre Nutzung von Technologie zu reduzieren, erleben sie oft einen Entzug. Wie Watts feststellte:
Die Unterscheidung zwischen dem Künstlichen und dem Natürlichen ist eine sehr künstliche Unterscheidung. Die [technologischen] Konstruktionen des Menschen sind nicht unnatürlicher als Bienennester und Vogelnester und Konstruktionen von Tieren und Insekten. Sie sind Erweiterungen von uns selbst.
Eine solche These besagt im Extremfall, dass die KI einen Weg für die weitere Entwicklung des Menschen darstellt und nicht für die biologische Evolution, d. h. dass die KI, die ursprünglich vom Menschen geschaffen wurde, nun aber von ihm getrennt ist, die nächste Evolutionsstufe darstellt. Die Weltuntergangsversion dieser These besagt, dass KI der nächste Evolutionsschritt für das Leben auf der Erde sein könnte und der Mensch auf dem Rückzug ist.
„Was also“, fragt Watts, „ist mit der Situation, wenn wir alle computerisiert sind?“ In naher Zukunft, wenn noch mehr vom Leben online gelebt wird und Avatare und digitale Zwillinge allgegenwärtig sind, ist es nicht schwer, sich „elektronische Echos“ von uns vorzustellen, die von Daten widerhallen, die von unseren Personen extrahiert wurden, aber separat in elektronischen Netzwerken und Computern existieren. Werden diese elektronischen Echos die Privatsphäre auf Dauer illusorisch machen? Wird irgendetwas über uns wirklich privat sein? Eine Möglichkeit, diese Frage zu klären, besteht darin, das Wesen der Privatsphäre selbst in Frage zu stellen. Selbst wenn wir eine angeborene Grammatik haben, ist es schwer zu bestreiten, dass Sprachen durch das Kopieren von Ausdrücken externer sozialer Netzwerke gelernt werden. Das aus diesen Inputs organisch erworbene Wissen ist in gewisser Hinsicht nicht das unsere – nicht privat. Diesem Argument folgend legen die Quellen, die den Einzelnen beeinflussen und auf ihn einwirken, nahe, dass auch die persönlichen Gedanken keine privaten Zonen sind, sondern vielmehr Zonen öffentlichen Einflusses. (Interessanterweise ist Telepathie oder Kommunikation ohne Rückgriff auf physische Kanäle oder Interaktion in vielen Darstellungen von Science-Fiction ein gängiges Klischee, das mit futuristischen Gesellschaften assoziiert wird; dieses gängige Klischee eines solch tiefen Eindringens in eine private Sphäre könnte etwas darüber aussagen, wie wir die Privatsphäre für neue Technologien in der Zukunft neu auffassen). „Sie sind nicht annähernd so sehr ein privates Individuum, wie Sie denken“, sagt Watts. „Sie üben natürlich auch diese Einflüsse auf andere Menschen aus“. Die Konzeptualisierung dieses „verinnerlichten Anderen“ – die Summe dieser Stimmen in uns, die das Selbst von anderen ununterscheidbar macht – wirft wichtige Fragen zu den Grenzen der Privatsphäre als Quelle oder Katalog von Rechten auf, „auf die eine Person von Natur aus Anspruch hat, einfach weil sie ein Mensch ist“. Eine solche Sichtweise scheint nicht nur die Werte bestimmter Kulturen zu kanalisieren, sondern uns auch des Nutzens von Erkenntnissen zu berauben, die sich aus der Aufgabe von Privatsphäreninteressen ergeben könnten. Wenn alles über das Selbst wissbar, messbar und ableitbar ist, ergeben sich aus der Analyse der ständigen Eingaben klare Vorteile. Was diese Entwicklungen bedeuten werden, hängt davon ab, wie KI-Technologien einige der letzten Barrieren überwinden, um menschliche Erkenntnisse und Gedanken abzuleiten, zu antizipieren und zu lesen. Technologische Entwicklungen, die es ermöglichen, die Gedanken und Emotionen von Menschen zu lesen, werden die Fähigkeit des Menschen in Frage stellen, Informationen in diesen Bereichen nach eigenem Gutdünken zurückzuhalten und andere daran zu hindern, diese Bereiche zu betreten. Der Mangel an Gesetzen zum Schutz der geistigen Privatsphäre hat einen völlig ungeregelten Raum für das Wachstum dieser Neurotechnologie eröffnet, deren Architektur bereits durch aufkommende Technologien wie tragbare Geräte, Gesichtserkennung und andere biometrische Technologien zur Nutzung der Daten vorhanden ist.
Diese Beobachtung bringt uns zu den besonderen Problemen, mit denen Gesellschaften konfrontiert sind, die tief in Menschenrechtsdiskursen verwurzelt sind – Gesellschaften, in denen die Würde des Menschen der Prüfstein für die sozio-rechtliche Architektur ist. Selbst wenn KI zu mehr Gleichheit führt, ist es unwahrscheinlich, dass sie zu mehr Individualität führt – ein Konzept, das die westlichen Demokratien in den letzten drei Jahrhunderten geprägt hat. In The Equality Machine (Die Gleichheitsmaschine) bietet Orly Lobel eine mitreissende Verteidigung der KI für ihr Versprechen, die Gleichheit zu verbessern, die sie als „das wichtigste Gebot unserer Zeit“ bezeichnet. Lobel argumentiert, dass KI es letztendlich einfacher als je zuvor machen könnte, sicherzustellen, dass unsere Arbeitsplätze die Durchschnittswerte widerspiegeln, die notwendig sind, um die verschiedenen Gleichheitsgebote bei der Einstellung, der Repräsentation usw. zu erfüllen – und so als effektiver „Rauchmelder“ für diese Probleme dienen. Sie schreibt: „Wir machen uns Sorgen, dass Algorithmen Black Boxes sind – mit anderen Worten, undurchsichtig und schwer zu verstehen (was sie oft auch sind). Aber was ist mit der Black Box des menschlichen Geistes?“. Lobel verweist auf das Beispiel der «menschlichen Entscheidungsfindung bei der Einstellung von Personal, an der Dutzende von Personalvermittlern, Interviewern, Mitarbeitern, Kunden und Vorgesetzten beteiligt sind, von denen jeder eine eigene kleine Blackbox darstellt». Sie argumentiert, dass KI viele der negativen Auswirkungen, wie z. B. Diskriminierung, die während dieser Prozesse auftreten können, vereiteln kann. KI könnte dabei helfen, Fragen der Gleichberechtigung bei der Beschäftigung oder der Erbringung von Dienstleistungen zu bewerten und zu überwachen, und sie verspricht gleichere Ergebnisse als die von Menschen betriebenen Systeme. Die klare Gegenargumentation, auf die sie eingeht, ist jedoch, dass KI aus vorgegebenen Eingaben und Regeln lernt; wenn diese also unvollkommen sind, kann KI ihre eigenen Vorurteile entwickeln.
Vorschriften, die darauf abzielen, die Auswüchse dieser Technologien zu messen oder einzudämmen – z. B. Berichterstattung und Überwachung von Auswüchsen (so wie Umweltverschmutzer aufgefordert werden, ihre externen Effekte zu melden und zu überwachen) – könnten dazu beitragen, einige der negativen Auswirkungen der KI zu bekämpfen. Zu diesen Bemühungen gehört auch die Forderung dieses Buches, die KI menschenzentriert zu gestalten. Floridi bezeichnet diese Terminologie jedoch als „anachronistisch“, da sie „sowohl trivial wahr als auch gefährlich zweideutig“ sei. Damit hat er nicht unrecht. Zum einen kann die von Lobel gepriesene Gleichheit im Widerspruch dazu stehen, wie Menschen ihre Individualität ausüben wollen, was die derzeitigen Ansätze zur Regulierung der Privatsphäre begründet, die auf individuellen Rechten wie Information, Zustimmung und Kontrolle basieren. Dies ist einer der Hauptgründe, warum sich die Regulierung von KI-Eingaben und -Prozessen als so schwierig erwiesen hat. Selbst demokratische Regierungen, die sich zu einem Rechtsrahmen bekennen, der in der Würde des einzelnen Menschen verwurzelt ist, setzen KI zunehmend ein, um Kosten-, Geschwindigkeits- und Genauigkeitsvorteile bei der Bereitstellung von Waren und Dienstleistungen zu erzielen – und mästen ihre Bürger zu extrahierbaren Daten und Entscheidungen auf zutiefst objektivierende und aufdringliche Weise zu treffen. Die fehlende Zustimmung zur Datenerhebung und die fehlende Überprüfbarkeit dieser Prozesse bedeuten, wie bereits erwähnt, dass die Ergebnisse oft die Menschenwürde untergraben. Und doch machen wir weiter mit, was sich darin zeigt, wie viel Zeit, Vertrauen und Aufmerksamkeit diesen Systemen gewidmet wird. Der Zusammenbruch von Vertrauensinstitutionen in den letzten 50 Jahren – die Aushöhlung religiöser Institutionen in demokratischen Gesellschaften, der Zusammenbruch sozialer Beziehungen wie der Ehe und das nachlassende Engagement von Wählern in Demokratien – deutet darauf hin, dass das Vertrauen in liberale Demokratien bereits im Schwinden begriffen ist. Die Einführung von KI-Technologien, die dem Menschen überlegen sind, ist ein weiterer Grund, sich von menschlichen Institutionen abzuwenden. Die meisten Menschen haben sich bereits von von Menschen kuratierten Nachrichten (z. B. Zeitungen) zugunsten von KI-kuratierten Nachrichten (z. B. Social-Media-Seiten, die Nachrichten sammeln und für das Publikum kuratieren) abgewendet. Solche Veränderungen sind die natürliche Entwicklung im Zuge der Verlagerung des Vertrauens von Menschen auf Technologie. Solche Kompromisse verändern die Art und Weise, wie Menschen bereit sind, über Privatsphäre nachzudenken.
Heute sind wir oft bereit, KI-Systemen Macht zu überlassen, indem wir ihnen unsere Zeit, unsere Aufmerksamkeit und unser Vertrauen schenken, wie in unzähligen anderen Fällen. So tragen viele von uns elektronische Geräte, die unsere Gesundheitsdaten erfassen und bearbeiten, und erhalten im Gegenzug die Analysen, die KI-Systeme liefern können. Viele von uns entscheiden sich für den Transport in Fahrzeugen, die KI-Technologie nutzen (z. B. selbstfahrende oder Fahrerassistenzprogramme, Apps für die globale Positionsbestimmung und Kartenerstellung, die KI nutzen, sowie Flugzeuge, die Autopilot und automatische Landung nutzen), um Zeit und Effizienz zu gewinnen, die Sicherheit zu erhöhen, das Risiko zu verringern, Kraftstoff zu sparen, die Kohlenstoffemissionen zu senken oder ähnliche Ziele zu erreichen. Viele von uns interagieren mit Social-Media-Plattformen, deren Algorithmen Ströme von Inhalten liefern, die auf unsere Interessen zugeschnitten sind. Ich habe sie beim Schreiben dieses Kapitels verwendet, um Rechtschreib- und Grammatikfehler zu erkennen. KI-Ergebnisse können schockierend persönlich erscheinen, obwohl sie durch zutiefst unpersönliche Prozesse erzeugt werden – indem individuelle Daten mit anderen Daten gemästet werden, um Muster, Kategorien und Schlussfolgerungen zu erkennen. Heute, da wir der KI unsere Zeit, unsere Aufmerksamkeit und unser Vertrauen schenken, wird unser Engagement für den Schutz der Privatsphäre durch die Tatsache erschwert, dass KI-Technologien sowohl Schaden als auch Nutzen bringen. Diese Vorteile und der damit verbundene Machtverlust können dazu führen, dass Eingriffe der KI in unsere Datenschutzinteressen schwer zu verhandeln sind – und den Menschen weit aus dem Zentrum rücken.
Es wurden mehrere Lösungen zur Verbesserung des Datenschutzes vorgeschlagen, um den Weg in diese Ära zu ebnen. Eine davon ist der häufigere Rückgriff auf föderales Lernen oder föderale Analytik – die Idee der Dezentralisierung von Daten, so dass datenschutzsensible Trainingsdaten für Algorithmen und Lernmodelle nicht an einem einzigen Ort oder in einer einzigen Quelle aggregiert werden. Solche Forderungen stossen jedoch auf enormen Widerstand seitens der Unternehmen, die daran arbeiten, Barrieren für den Datenfluss abzubauen und die Datenlokalisierung zu verhindern. In bestimmten Texten haben andere für differenzierte Datenschutzansätze plädiert – das Hinzufügen von „Rauschen“ in Form von gefälschten Daten zu Datensätzen, um „Bedrohungen der Privatsphäre, einschliesslich Datenverknüpfung und Rekonstruktionsangriffe“ abzuwehren. Bei der Verwendung gefälschter Daten in bestimmten Kontexten stellen sich jedoch heikle ethische und moralische Fragen. Schliesslich der Vorschlag synthetischer Daten – die Verwendung generativer Modelle zur Umwandlung von Quelldaten in gefälschte Daten – als Lösung zur Verbesserung des Schutzes der Privatsphäre und zur Eindämmung des Risikos der Reidentifizierung von Datensätzen vorgeschlagen. Diese Entwicklung birgt jedoch das Risiko, dass sie veraltet, da Fortschritte in der KI-Technologie zur Inferenzgenerierung zweifellos die Abwehrsysteme synthetischer Daten bekämpfen werden. Jeder dieser Vorschläge stärkt den Schutz der Privatsphäre vor dem Aufstieg der KI, obwohl jeder von ihnen mit grossen Herausforderungen konfrontiert ist.
Schlussfolgerung
„Waking up begins with am and now“, schrieb Christopher Isherwood zu Beginn seines Trauerromans A Single Man. Isherwood verwendet römische Schrift, um die Körperlichkeit des Protagonisten zu beschreiben, und Kursivschrift, um das Bewusstsein des Protagonisten zu beschreiben. „Das, was erwacht ist, liegt dann eine Weile da und starrt zur Decke und in sich hinein, bis es mich erkannt hat und daraus ableitet, dass ich bin, dass ich jetzt bin.“ In Isherwoods Erzählung verdichten sich diese Fugen zu einem Protagonisten, George, der sowohl ein Körper als auch ein Wesen ist. Manchmal schreibt George seine Erlebnisse mit aktivem Gewissen und ist in jeder Hinsicht ein einzelner Mensch; manchmal ist er einfach auf Autopilot, Teil einer Welt, in der er überhaupt kein einzelner Mensch ist, sondern eine blosse biologische Einheit, die mit einem grösseren, äusseren Ökosystem verbunden ist, zu dem nicht nur Menschen, sondern auch Tiere und die Natur gehören. Diese Dualität zwischen dem Inneren und dem Äusseren war schon immer Teil des menschlichen Lebens. Wir sind bewusste, einzigartige und individuelle Wesen und gleichzeitig Mitglieder eines grösseren Systems, in dem wir überhaupt keine Rolle spielen. In dem Masse, in dem die KI mehr und mehr unsere Zeit, unsere Aufmerksamkeit und unser Vertrauen in Anspruch nimmt – was bei vielen von uns bereits der Fall ist, und zwar vom Aufwachen am Morgen bis zur letzten Handlung am Abend -, nimmt sie uns einen Teil unserer Autonomie und sortiert uns in Kategorien ein, anstatt unsere Individualität zu berücksichtigen, und frisst sich immer weiter in diese Räume hinein, die als „Ich bin, ich bin jetzt“ gelten. Jetzt und in Zukunft wird die Privatsphäre die Grenze sein, wenn wir uns auf einer der beiden Seiten dieser Kluft befinden. Wenn KI-Technologien den Menschen in den Mittelpunkt stellen und ihn in seinem jeweiligen Kontext in einer Weise unterstützen, die sein Wohlergehen und seine Interessen fördert, sollten solche Fragen nicht schwer zu lösen und etwaige Kompromisse leicht zu verhandeln sein. Wenn die Technologie jedoch Macht in einer Weise an sich reisst, die die Würde des Menschen ersetzt, abwertet oder anzweifelt, bleibt die ultimative Gefahr, dass sie die Menschen an einen Punkt treibt, an dem die Kluft überhaupt nicht mehr existiert.
Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.
Übersetzung Boris Wanzeck, Swiss Infosec AG
Matt Malone in: Privacy in the Future Era of AI; Chapman and Hall/CRC; New York; 2024