Krisenmanagement

02/2021

 

Narrative der digitalen Überwachung

 

Optical surveillance (CCTV), aerial surveillance, audio surveillance, radio-wave surveillance, GPS surveillance, Email/VoIP surveillance, sensors, computer and internet surveillance, biometrics, genetics, biochemical surveillance, mobile media surveillance – diese hier nur unvollständig wiedergegebene Liste unterschiedlicher elektronischer Überwachungstechniken ist einer Einführung in die Surveillance Studies entnommen, die sich an gleicher Stelle um eine zunächst scheinbar möglichst umfassende Definition der Überwachung bemüht: „Observing, sensing or otherwise determining the presence or influence of persons, activities or phenomena of interest, especially as regards of protection of assets, territory, property, family, personal safety, power, commercial opportunities or social relationships“. Mit den neutral gehaltenen Variablen der Überwachungsanordnung (wer überwacht wen oder was?) verwoben ist – ein wenig überraschend – eine (fast) eindeutige, kausal-finale Bestimmung: Überwachung schützt.  Überraschend ist dies, weil Überwachung zumeist als diskursive Folie für negativ konnotierte Konsequenzen im Zusammenhang mit technischen Entwicklungen genutzt wird. ‚Schutz‘ tritt dabei als Antagonist von ‚Kontrolle‘ und damit als nur vordergründig propagierte Funktion in Erscheinung, die vor allem dazu dient, sinistre Absichten zu kaschieren. Die blosse Funktionalität der (digitalen) Technik wird daher oft zugleich als Zwecksetzung begriffen und entkommt dabei nicht einer sofortigen Wertung, die sich an tradierten Narrativen orientiert. Der vorliegende Beitrag widmet sich daher zunächst drei populären Erzählsträngen, die für die Deutung und Wertung digitaler Überwachung besonders prominent genutzt werden. Sie finden sich in der politischen und medialen Öffentlichkeit genauso wie in der wissenschaftlichen Betrachtung der untersuchten Phänomene. Dies liegt zum einen an der Historizität der genutzten Motivik, die kulturell so sehr naturalisiert ist, dass sie als Referenzfolie eine besondere Wirkmacht entfaltet. Zum anderen sind die Bestrebungen, den soziotechnischen Wandel zu erklären, auch stets mit dessen Dynamik konfrontiert. Eine Strategie, sich diesem gegenüber zu verhalten, ist die Fortschreibung bekannter Narrative, die von Akteur*innen in Wissenschaft, Politik oder Journalismus wechselseitig getragen werden.

Das erste Narrativ, (Digitale) Überwachung zerstört unsere Freiheit (Abschnitt 1), reduziert Überwachung häufig auf ihre technischen Aspekte und erzählt ein Bedrohungsnarrativ weiter, demzufolge Technik immer in einem antagonistischen Verhältnis zum Menschen und seiner Freiheit zu denken ist. Wie sich jedoch zeigen soll, besteht nicht per se ein Widerspruch zwischen individueller Freiheit, Autonomie und Überwachung. Vielmehr sind effektive Überwachungspraktiken als eine Voraussetzung für Herstellung und Schutz individueller Freiheiten zu betrachten, die nicht nur repressiven Charakter haben. Durch ihre feste Einbettung in die geistesgeschichtliche Aufklarung ist die Funktion der Überwachung – die Sichtbarmachung – eine zentrale und konstruktive Figur der Herausbildung bestimmter Formen von Subjektivität. 

Das zweite Narrativ, Digitale Überwachung ist allwissend (Abschnitt 2), erzählt von einer vermeintlichen Objektivität und Omniszienz digitaler Überwachung, die gar zukünftiges Verhalten oder Ereignisse antizipieren kann. Das Narrativ ist einerseits eng verflochten mit judäo-christlichen Motiven (ein wachendes Auge der Vorsehung), andererseits wird in ihm ebenfalls der Impetus der Aufklarung deutlich, nach einer objektiven und universellen Beschreibung der Welt zu streben, die vor allem in der mythischen Überhöhung des Datenwissens zum Ausdruck kommt. 

Das dritte Narrativ, Mithilfe digitaler Überwachungstechniken können wir sehr leicht manipuliert werden (Abschnitt 3), betrachtet daran anschliessende Diskursfiguren, die vor allem das Machtverhältnis zwischen Mensch und Maschine ausdeuten. In unheimlicher Weise intelligente Systeme können Wissen über den Menschen generieren, das er selbst nicht preisgeben will oder das er gar selbst nicht über sich hat. Auf diese Weise gefährdet, sind wir anfällig für gezielte Verhaltensmanipulationen, wie sie sich etwa bei Wahl- oder Konsumentscheidungen niederschlagen. Auch dieses Narrativ schliesst an eine Traditionslinie der Deutung von Medientechnik an, die deren Wirkmacht tendenziell überschätzt.

Abschliessend (Abschnitt 4) wird noch die Frage nach der narrativen Dimension der wissenschaftlichen Einordnung der ‚neuen‘ digitalen Überwachung aufgeworfen. In den theoretischen Konzepten, identifizierten Problemen und Lösungsansätzen stecken auch immer Erzählmuster von Anfang und Ende, von alt und neu. Ihre Widersprüchlichkeit erwächst einerseits aus der ostentativen Präsentation des Neuen und andererseits aus der impliziten Sehnsucht nach der vergangenen Ordnung der Moderne.  

 

1. „(Digitale) Überwachung zerstört unsere Freiheit.“ – Digitalisierung, Surveillance und Spätmoderne

„[A] well documented, tightly reasoned, and frightening analysis of the clash between individual privacy and information-gathering technology in a computer age“ – so lautet das Urteil einer zeitgenössischen Rezension von Arthur R. Millers The Assault on Privacy. Computers, Data Banks and Dossiers (1971). Computer und Datenbanken stunden im Zentrum einer ‚kybernetischen Revolution‘, fasst Bernard A. Berkman zusammen, die in den Worten Millers folgendermassen charakterisiert wird: „dramatically increasing man’s capacity to accumulate, manipulate, retrieve, and transmit knowledge“. Die Leistung der computerbasierten Datennetze, so der Rezensent weiter, habe zwar einen Nutzen, bedrohe jedoch gesellschaftliche Freiheiten und die individuelle Privatheit. Die Warnung wird begleitet von einem Aufruf zu ‚einfallsreicher rechtssprecherischer Flexibilität und Erfindungsreichtum‘, legislativen Kontrollen und administrativen Selbstbeschränkungen. Der weiterhin gelobte ‚logische Aufbau‘ des Buchs lasse auf einen Abschnitt zu den Fähigkeiten der Informationstechnologie eine Abwägung zwischen notwendiger Datensammlung und dem ‚technologischen Angriff auf die individuelle Privatheit‘ folgen: „the most effective portion of the book is the detailed examination of the rapidly developing computerized information-gathering techniques and the way in which they are being used to create dossiers on all our citizens at a maddeningly increasing tempo“.  Neben den staatlichen Praktiken und Institutionen, mit denen Daten über Bürger*innen gesammelt werden, liege ein besonderes Augenmerk auf Unternehmensaktivitäten wie diejenigen privater Kreditgeber*innen: „the pervasive surveillance and fact-gathering techniques that have permitted the compilation and indiscriminate dissemination and sale of personal financial information about some 50 million Americans“. Zu den Befürchtungen zahlen in diesem Zusammenhang auch die Computerisierung von Persönlichkeits- oder IQ-Tests mit Folgen für die wirtschaftliche oder soziale Mobilität einzelner Subjekte.

Als ‚tapferer erster Versuch, das Problem der Computerisierung in Amerika zu beschreiben‘, wie der Rezensent bescheinigt, spinnt The Assault on Privacy wichtige Narrationsmuster, die auch heute nichts an ihrer diskursiven Prominenz eingebüsst haben. Die skizzierten Befürchtungen schreiben ‚Privatheit‘ rhetorisch einen erheblichen Eigenwert zu und finden nicht nur im Lichte gegenwärtiger Diskussionen Widerhall, sie entsprechen diesen in einem erstaunlichen Masse. Grundsätzlich ist in diesem Narrationsmuster bereits das antagonistisch gedeutete Verhältnis zwischen der digitalen, computerbasierten Informations- und Kommunikationstechnologie und den individuellen Freiheitsrechten, insbesondere der Privatheit, angelegt. Computergestützte elektronische Überwachung erscheint per se als Gefahr, die Debatten um den notwendigen Schutz von Daten, Personen und der Privatheit als einem sozialen Wert sowie der demokratisch-freiheitlichen Verfasstheit des Nationalstaats weisen der Technologie die popular-diskursive Rolle eines Aggressors zu. Doch es besteht keine Widersprüchlichkeit zwischen Freiheit und Überwachung. Vielmehr ist Überwachung die Voraussetzung für Freiheit. Jede soziale Einheit – ob eine Paarbeziehung, die Familie oder die Dorfgemeinschaft – kann nur mithilfe bestimmter Regeln aufrechterhalten werden. An diesen orientieren sich das individuelle Verhalten und Interaktionen, sie schaffen gegenseitige Erwartungen und strukturelle Sicherheit als Voraussetzung individueller Freiheit. Die Organisation von Gemeinschaft kennt daher gegenseitige Überwachung, Kontrolle und bedarfsabhängige Sanktionierung. In Dorfgemeinschaften hatten diese Prozesse durch einen hohen Grad persönlicher Bekanntheit sowie relativ starre und homogene Normen weitgehend ohne den Einsatz technischer Hilfsmittel Bestand.

Mit der Ausbildung von Nationalstaaten als grossen administrativen Einheiten in der Moderne jedoch werden neue Instrumente der sozialen Kontrolle notwendig. Betrachtet man diese mehrere Millionen Menschen umfassenden sozialen Einheiten, in denen kodifizierte Regelsysteme gelten, sind im Lichte einer weitgehenden Anonymität der einzelnen Mitglieder der Gemeinschaft sowohl die Praktiken der interpersonalen Überwachung als auch Instrumente persönlicher sozialer Sanktionierung weitgehend ineffektiv. Die Gemeinschaft eines Nationalstaats ist folglich auf andere Mittel gesellschaftlicher Steuerung durch Sanktionen oder Ausschlusse angewiesen, die im Allgemeinen ohne Techniken und Praktiken der Überwachung nicht denkbar sind: „The social order would collapse […] if everyone felt free to lie, steal, rape or cheat whenever he or she could avoid punishment for doing so“, stellt Rule etwa zur selben Zeit wie Miller fest, unterstreicht dabei jedoch auch die Notwendigkeit einer zentralisierten Verarbeitung von Daten zum Zweck sozialer Kontrolle, die stets auch die Voraussetzungen für individuelle Freiheiten sichert. Es überrascht daher nicht, dass Überwachung als das dominante Organisationsprinzip der Spätmoderne identifiziert wird, das über die letzten vier Jahrzehnte immer grössere Auswirkungen auf Machtstrukturen, institutionelle Praktiken und interpersonale Beziehungen entfaltet hat. Trotz der negativen Assoziationen, die oft mit staatlicher Überwachung in Verbindung gebracht werden, wird es gleichwohl als die Aufgabe des Staates betrachtet, die Bedingungen der individuellen Freiheiten sicherzustellen. Wie an anderer Stelle ausgeführt, sind diese Grundsatze ebenfalls als Teil der politischen Moderne und ihrer Organisationsformen zu betrachten. Bürger*innen sind vor Unterdrückung oder Beschneidung ihrer Freiheiten durch Andere zu schützen. Die Umsetzung dieses Prinzips liberaler Demokratien ist undenkbar ohne die Praxis der Überwachung. Sie ist daher nicht als repressiver Antagonist zu freien und freiheitlich organisierten gesellschaftlichen Strukturen zu denken, sondern sichert in einem instrumentellen Sinn ein Regelsystem ab, ohne das individuelle Freiheit nicht möglich ist.

Das Narrativ vom Angriff auf die Privatheit durch computergestutzte Überwachung wird durch eine weitere begriffliche Differenzierung getragen, die im 17. Jahrhundert entstanden ist und Privatheit und Öffentlichkeit als einander wechselseitig ausschliessende Konzepte definiert, die sich schliesslich auch als materiell-lokalisierbare Raume beschreiben lassen. Die Dichotomie ‚öffentlich vs. privat‘ ist seither die Grundlage für normative Rahmenbedingungen liberaler Demokratien. Sowohl der von Miller konstatierte Angriff auf die Privatheit als auch die spiegelbildlich angeordnete und in nicht minder drastischer Metaphorik diagnostizierte ‚Tyrannei der Intimität‘ als ‚Verfall und Ende des öffentlichen Lebens‘ durch die Grenzüberschreitung des Privaten in die Öffentlichkeit bleiben ohne die dichotom angeordnete und normative Referenzfolie ohne Sinn. Vor dem Hintergrund dieser gilt Überwachung daher stets sowohl als staatliches Instrument, das individuelle Rechte auf Privatheit verletzt, als auch als eine Notwendigkeit, um Bürger*innenrechte zu verteidigen. Die negativen Assoziationen mit der Praxis der Überwachung – invasiv, aggressiv, repressiv – sind direkte Konsequenz aus normativen, epistemologischen (u. a. Subjektivität vs. Objektivität, siehe Abschnitt 2) sowie aus diesen politisch-institutionellen Dualismen der Moderne. Das Narrativ, das die digitalen Informations- und Kommunikationstechnologien als Antagonisten der Privatheit und individuellen Freiheit beschreibt, ist ihre Weiterführung. Doch entsteht das Subjekt – dem als einem epistemologischen Anker die individuellen Freiheiten und ein Schutzbedürfnis zugeschrieben werden können – ironischerweise erst aus der Praxis der Überwachung. Wie Foucault bekanntermassen über die panoptische Anordnung der Sichtbarkeit (‚Gefangene‘ und ‚Wächter‘) herausarbeitet, ist sie stets konstitutiv für bestimmte, räumlich definierte Subjektzuschreibungen mit klaren sozialen Rollen in Klöstern, der Psychiatrie, im Krankenhaus, im Gefängnis, in der Fabrik oder in der Schule. Die Anordnung der Sichtbarkeit und Sichtbarmachung des Subjekts hat somit einen produktiven Effekt, sie erlaubt erst die moderne Vorstellung von Subjekten als Ergebnis einer Suche nach der objektiven Wahrheit.

Staat und Bürger*innen, Privatheit und Öffentlichkeit, Beobachtete und Beobachter* innen – dichotom angelegte Begriffe der Moderne prägen sowohl die Konzeptionierung als auch die Evaluation von Überwachungspraktiken. In der Folge orientiert sich auch die Bewertung der Technologie an diesen normativen Bezugsgrössen, verkennt jedoch zumeist die skizzierte komplexe Dynamik der Überwachung als eine notwendige strukturelle Voraussetzung für individuelle Freiheit und zugleich als notwendige und produktive Praxis zur Herstellung eines Subjekts, dem diese Freiheiten überhaupt erst zugeschrieben werden können. Seit einigen Jahren ist eine Veränderung dieser Dynamik zu konstatieren. Die Dichotomie Bürger*innen/Staat, mit der eine hierarchische top-down- Relation der Überwachung einhergeht, wird ergänzt und in Teilen sogar verdrängt von effektiven und umfassenden Möglichkeiten der Überwachung, die durch grosse Unternehmen durchgeführt wird. Die Auseinandersetzung verläuft entlang komplexerer Relationen zwischen Staat, Unternehmen, Bürger*innen oder Konsument*innen (siehe Abschnitt 4). Auch das Begriffspaar öffentlich/ privat wird in seiner wechselseitigen Exklusivität zunehmend in Frage gestellt. Dies liegt in erheblichem Masse an neuen Kommunikationsraumen, die sich von örtlich bestimmbaren und physisch manifesten Raumen (öffentliche Plätze, private Schlafzimmer) gelöst haben. Kommunikationsmedien erlauben eine zwischenzeitlich völlig ‚normalisierte‘, bisweilen sehr öffentliche Kommunikation aus dem Schlafzimmer. Sie sind jedoch nicht als Ursache für den Zerfall dieser Grenze zu identifizieren. Die (medien-)technologischen Praktiken decken vielmehr erst auf, dass das dichotome Schema nie in Reinform existierte. Der (kommunikative) Alltag der Gegenwart ist nicht nur sehr stark ‚durchdrungen‘ von digitalen Medien, sondern vielmehr durch diese konstituiert. Sichtbarmachung, Selbstdarstellung und Transparenz(zwänge) der mobilen Online-Kommunikation verändern den normativen Wert des Privaten. ‚Seeing surveillantly‘ ist zu einer alltäglichen Praxis des Sehens, zu einer Form des Zugangs zu einer sozialen Welt geworden. Auch die zumeist hierarchisch geprägte Zuordnung von Beobachteten, die dem Blick (verborgener) Beobachter* innen ausgeliefert sind, scheint angesichts der gezielten gegenseitigen Sichtbarmachung und Überwachung in der Online-Kommunikation oder der bewussten Inkaufnahme eines Teilens personenbezogener Daten mit Dritten obsolet. Derartig dichotome Kategorien sind nicht mehr sinnvoll anwendbar, das durch ihre normative Struktur gespeiste Narrativ der digitalen Überwachungstechnologien als Aggressor und Gefahr qua Funktionalität setzt sich jedoch fort.  

 

2. „Digitale Überwachung ist allwissend“ – Omniszienz, Vorsehung und Big Data

Auch das zweite bedeutende Narrativ der digitalen Überwachung ist stark verflochten mit einer konzeptionellen Dichotomie der Moderne entstanden, Objektivität und Subjektivität, und vereint sie zugleich mit einer judäo-christlichen Motivik: Allgegenwart und Allwissenheit. Allgegenwärtig ist die digitale Überwachung durch (medien-)technische Entwicklungen (wie Smartphones oder Tracking Devices), die soziale Interaktionen mittels datenbasierter Plattformen ermöglichen und konstituieren. Jede durch diese vollzogene oder dokumentierte kommunikative Handlung erzeugt ein detailliertes Datenwissen, das dem Narrativ zufolge in einer Allwissenheit durch universelle Datafizierung mundet. Daten geben demnach Auskunft über Alter, Geschlecht, Bildung, Arbeitssituation, sexuelle Orientierung und Identität, politische Ansichten, getätigte Einkaufe und Kaufkraft, moralische Ansichten, Kreditwürdigkeit, gesundheitsspezifische Interessen, Religionszugehörigkeit u. v. m. Die Informationen über Nutzer*innen digitaler Dienste werden dabei in Tausende einzelne Kategorien oder Attribute ausdifferenziert. Sie werden in vielen Fällen allein aus dem Online-Verhalten abgeleitet. In der soziologischen und kulturwissenschaftlichen Theorienbildung wird diese Veränderung einer nicht langer auf Präsenz basierten Überwachung in der Regel als Ablösung der panoptischen Allsichtbarkeit durch datenbasierte ‚Kontrollgesellschaften‘ beschrieben. An die Stelle einer visuellen Überwachung in materiell definierten Raumen tritt eine Überwachung der in Daten transponierten Subjekte („data subjects“), die durch permanente Messung, Evaluation und Kontrolle von Leistung und Folgsamkeit am Arbeitsplatz, in Bildungssystemen oder in Kontexten der medizinischen Prävention oder Therapie charakterisiert ist. Die Vorstellung der Überwachung wird damit diffus: Sie wirkt überall, unbemerkt und nicht langer verortet und definiert. Es ist ein pantheistischer Datenglaube, der sich hier mit dem Objektivitätsdiktum der Aufklarung paart. Die Daten sind nicht nur in allem, sie sind konstitutiv für alles.

Trotz einer Verschiebung der Überwachungspraxis von lokalisierten Körpern zu Datensubjekten ist der eng mit dem Panoptismus verbundene Impetus der Aufklarung, die Wahrheit aufzudecken, in den heutigen digitalen Datenpraktiken sehr präsent. Überwachung als Praxis der Sichtbarmachung ist mit den Kulturtechniken der Beobachtung, Vermessung und regelgeleiteten, formalisierten Welterschliessung eine Geste der Aufklarung. Die grossen Datenmengen rücken uns vermeintlich näher an die ersehnte Objektivität heran: Indem unsere sozialen Beziehungen und Interaktionen, unsere Erfahrungen, Erlebnisse, Emotionen und Gefühle vollständig zu einem computerisierbaren Datenkorpus werden, können die nur ausschnitthaften Erkenntnisse über die Welt überwunden werden.  

Der Datenreichtum ist als direkte Fortsetzung des objektivistischen Narrativs von der Abbildung der Welt zu verstehen. Neben einer technologischen (durch eine grössere Quantität von Daten und eine verbesserte Rechenleistung) und analytischen (durch effektivere Identifikation von Mustern) Dimension von ‚Big Data‘ ist die mythische Zuschreibung von Wahrheit, Präzision und Objektivität an das mithilfe dieser Datenbestande konstruierte Wissen entscheidend. Zwar ist der Begriff ‚Rohdaten‘ ein Oxymoron, da Daten niemals in einer reinen, ursprünglichen, unbearbeiteten – eben ‚rohen‘ – Form vorliegen können, und doch gelten sie als transparent, eigenevident, objektiv, als die kleinsten Einheiten der Wahrheit. Die Grundlagen dieses Mythos werden mit den epistemologischen Normen der geistesgeschichtlichen Moderne geschaffen, die Subjekt(ivität) und Objekt(ivität) klar voneinander scheidet und neben der Möglichkeit des Objektiven auch das Streben nach Wissensaggregation und Omniszienz hervorbringt. Dieser Mythos wird in der jüngeren Vergangenheit in regelmässigen Abständen am Leben erhalten und mit den jeweiligen technologischen Bedingungen aktualisiert. Ähnliche Narrative finden sich etwa bereits in den Diskursen der virtuellen Realität: Die Annahme einer Überführung der Welt in mathematisch definierbare Raume, die aus diskreten, manipulierbaren Einheiten (pixel) bestehen, ist nichts weniger als die computertechnische und ästhetische Realisierung des aufgeklärten Traums einer durch Formeln und Repräsentationen erschliessbaren Welt. Die motivischen Verflechtungen mit christlichen Traditionslinien weisen dem Körper eine sekundäre Stellung zu – das schwache Fleisch – und konzentrieren sich auf die alles durchziehenden Informationen als Einheiten der Welt: Geist über Materie.

Die Narrative der Allwissenheit, Allsichtbarkeit und Allgegenwart werden auf der Projektionsflache derzeitiger Daten- und Überwachungspraktiken auf zukünftige Ereignisse oder Handlungen einzelner Individuen ausgeweitet, die vermeintlich antizipiert werden können. Verbunden mit der Idee von Schutz und Strafe findet sich das Auge der Vorsehung motivisch auch in ‚Big Data‘- Diskursen als eine höhere Macht. Mit der Technik des profiling in polizeilichen, administrativen, medizinischen oder sicherheitspolitischen und militärischen Kontexten erlaubt diese Macht einen vermeintlichen Blick auf zukünftige Entwicklungen oder Szenarien. Diese Form der Überwachung des Zukünftigen ist eine Simulation von Überwachung, weil das darin produzierte Wissen kein realisiertes Bezugsobjekt hat. Das durch predictive policing oder predictive diagnostics produzierte Wissen macht virtuelle, in der Möglichkeit vorhandene Ereignisse, die noch nicht eingetreten sind, gegenwärtig und damit real. Die konstruierte Beobachtung dessen, was noch nicht geschehen ist, aber vielleicht geschehen wird, erweitert die ‚Big Data‘-gespeisten Narrative der Allwissenheit und das Motiv des Auges der Vorsehung als Schutz- und Bestrafungsinstanz. Praktisch ermöglicht erst die weitreichende ‚Datafizierung‘ die Extrapolation des Zukünftigen aus dem vermessenen Bekannten.

Medientechnisch und -ästhetisch setzt sich hier die mit den Massenmedien vorgezeichnete Ablösung der Simulation von ihren Referenzobjekten fort. Die simulierte Überwachung drückt sich sprachlich in Begriffen wie pre-crime für eine Praxis in der Kriminologie und ‚Schläfer‘, ‚Gefährder‘ oder Risikosubjekt als Kategorien für Individuen aus. Sie wird durch die kollektiv geteilten Bestrebungen, zukünftige Straftaten zu verhindern oder zukünftig entstehenden Krankheiten entgegenzuwirken, zu einer eigenen Realität vor dem eigentlichen Fakt. Das Profil als Referenzobjekt der simulierten Überwachung muss nicht legitimiert werden, es ‚funktioniert‘, da es sich durch die Angabe seiner eigenen Irrtumswahrscheinlichkeit bereits selbst validiert. Ein falscher Blick in die Zukunft ist somit Teil der prognostischen Überwachung und sichert sie damit auch gegenüber Vorwürfen fehlerhafter Vorsehung ab. Prospektive Überwachung deckt daher keine Wahrheiten auf, sondern konstruiert diese im Akt der Sichtbarmachung. In höchstem Masse problematisch wird dies durch bestimmte Wertungen und Wertigkeiten, die bereits in den Daten angelegt sind. Eines der bekanntesten Beispiele, das die wertende Datafizierung von Subjekten und deren zukünftigem Verhalten dokumentiert, ist die im Jahr 2016 von ‚ProPublica‘ – einer Plattform fur investigativen Journalismus – veröffentlichte Arbeit Machine Bias. Darin wird die Software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) dargestellt, die an US-amerikanischen Gerichten als Werkzeug zur Entscheidungsfindung genutzt wird, um die Wahrscheinlichkeit für eine erneute Straffälligkeit von Individuen automatisiert zu bewerten. COMPAS evaluiert dabei zusätzlich die Notwendigkeiten und/oder Bedürfnisse im Zusammenhang mit einer Resozialisierung der/ des Angeklagten und gibt Empfehlungen dazu ab, wer auf Kaution entlassen werden kann, inklusive der Kautionshöhe. Im Zuge der Recherche von ‚ProPublica‘ wurden die Risikobewertungen von mehr als 7.000 Personen, die in den Jahren 2013 und 2014 in Broward County (Florida) festgenommen worden waren, mit der Anzahl der von diesen tatsächlich neu begangenen Straftaten über einen Zeitraum von zwei Jahren verglichen. Die Autor*innen stellten fest, dass die Risikobewertung bei der Vorhersage gewalttätiger Straftaten ‚bemerkenswert unzuverlässig‘ war; eine entsprechende Prognose war nur in einem Fünftel der Falle korrekt. Neben der sehr hohen Irrtumswahrscheinlichkeit zeigten sich auch deutliche Disparitäten bei der Risikobewertung in Abhängigkeit der Hautfarbe der Straftäter*innen: „The formula was particularly likely to falsely flag black defendants as future criminals, wrongly labeling them this way at almost twice the rate as white defendants. White defendants were mislabeled as low risk more often than black defendants“. 

Neben der Verlässlichkeit der von der COMPAS produzierten Prognosen erscheint auch die Datengrundlage zweifelhaft. Die von der Firma Northpointe (heute: Equivant) entwickelte Software verspricht dabei eine Bewertung von Variablen wie Anger, Criminal Personality, History of Non-Compliance, Residential Instability, Substance Abuse, Social Adjustment Problems und Socialization Failure. Als Grundlage der Prognose dienen Daten, die über eine Befragung von straffällig gewordenen Personen generiert werden. Zu den insgesamt 137 Items zählen:

„Based on the screener’s observations, is this person a suspected or admitted gang member? – No, Yes“  „If you lived with both parents and they later separated, how old were you at the time? – Less than 5, 5 to 10, 11 to 14, 15 or older, does not apply“  „How many of your friends/acquaintances have ever been arrested? – None, Few, Half, Most“ „How often have you moved in the last twelve months? – Never, 1, 2, 3, 4, 5+“  „Thinking of your leisure time in the past few (3–6) months […] How often did you feel bored? – Never, Several times/mo [month, T. C. B.], Several times/wk [week, T. C. B.], Daily“  „I have never felt sad about things in my life. – Strongly Disagree, Disagree, Not Sure, Agree, Strongly Agree“  „A hungry person has a right to steal. – Strongly Disagree, Disagree, Not Sure, Agree, Strongly Agree“  

Neben einer detaillierten Evaluation des sozialen Milieus stehen hier Fragen nach der persönlichen Einstellung zu einem komplexen ethischen Dilemma oder gar die subjektive Einschätzung der Interviewer*innen. Die verzerrte Prognose ist daher nicht etwa die Konsequenz aus einer automatisierten Datenanalyse, sondern vielmehr den Bedeutungen und Gewichtungen geschuldet, die einzelnen Variablen und ihren Werten im Zuge der Operationalisierung zugeschrieben werden. Mit Faktoren wie einer (durch die Interviewer*innen vermuteten) Zugehörigkeit zu einer Gang oder der Anzahl straffällig gewordener Bekannter und Freund*innen, wird die individuelle Strafanfälligkeit u. a. durch soziale Milieus erhoben, die häufig entlang einer identitätsstiftenden ethnischen Zugehörigkeit organisiert sind. Gruppenidentität, indirekt und implizit auch definiert durch Hautfarbe, markiert Individuen.

Jüngere wissenschaftliche Arbeiten stellen die Risiken dieser Art von ‚Dirty Data‘ („inaccurate, skewed, or systemically biased data“) heraus:

Deploying predictive policing systems in jurisdictions with extensive histories of unlawful police practices presents elevated risks that dirty data will lead to flawed or unlawful predictions, which in turn risk perpetuating additional harm via feedback loops throughout the criminal justice system.

Durch die automatisierte Analyse grosser – möglicherweise auch ‚schmutziger‘ – Datenmengen entsteht gleichwohl der Eindruck einer zusätzlichen Objektivierung eines dabei zu Tage geforderten Wissens. Die Fokussierung des Zukünftigen im Narrativ der Überwachung ist eingebettet in den umfassenderen und für die Spätmoderne charakteristischen Diskurs der Risikominimierung und des Vorsorgeprinzips. Von dem ursprünglich deskriptiven Ziel statistischer Auswertungen kommend, über die probabilistischen Aussagen über Risiken und deren Minimierung, verschreibt sich die analytische Vision heute dem Preemptionsparadigma, dem zufolge gar die Entstehungsbedingungen für Risiken identifiziert und verhindert werden sollen. Zu den tradierten Denkfiguren auf dem Weg dorthin zählt daher auch das Vorhandensein sozialer Ordnungsmuster. Begreift man, wie Armin Nassehi es vorschlägt, Digitalisierung als „soziologisches Projekt“, kann seine Erkenntnis, dass „die gesellschaftliche Moderne immer schon digital war“ kaum überraschen, weil er damit lediglich eine Erzählung fortschreibt, die im Ursprung dieses Projekts angelegt ist und sich auf die These verkürzen lasst: Gesellschaft lässt sich in Mustern beschreiben. Neben dem ‚Muster‘ hat auch das ‚Profil‘ eine mit der Moderne verbundene Diskursgeschichte. Hier wurzeln das Verschwinden des Körpers hinter seiner Übersetzung in computerisierbaren Code (‚Biometrie‘) oder die Erschaffung von in Symbole übersetzten, klassifizierbaren Datensubjekten mittels Ausweisen, Fingerabdrucken oder Passwörtern. Die Macht der digitalen Überwachung rührt vom Narrativ ihrer Allwissenheit und Allgegenwärtigkeit her, mit dessen Hilfe Normen und Deutungsmuster als ‚die objektive Wahrheit‘ durchgesetzt werden und kraft technikgestützter Vorsehung gar einen vermeintlichen Blick in die Zukunft ermöglichen.

 3. „Mithilfe digitaler Überwachungstechniken können wir sehr leicht manipuliert werden“ – Unheimliche KI, Medienmacht und Vulnerabilität

Das dritte Narrativ knüpft an die Vorstellung der allwissenden digitalen Überwachung an: ‚Deep neural networks are more accurate than humans at detecting sexual orientation from facial images‘, behauptet der Titel einer Studie, in der Fotos von Einzelpersonen genutzt wurden, um Rückschlüsse auf deren sexuelle Identität zu ziehen. Die Einschätzungen menschlicher Proband*innen wurde dabei mit den Klassifikationen eines computergestutzten Analyseverfahrens verglichen. Als Ergebnis verkünden die Autoren: „Given a single facial image, a classifier could correctly distinguish between gay and heterosexual men in 81% of cases, and in 71% of cases for women. Human judges achieved much lower accuracy: 61% for men and 54% for women“. Wie eine Form der Schädelkunde unter digitalen Bedingungen muten die Ausführungen der Autoren an, wenn zu den genutzten ‚Klassifikatoren‘ sowohl die Form der Nase als auch der individuelle „grooming style“ zahlen und sie ausserdem unterstreichen: „Consistent with the prenatal hormone theory of sexual orientation, gay men and women tended to have gender-atypical facial morphology, expression, and grooming styles“.

Der Ansatz ist offen naturalistisch (siehe oben: „consistent with the prenatal hormone theory of sexual orientation“), folgt einem bipolaren Schema der sexuellen Identität und verkennt völlig deren performativen Charakter: Die Auswahl der Bilder entstammt einer US-amerikanischen Dating-Webseite, weshalb anzunehmen ist, dass sich die kulturellen Zeichen der Sexualität in der gewählten Selbstdarstellung besonders deutlich niederschlagen. Wenig überraschend wurde diese Arbeit im populären Diskurs in verbindlich klingende Schlagzeilen wie diese aus der britischen Zeitung The Guardian übersetzt: „New AI can guess whether you’re gay or straight from a photograph“. Das Motiv der Allwissenheit wird dabei in ein Machtverhältnis zu den Menschen gesetzt: Die automatisierte Datenauswertung erkennt besser als wir und blickt in uns; eine unfreiwillige, unbewusste und unheimliche Offenbarung. Dies ist das erste Element im Narrativ der Manipulationsmacht, die den digitalen Überwachungstechniken zugeschrieben wird und dabei oft angereichert ist mit Schlagworten wie ‚Künstliche Intelligenz‘, ‚Deep Neural Networks‘ oder ‚Deep Learning‘. Die ‚Tiefe‘ letzterer, die eine komplexe Binnenstruktur zwischen Eingabe und Ausgabe im informationswissenschaftlichen Modell sogenannter neuronaler Netze beschreibt, hält eine zusätzliche Metaphorik des Unergründlichen, Unverstandenen und Unkontrollierbaren bereit. Unsere Verwundbarkeit gegenüber den Maschinen, die ein Wissen über uns generieren, das wir nicht aktiv bereitstellen, vielleicht gar verborgen halten wollen, wird in einem nächsten Schritt zur Grundlage für effektive Manipulation erklärt.

Als bekanntestes Beispiel hierfür kann die computational propaganda gelten, die als Technik im US-amerikanischen Präsidentschaftswahlkampf des Jahres 2016 zum Einsatz kam. Wie 2018 bekannt wurde, hatte das britische Unternehmen Cambridge Analytica die Kategorisierung von Wähler*innengruppen als Dienstleistung verkauft und damit eine gezielte Adressierung von Nutzer*innen des sozialen Netzwerks Facebook mit selektiven Botschaften ermöglicht.  Instrument hierfür war die Konstruktion von Persönlichkeitsprofilen: Die Vermessung der Psyche (‚Psychometrie‘) sollte besonders empfängliche Zielgruppen identifizierbar machen. Zum Einsatz kam das sogenannte ‚OCEAN-Modell‘, das die Persönlichkeit eines Individuums in fünf Dimensionen beschreibbar machen will: Offenheit für Erfahrungen, Gewissenhaftigkeit, Extraversion, Verträglichkeit (Kooperationsbereitschaft, Empathie) und Neurotizismus (u. a. die erlebte Intensität negativer Emotionen). Seit Jahrzehnten in der psychologischen Forschung angewandt – und kritisch begleitet – kommt es seit einiger Zeit auch im Zusammenhang mit Daten zum Einsatz, die während des Gebrauchs von Medien (z. B. der Nutzung von Apps auf dem Smartphone) generiert werden. Die Ergebnisse dieser Analysen und die zielgerichteten Botschaften, so geht die Narration weiter, funktionieren, sind effektiv und haben massiv das Wahlverhalten beeinflusst. Oft wird diese Erzählung mit dem derzeit populären, aus der Verhaltensökonomie stammenden Begriff nudging verbunden. Hinter diesem steht die Vorstellung einer gezielten – wenngleich in seiner ursprünglichen Modellierung in wohlwollender Absicht verfolgten – Manipulation des Verhaltens, das auf Grundlage eines umfangreichen Datenwissens in seiner Musterhaftigkeit durchschaubar und dadurch vorhersagbar wird. Es handelt sich dabei nicht um Verbote oder finanzielle Anreize, die das individuelle Verhalten ändern, sondern scheinbar viel zurückhaltender um eine Wahl- und Entscheidungsarchitektur, die bestimmte Optionen begünstigt: „Putting fruit at eye level counts as a nudge. Banning junk food does not“. Die sichtbarere Präsentation bestimmter Optionen oder Standardeinstellungen soll eine Auswahl begünstigen, ohne die Wahlfreiheit einzuschränken. In seiner Umsetzung in digitalen Medien wirkt das Konzept nudging etwa durch Interface-Strukturen, die bestimmte Nutzungsweisen ermöglichen und andere ausschliessen (‚affordances‘). Zugleich erfolgt durch eine (mehr oder weniger) prominente Anordnung einzelner Funktionen oder ihre Einbettung in spielerische Kontexte (als gamification z. B. durch das Sammeln von Punkten) auch stets eine Priorisierung und Steuerung von Handlungen. Nicht lange hat es gedauert, bis jemand im Anschluss daran eine sprachlich-konzeptionelle Originalität ersann: ‚Big Nudging‘. Dirk Helbing stellt unter diesem zusammengeschusterten Begriff in apodiktischer Eindeutigkeit fest: „Wer über grosse Datenmengen verfügt, kann Menschen auf subtile Weise manipulieren“. Der „zu Grunde liegende Wissenschaftsansatz wird ‚Behaviorismus‘ genannt und ist eigentlich längst veraltet“ und doch wurden unsere „psychologischen Unzulänglichkeiten ausgenutzt“. Grundlage seien die „oft ohne unser Einverständnis gesammelten persönlichen Daten“, mit denen sich offenbare, „was wir denken, wie wir fühlen und wie wir manipuliert werden können“ und schliesslich kaufen wir „überteuerte Produkte“ oder „solche, die wir nicht brauchen“ oder geben „unsere Stimme einer bestimmten Partei“.

Wenn doch, so mag man einwenden, der Behaviorismus veraltet ist, wie kann uns nudging dann überhaupt in diesem Sinne erzählt werden? Wohl weil eine solche Erzählung opportun und in hohem Masse anschlussfähig an bestehende narrative Strukturen ist. Sie gibt dem Erwartbaren eine Stimme. Das Konzept nudging aber beschreibt Tendenzen, die sich erst in grösseren Populationen zeigen, und folgt keinem behavioristischen Ursache-Wirkungs-Prinzip, dem jede/r Einzelne unterworfen ist. Was hinter dieser dominanten Narrationsstruktur hingegen weniger sichtbar wird, sind die Konsequenzen aus der Fiktion eines klassifizierbaren ‚Psycho-Subjekts‘, das durch die psychometrischen Verfahren und die anschliessende individualisierte Adressierung (etwa im genannten Beispiel der Wahlkampfkommunikation) entsteht. Sie führt zu einer Fragmentierung der Öffentlichkeit in selektive Kommunikationsraume, in denen emotionalisierende oder falsche Informationen Widerhall finden. Dies beschädigt potentiell die öffentliche Debatte, die politische Diskurskultur, kollektiv geteilte Identitäten als Figuren sozialen Zusammenhalts oder die Referenzfigur einer gemeinsamen (Medien-)Realität. Besondere Vulnerabilität schliesslich wird im Zusammenhang mit unseren Gefühlen unterstellt. Einen relativ neuen Diskurs stellt das Paradigma des affective computing dar, in dessen Mittelpunkt eine Mensch/Maschine-Interaktion steht, die gezielt die Emotionen der Nutzer*innen anspricht und diese auch analysieren kann. In der ursprünglichen Definition – „computing that relates to, arises from and deliberately influences emotion“ – ist das manipulative Element dieser Kommunikationsdimension zwischen Menschen und Maschine bereits explizit angelegt. Heute immer populärer werdende künstliche Kommunikationsagenten wie textbasierte chat bots, sogenannte smart speakers (die über eine Sprachsynthesefunktion verfügen und damit eine menschliche Sprechstimme künstlich erzeugen können) und zu einem gewissen Grad auch social bots, nähern sich einer als natürlich empfundenen sprachlichen Interaktion an. Noch stärker anthropomorphisierte Elemente zeigen sich in sozialen Robotern, wie sie etwa bereits in der Pflege zum Einsatz kommen, deren ausgeprägteste Form in einer humanoiden Morphologie liegt. Sie sind als Interfaces mit weitreichenden Funktionen ausgestattet, um verbale, non- und paraverbale Zeichen der menschlichen Kommunikation zu (de-)kodieren und durch eine eigene Körperlichkeit auch – in Mimik und Gesten – zu (re-)produzieren. Dies ist in der Tat ein Novum, da ein solches Interface Wissensbereiche einer computerisierbaren Form zuführt, die bislang als implizit galten. Dazu zählt insbesondere ein nicht eindeutig kodifiziertes Wissen im Bereich der sozialen Normen oder ein körpergebundenes Wissen wie Annahmen über die Emotionen der menschlichen Interaktionspartner*innen.

Diese Entwicklungen befördern nicht weniger als eine direkte soziale Interaktion mit den uns analysierenden Medientechniken. Die natürliche Interaktionsform mit den menschenähnlichen und vertrauenserweckenden Maschinen produziert nicht nur weiteres intimes Wissen über uns, sie steigert auch die Vulnerabilität diesen gegenüber. Doch liegt die Gefahr wohl weniger im manipulativen Potential dieser Techniken selbst, sondern vielmehr in der Bedeutung, die diesem Wissen zugeschrieben wird: Die Rede von Persönlichkeitsmerkmalen, die anhand der Stimme analysiert werden oder einer computergestützten Beobachtung der Mimik, die die ‚wahren‘ Emotionen offenlegt, verweist auf Wissensformen, die sich aus den oben skizzierten Narrativen speisen. Sie geben vor, etwas zu erkennen, das der menschlichen Wahrnehmung entgangen ist, und sie werden zugleich mit dem Nimbus der Objektivität ausgestattet, die einer maschinellen Intelligenz unterstellt wird. Dies sind die Gefahren, die aus den Narrativen der digitalen Überwachung entstehen. Eine Bewerberin, eine Verdächtige, ein Patient – sie alle werden möglicherweise mit einem vermeintlich objektiv qua Körperzeichen generierten Wissen über ihre Persönlichkeit und Emotionen konfrontiert, das zur ‚eigentlichen‘ Realität wird. Es entstehen Fiktionen des Emotionalen, die nicht objektiv vermessen werden, sondern vielmehr emotionale Zustände normieren und mit dem Zwang zur Optimierung negativ konnotierter, unerwünschter oder unproduktiver Ausprägungen versehen. Auch hier hat die Überwachung folglich keine enthüllende Funktion. Mit ihrer Hilfe wird vielmehr ein Wissen konstruiert, das soziale Machtstrukturen durchsetzt und verstärkt. Die Narrationsmuster der manipulativen Macht neuer (Medien-)technologien müssen als historische Konstante angesehen werden. Die Vorstellung, Computer als Persuasionstechnologien einzusetzen, kann auf diskursive Vorläufer wie das Mitte der 1990er Jahre ins Leben gerufene ‚Persuasive Technology Lab‘ der Stanford University zurückblicken, dessen Forschungsziel erklärtermassen die computer- und mediengestützte Verhaltensänderung von Menschen ist (und nicht etwa die Erforschung der Bedingungen, unter denen uns Dritte manipulieren wollen). Blickt man weiter zurück, sei an die dem Kino oder dem Fernsehen in ihrer jeweiligen Frühphase zugeschriebenen Medienwirkungen erinnert und an die befürchteten Auswirkungen von Gewaltdarstellungen in Filmen oder die Angst vor unterschwellig gesetzten Reizen als manipulative Strategien in der Kino- und Fernsehwerbung. Die manipulative Macht der Medien – so zeigt der Blick auf diese historischen Analogien – wird jedoch tendenziell überschätzt. Ihnen liegen typischerweise stark behavioristisch eingefärbte Medienwirkungsmodelle zugrunde, eine ganz offensichtliche Gemeinsamkeit mit den heutigen Ängsten um die digitale Überwachung.  

 

4. Theorien der digitalen Überwachung – Die narrative Dimension von ‚Analyse‘ und ‚Lösung‘

Wissenschaft und ihre Theorienbildung folgen zumeist pflichtschuldig der Geste des Neuen, suchen nach der Zäsur, der Problematisierung und daran anschliessend der Lösung – was war, was ist, was könnte sein? Auch in den Versuchen, der Phänomene der computergestützten, digitalen Überwachung analytisch habhaft zu werden, steckt immer auch eine narrative Struktur, die ihrerseits Erwartungen und Befürchtungen prägt.

Überwachungspraktiken sind historisch betrachtet keine neue Entwicklung und dennoch wird ihre seit vier Jahrzehnten andauernde und stets zunehmende Bedeutung – wie bereits ausgeführt (vgl. Abschnitt 1) – als zentrales Ordnungsprinzip der Spätmoderne identifiziert. Angesichts der Beschwörung einer surveillance society und den surveillance studies als beigeordneter akademischer Disziplin, stellt sich allerdings die Frage, ob es sich bei ihren Gegenständen tatsächlich um Ausprägungen eigenständiger Phänomene handelt, oder durch die Ausrufung eines eigenen Zeitalters die historische Kontinuität der untersuchten Entwicklungen zum Verblassen gebracht wird. Unbestritten ist hingegen, dass qualitative Veränderungen von Überwachungspraktiken und -techniken eine theoretische Ausdifferenzierung erfordern. Am prominentesten wird eine Verschiebung der Machtverhältnisse mit diesen Veränderungen verknüpft, die stets mit einer mehr oder minder impliziten Bedrohungslage assoziiert wird. Die new surveillance der computerbasierten Überwachung erlange ein Wissen, das das beobachtete Subjekt nicht hat. Nicht länger das einzelne Individuum, sondern eine Menge aggregierter Daten seien im Fokus dieser Überwachung. Der Begriff dataveillance beschreibt die technische Praxis des Aufbaus und der Analyse grosser Datenbestände, mit denen Filterfunktionen im Sinne einer Rasterfahndung möglich werden. Begriffe wie electronic superpanopticon stellen sich in Kontinuität zum Panoptismus, betonen jedoch zugleich, dass sich durch die Netzstruktur und die Logik der Datenbank die klassischen Grenzziehungen (innen/aussen, Beobachter*innen/Beobachtete) nicht aufrechterhalten lassen. Die Rede von einer digital enclosure wiederum unterstreicht die Spezifik der digitalen Kommunikationsmedien, in denen neben den Interaktionen selbst auch Daten über diese entstehen (z. B. Ort, Zeit und Dauer). Fuchs et al. betonen den globalen Massstab datenbankbasierter Internet- und Social Media-Überwachung und deren erhebliche sozialen und ökonomischen Implikationen. Zuboff diagnostiziert eine neue Form des Kapitalismus – surveillance capitalism – mit negativen Effekten auf die demokratische Ordnung; Couldry/ Mejias erzählen die universelle Datafizierung vor einer narrativen Schablone des Kolonialismus (data colonialism), in der die massenhafte Datenextraktion als gleichbedeutend mit der Aneignung sozialer Ressourcen begriffen wird. Doch auch eine Neujustierung der Machtverhältnisse findet sich in den wissenschaftlichen Konzepten, die neue Formen der Überwachung beschreibbar machen wollen und sie dadurch zugleich auf eine bestimmte Weise narrativieren: Counter surveillance wendet sich gegen bestehende Hierarchien durch den Mächtigen entgegengesetzte Praktiken der Überwachung. Dazu zählen beispielsweise die Dokumentation von Polizeigewalt durch Smartphone-Kameras, die sich in durch soziale Medien hergestellten Öffentlichkeiten einfach und schnell verbreiten kann, oder auch leaking von geheim gehaltenen Dokumenten. Zusammen mit Formen gegenseitiger Überwachung (der alltäglichen Recherche anderer Personen etwa) als lateral surveillance werden die Machtverhältnisse und -dynamiken diffus und komplexer. Zugleich findet sich aber auch die Gegenfigur des totalen Überwachungsstaats, die derzeit am häufigsten auf China als ein mahnendes Beispiel projiziert wird.

Die derzeit diskutierten Probleme im Kontext der digitalen Überwachung werden bestimmt von Diskursen um den Schutz von Privatheit und personenbezogenen Informationen, um technische Lösungen zur Herstellung von Datensicherheit oder den (Un-)Möglichkeiten, Verantwortungs- oder Haftungsfragen im Kontext der Verarbeitung von Daten eindeutig zu bestimmen. Die konzeptionelle Vielfalt bei der gegenwärtigen Theorienbildung zum Gegenstand der Überwachung bringt folglich auch eine erhebliche Unsicherheit zum Ausdruck. Die Praxis der Überwachung – solange sie aus einer dyadischen Struktur aus Beobachter*innen und Beobachtetem bestand – kannte klare Zuschreibungen von Akteur*innen und damit einhergehende Konzepte. Die ‚moderne Anordnung‘ übersetzt dieses Schema in Relationen wie Staat/Bürger*innen oder Öffentlichkeit/Privatheit. Dies scheint konzeptionell überholt, denn die dyadischen Strukturen bilden vor allem das Verhältnis eines zentral organisierten Staats zu seinen Bürger*innen ab. Wie weiter oben dargelegt, sind die gegenwärtigen Narrative der digitalen Überwachung die direkte Folge aus noch immer prävalenten epistemologischen sowie politisch-institutionellen Dualismen der Moderne, die jedoch – angesichts der ökonomischen Akteur*innen und neuen Praktiken der Sichtbarmachung des Selbst – sowohl in konzeptioneller als auch in struktureller Hinsicht an Gültigkeit eingebüsst haben. Liess sich etwa Verantwortung ehemals einzelnen, klar definierten Akteur*innen zuschreiben, liegt heute eine netzwerkartig organisierte agency vor, in der Verantwortung verteilt ist und gern als Liste von Algorithmen, Programmierer*innen, Hersteller*innen, Nutzer*innen etc. ausbuchstabiert wird. Auch hierin darf man eine (narrative) Verschiebung in der Zuschreibung von Verantwortung mit dem Ziel der Kontingenzreduktion wähnen. Distributed agency führt zu distributed responsibility. Was theoretisch-konzeptionell überzeugt, bleibt jedoch praktisch unbefriedigend. Das Konzept der Verteilung klart Verantwortlichkeit nicht auf, sondern stellt lediglich ihre ‚Diffusion‘ fest und Verantwortbarkeit damit gleichzeitig in Frage. Die Suche nach ‚Lösungen‘ als Antwort auf die diagnostizierten Probleme orientiert sich dennoch an eben jenen klaren Strukturen (z. B. Öffentlichkeit/Privatheit oder Verantwortlichkeit) als einem Ideal. Lösungen weisen damit selbst eine narrative Struktur auf, die auf die ehemals geordneten Verhältnisse rekurriert und das (prinzipiell) unerreichbare Ziel ausgibt, diese unter veränderten sozialen und technologischen Bedingungen wiederherzustellen. Sie müssen an der Praxis scheitern.  

 

5. Schluss

Die nunmehr digitalen Überwachungstechniken und -praktiken sind sowohl symptomatisch als auch konstitutiv für grössere gesellschaftliche und technologische Entwicklungen. Die zahlreichen Widersprüche in ihrer Bewertung rühren nicht zuletzt daher, dass die lange verlässliche Ordnung der Moderne seit Jahrzehnten an Gültigkeit einbüsst. Überwachung – reduziert meist auf eine bedrohlich entworfene Technik – wird als einer der Urheber dieses Zerfallsprozesses inszeniert. Die Sorge um ihre destruktive Macht und um ihre unkontrollierbare Allwissenheit findet Widerhall in den allgemeinen Unsicherheiten der Spätmoderne. Dabei wird nicht nur häufig verkannt, dass Überwachung nicht nur die Bedrohung ist, als die sie erzählt wird. Selbstverständlich kann sie die persönliche Freiheit und Autonomie bedrohen, doch ist sie zugleich ein wichtiges Werkzeug, diese überhaupt erst herzustellen. Auch scheint es, als wurde mit den Gefahrennarrativen zugleich die strukturelle Klarheit und Sicherheit einer modernen Welt zurückgesehnt. Überwachung erfüllt in einem instrumentellen Sinne wichtige gesellschaftliche Funktionen. Sie muss jedoch stets aufs Neue legitimiert und einer kritischen Bewertung unterzogen werden. Die narrativen Muster dürfen dabei ihre Evaluation nicht überlagern: Überwachung darf nie Selbstzweck oder default sein. Wie wird sie gerechtfertigt? Welche Wissensformen werden in ihr generiert und zu welchem Zweck werden sie eingesetzt? Welche Wertungen und Hierarchien werden durch Anordnungen der Überwachung bereits durchgesetzt? Welche Subjekte und sozialen Gruppen werden auf welche Weisen gedeutet? Die Theorie selbst erzählt stets eine eigene Geschichte. Dieser Text ist keine Ausnahme.  

 

Narrative der Überwachung: Typen, mediale Formen und Entwicklungen; Kilian Hauptmann, Martin Hennig; Hans Krah; Peter Lang GmbH; 2020

https://www.peterlang.com/view/9783631827475/9783631827475.00012.xml

Zur einfacheren Lesbarkeit wurden die Verweiszahlen entfernt. CC

https://creativecommons.org/licenses/by/4.0/  

 

 

cyber security

 

Cybersecurity


Schutz vor Cyber-Bedrohungen

Reagieren auch Sie früh genug und richtig auf die massiv zunehmenden Cyber-Bedrohungen und -Angriffe. Schützen Sie Ihr Unternehmen. Schützen Sie Ihre Informationen.

Kontaktieren Sie uns und überzeugen Sie sich von unserem Know-how im Bereich der Cybersecurity.

Wir beraten Sie gerne und unverbindlich. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

02/2021

 

Rütteln am goldenen Käfig des Silicon Valley

 

Ein Gesetzesvorschlag aus Brüssel soll dominante Plattformen wie Facebook zwingen, ihre Dienste für die Konkurrenz zu öffnen. Doch bisherige Entwürfe gehen aus Sicht einiger Expert:innen nicht weit genug, um wirklich die Macht der Digitalkonzerne aufzubrechen.

Ein neues EU-Gesetz soll dabei helfen, die Macht großer Plattformen wie Facebook und Google zu beschränken. Erst Mitte Dezember hatte die EU-Kommission einen Entwurf für das Digitale-Dienste- und Digitale-Märkte-Gesetz vorgelegt, der bereits als wichtigstes digitalpolitisches Projekt der Kommission von Ursula von der Leyen gilt. Doch ein Instrument, das in netzpolitischen Kreisen für viel Hoffnung und ein paar Befürchtungen gesorgt hat, fällt im Kommissionsvorschlag deutlich schwächer aus als erwartet.

Die Rede ist von einem durchschlagenden Konzept mit sperrigem Titel: Interoperabilität. Facebook oder WhatsApp sollen gezwungen werden, ihre Dienste mit anderen kompatibel zu machen.

In seiner radikalsten Variante könnte eine Interoperabilitätsverpflichtung bedeuten, dass jemand auf Facebook auch die Posts von Nutzer:innen des alternativen sozialen Netzwerks Mastodon lesen kann, oder aber dass Apple zusätzlich zu seinem eigenen Appstore auf iPhones auch alternative Stores wie F-Droid erlauben muss. Dafür gibt es schon Vorbilder, nicht zuletzt der Standard für E-Mails funktioniert über Grenzen von Anbieter:innen und Betriebssystemen hinweg.

Diese Idee hat freilich auch ihre Gegner:innen. Offene Standards seien schwer weiterzuentwickeln, argumentiert etwa der Gründer des sicheren Messenger-Dienstes Signal, Moxie Marlinspike. Protokolle wie SMTP, auf dem E-Mail-Verkehr abgewickelt wird, seien seit Jahrzehnten nicht weiterentwickelt worden und seien „in der Zeit steckengeblieben“.

Die EU-Kommission entschied sich im Digitale-Märkte-Gesetz für einen vorsichtigere Version. Zwar sieht ihr Gesetzesentwurf eine Interoperabilitätsverpflichtung für sogenannte Gatekeeper-Plattformen vor, die mehr als 45 Millionen Nutzer:innen in der EU haben. Das ist Konzernen wie Google, Facebook oder Apple auf den Leib geschrieben.

Die Verpflichtung gilt allerdings nicht für die Kernfunktion des jeweiligen Dienstes, etwa das Versenden von Nachrichten bei WhatsApp, sondern lediglich für die „Bereitstellung von Nebendienstleistungen, [die] durch den Gatekeeper verfügbar sind oder verwendet werden“. Die Kommission will also lediglich eine Öffnung bei Identifikations- oder Bezahldienste, die Teil einer Plattform sind. Die Kernfunktion, etwa das Teilen von Posts und Versenden von Nachrichten bei Facebook, sollen davon nicht berührt sein.

„Weit davon entfernt, die Probleme zu lösen“

Der Entwurf der Kommission gehe nicht weit genug, um wirklich an der Machtposition der großen Plattformkonzerne zu rütteln, sagen europäische Beobachter:innen.

„Das Digitale-Märkte-Gesetz wird keine Änderungen an der Funktionsweise dieser Anwendungen bringen, abgesehen von Nebenfunktionen wie Logins und Zahlungen“, betont Vittorio Bertola von der Open-Source-Softwarefirma Open-Xchange. Das sei „besser als nichts, natürlich, aber immer noch weit davon entfernt, die Probleme zu lösen.“

Dabei beruhe die Grundarchitektur des Internets auf interoperabler, konkurrierender Hard- und Software basierend auf offenen Standards, sagt der Entwickler und Internetaktivist Bertola. Gerade das habe dem Internet ermöglicht, zu florieren und wirtschaftlichen und kulturellen Fortschritt zu schaffen – und die Welt zu verändern. „Indem die Kommission dieses Modell nicht per Verordnung aufrechterhält, nimmt sie im Grunde genommen in Kauf, sich für immer vom ursprünglichen Internet zu verabschieden.“

Auch Konsument:innenverbände und Digitalaktivisten sehen das ähnlich. „Meine Befürchtung ist, dass die Kommission bei Interoperabilität einen sehr vorsichtigen Zugang gewählt hat“, erklärt Agustin Reyna vom EU-Verbraucher:innenverband. Die Kommission habe nicht klar definiert, warum sie überhaupt Interoperabilität für Nebenfunktionen dominanter Dienste vorschreibe. „Wenn das den Wettbewerb sicherstellen soll, dann sollten sie zumindest Kernfunktionalitäten einbeziehen.“

Reyna verweist darauf, dass die verpflichtende Öffnung zumindest von Messaging-Apps bereits durch den europäischen Kodex für elektronische Kommunikation möglich sei, der seit 2019 in Kraft ist. Der Kodex räumt Telekom-Regulierungsbehörden in den Mitgliedsstaaten die Möglichkeit ein, Diensten Interoperabilität vorzuschreiben, in der Praxis ist diese Möglichkeit allerdings noch nie verwendet worden.

„Goldene Käfige“ des Silicon Valley aufbrechen

Es sei enttäuschend, dass die Kommission es versäumt hat, durch echte Interoperabilität einen einfacheren Wechsel zwischen ähnlichen digitalen Diensten zu ermöglichen, meint Jan Penfrat vom NGO-Verband European Digital Rights.

„Es wird zwar nützlich sein, wenn Unternehmen, die großen Technologiekonzernen Zusatzdienste anbieten, ein Recht auf Interoperabilität mit der dominanten Hauptplattform erhalten, aber das wird nicht ausreichen, um die Nutzenden aus den goldenen Käfigen zu befreien, in die die Silicon-Valley-Konzerne sie gesperrt haben“, sagt Penfrat.

Der NGO-Experte hofft, dass das EU-Parlament in seinem Textvorschlag auf volle Interoperabilität von dominanten Diensten beharrt. „Dies ist entscheidend für die EU, um die wirtschaftliche, soziale und politische Macht, die Big Tech erlangt hat, wirksam zu begrenzen“, erklärt Penfrat.

Das EU-Parlament befasst sich in den kommenden Monaten mit dem Entwurf, ein eigener Textvorschlag der Abgeordneten könnte aber noch bis 2022 dauern. Das Parlament hat Interoperabilität bereits als Schlüssel für einen wettbewerbsfähigen Markt. Der rechtlich nicht bindende Bericht des Parlaments forderte die Kommission auf, ein „angemessenes Maß an Interoperabilität für systemrelevante Betreiber sicherzustellen“.

Auch die EU-Staaten im Rat sollen eigene Vorschläge vorlegen. An beiden Orten werben Technologiefirmen schon fleißig für ihre Interessen, wie ein Bericht der NGO Corporate Europe Observatory deutlich macht. Wenig Wunder also, dass Brüsseler Insider bei dem Digitale-Dienste-Gesetzespaket schon jetzt von der Lobbyschlacht des Jahrzehnts sprechen.

 

Netzpolitik.org; Alexander Fanta; 14.01.2021

https://netzpolitik.org/2021/digitale-dienste-gesetzespaket-ruetteln-am-goldenen-kaefig-des-silicon-valley/

http://creativecommons.org/licenses/by-nc-sa/4.0/

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

02/2021

 

Übersetzung des Leitfadens der Vereinigung European Digital Rights (EDRi)

 

1. Grundlagen

 

Nutzer-Erwartungen
Menschen, die eine Website aufrufen, haben eine Reihe berechtigter Erwartungen. Sie wollen sich sicher fühlen. Sie möchten nicht, dass ihre Endgeräte oder die darauf befindlichen Daten angegriffen und ausgespäht werden. Sie möchten, dass ihre Privatsphäre respektiert wird. Einige dieser Anforderungen sind in Gesetzen wie der Allgemeinen Datenschutz-Grundverordnung (DSGVO) der EU festgeschrieben. Bisher ging es lediglich darum, dass ein Dienst technisch einfach und zuverlässig funktioniert. Wenn ein Dienst fehlerhaft, unübersichtlich oder unsicher ist, werden die User ihn deshalb möglicherweise nicht weiter nutzen. Wichtiger in diesem Zusammenhang ist jedoch, dass – wenn sie sich entscheiden, das Angebot weiterhin zu nutzen – sie lernen, Dinge zu tolerieren, die besser nicht toleriert werden sollten. Hier liegt das eigentliche Problem.

Vertrauenswürdigkeit und Sicherheit
Neben Erwartungen an Datenschutz und Privatsphäre gibt es auch Anforderungen an die Zuverlässigkeit der Systeme. Sie sollten trotz Ausfall von Komponenten, verteilten Denial-of-Service (DDoS) und anderen Angriffen verfügbar bleiben. Außerdem müssen Maßnahmen ergriffen werden, um die Integrität und Vertraulichkeit der Daten zu gewährleisten.

Personenbezogene Daten und Einhaltung der DSGVO
Websitebetreiber mit Sitz in der EU (oder die Dienstleistungen für EU-Bürger anbieten) müssen die DSGVO einhalten. Diese zielt in erster Linie darauf ab, Menschen die Kontrolle über ihre personenbezogenen Daten zu geben. Die DSGVO ist aber ein komplexes und weitreichendes Gesetz. Bereits eine IP-Adresse gilt als personenbezogener Datenbestand. Dies liegt daran, dass eine IP-Adresse mit einer Person in Verbindung gebracht werden kann, wenn sie mit anderen Informationen kombiniert wird. Wenn Dienste von Drittanbietern eingebunden werden, um beispielsweise Funktionen oder Inhalte wie Javascript und Bilder bereitzustellen, erfahren sie die IP-Adresse der Website-Besucher. Aus diesem Grund kann nach der DSGVO ein Auftragsverarbeitungsvertrag (AVV) mit jedem dieser Drittanbieter erforderlich sein. Der DSGVO-Grundsatz “privacy by default” bedeutet, dass bei der Bereitstellung eines Dienstes mit verschiedenen Datenverarbeitungsstufen die Standardeinstellung diejenige sein muss, die den Datenschutz am meisten respektiert. Wenn der User diese Einstellungen selbst ändern kann, muss das transparent und einfach möglich sein. Die Beachtung der folgenden Grundsätze ist neben der Gewährleistung eines ethischen Ansatzes auch ein erster Schritt zur Einhaltung der Rechtsvorschriften der DSGVO.

 

2. Allgemeine Empfehlungen

  • Möglichst viel der Datenverarbeitung sollte auf den Endgeräten des Nutzers erfolgen.
  • Wenn Sie Nutzerdaten übertragen und verarbeiten müssen, verschlüsseln Sie diese. Ermöglichen Sie Ende-zu-Ende-Verschlüsselung für jede relevante Kommunikation. Das Ziel sollte sein, dass private Informationen nicht für Dritte sichtbar sein können.
  • Verwenden Sie nach Möglichkeit Methoden zur Datenminimierung. Fragen Sie immer nur Daten ab, die tatsächlich verarbeitet werden müssen.
  • Vermeiden Sie – so weit möglich – Lösungen von Drittanbietern. Versuchen Sie alles auf Ihrem eigenen Server zu hosten. Dies umfasst Code und Inhalte von Drittanbietern wie:
    • Cookies
    • CSS-Dateien
    • Bilder
    • Medien wie Video- und Audiodateien
    • Javascripts
    • Frames und Widgets mit Inhalten von Drittanbietern
    • Webfonts
  • Wenn das Installieren einer externen Ressource wie einer Javascript- oder Webfont-Datei auf dem eigenen Server laut Nutzungsbedingungen des Anbieters nicht zulässig ist, ist das Angebot wahrscheinlich sowieso nicht datenschutzfreundlich und sollte besser ganz gemieden werden. Wenn Sie Ressourcen von Drittanbietern einbinden wollen, kann die Verwendung von Subresource Integrity (SRI) eine gute Idee sein.

3. Empfehlungen zur IT-Sicherheit

Informationssicherheit muss auf allen Ebenen berücksichtigt werden. Sicherheitsentscheidungen müssen unterschiedliche, potentiell widersprüchliche Ziele berücksichtigen, und sie können nicht isoliert getroffen werden. Sie können sich z. B. auf die Geschwindigkeit und Benutzerfreundlichkeit eines Angebots auswirken und erheblichen Einfluss auf die benötigten Ressourcen, d.h. auf den Geld- und Arbeitsaufwand, haben.

Im Allgemeinen sollte Folgendes gewährleistet sein:

  • Die Website sollte keine Gefährdung für das übrige Internet darstellen.
  • Die Integrität der Website selbst sollte gewahrt bleiben.
  • Die gesamte Kommunikation sollte sicher sein.
  • Die Sicherheit und Privatsphäre der Besucher sollte geschützt werden.

Das Erreichen dieser Ziele ruht in der Regel auf zwei Säulen: Teilen (Sharing) und Standardisierung. Bei neuen Bedrohungen ist es wichtig Informationen auszutauschen, z. B. über entsprechende Mailinglisten oder Social Media Kanäle. Darüber hinaus stellt die Implementierung bewährter aktueller Standards sicher, dass Sie nicht das schwächste Glied in der Kette sind.

 

ISO

Die ISO hat eine Reihe von hilfreichen Standards veröffentlicht, darunter die folgenden über Qualität und Sicherheit:

  • ISO / IEC / IEEE 90003:2018 (Softwareentwicklung)
  • ISO/IEC 27000-Reihe (Standards zur Informationssicherheit)

Diese Standards bieten unter anderem ein gemeinsames Vokabular, das nützlich sein kann – z. B. zum Nachweis der Einhaltung der DSGVO.

 

Domain Name System Security Extensions (DNSSEC)

Ein DNS-Teilnehmer kann mit DNSSEC verifizieren, dass die erhaltenen DNS-Zonendaten auch tatsächlich identisch mit denen sind, die der Ersteller der Zone autorisiert hat.

 

Tor-Browser

Manche Nutzer verwenden den Tor-Browser, um ihre Privatsphäre und Sicherheit zu schützen. Wenn Sie einen Provider für Ihre Website wählen, stellen Sie sicher, dass Tor-Verbindungen erlaubt sind. Mit dem Onionshare-Tool kann man mit wenigen Klicks eine anonyme und unzensierbare Version der bestehenden Webseite veröffentlichen.

 

HTTPS

Lassen Sie keine unverschlüsselten Verbindungen zu Ihrer Website zu und leiten Sie immer die Verbindung über HTTPS, um Man-in-the-Middle-Angriffe und Abhören zu vermeiden. Die zentrale Motivation für HTTPS ist die Authentifizierung der aufgerufenen Website und Schutz und Integrität der ausgetauschten Daten. Erwägen Sie die Verwendung von HSTS, um dies konsequent durchzusetzen.

Wählen Sie einen Provider, der zertifiziertes HTTPS ermöglicht. Wenn Sie Root-Zugriff auf den Server haben (oder Ihr Shared Hosting-Provider das ermöglicht), können Sie Let’s Encrypt verwenden, um ein kostenloses Zertifikat für alle benötigten Domains zu erhalten.

Stellen Sie bei Verwendung von HTTPS sicher, dass nur sichere Verschlüsselungsmethoden zugelassen sind. Einige der älteren HTTPS-Versionen sind nicht mehr sicher, da sie veraltete Algorithmen einsetzen. Im Web stehen kostenlose Ressourcen zum Testen der Sicherheit Ihres Webservers zur Verfügung, z. B. SSL Server Test.

 

Content Security Policy (CSP)

CSP ist ein Security Layer des W3C, das Sie auf Ihrem Webserver aktivieren können, um das Laden externer Ressourcen wie Skripte, Stylesheets und Bilder auf Ihrer Website zu blockieren. Es hilft bestimmte Arten von Angriffen, einschließlich Cross Site Scripting (XSS) und Data-Injection-Angriffe zu verhindern. Diese Angriffe dienen u. a. dem Ausspähen von Daten über Site Defacement (unberechtigtes Verändern einer Website) bis hin zur Verbreitung von Malware. Sie können Ihre CSP-Konfiguration über einen kostenlosen Dienst Observatory von Mozilla testen.

 

Javascript

Manche Web-Entwickler vertreten die Ansicht, dass Javascript ganz vermieden werden sollte, da es einige Benutzer ausschließen könnte und nicht barrierefrei ist. Barrierefreies Javascript zeigt, dass das aber nicht zwangsläufig so sein muss.

Wer Javascript einsetzt, sollte aber in jedem Fall auch eine Nicht-Javascript-Version anbieten, um niemanden auszuschließen. Am besten ist es zunächst eine Javascript-freie Website zu entwerfen und erst anschließend Javascript-basierte Funktionen zu ergänzen. Fügen Sie einen <noscript>-Tag ein, um eine Version für Benutzer anzubieten, die Javascript in ihrem Browser deaktiviert haben oder nicht nutzen können. Dies garantiert allen Benutzer ein barrierefreieres Surferlebnis.

 

Sensible Daten schützen

Wenn die Website persönliche Daten der Benutzer speichert, indem sie beispielsweise Personalisierung mit Login anbietet, sollten Sie Folgendes beachten:

  • Setzen Sie die Verwendung von starken Passwörtern durch.
  • Speichern Sie niemals Passwörter und andere sensible Informationen im Klartext. Verwenden Sie für sensible Daten immer kryptographische Hash-Verfahren.
  • Wenn dies Ihre Möglichkeiten übersteigt, können Sie diese Aufgaben an einen Identitätsprovider auslagern und mit Single Sign On arbeiten.
  • Um das Kommentieren von Blog-Posts zu ermöglichen, bieten sich Open-Source-Plugins von Drittanbietern wie Discourse oder dem Coral-Projekt an. Weitere Informationen finden Sie unter darekkay.com/blog/static-site-comments.

Schutz vor DDoS-Angriffen

Verteilte Denial-of-Service-Angriffe (DDoS) überfluten den Zielserver mit Anforderungen aus vielen verschiedenen Quellen, was zu einer Überlastung führt. Wenn Sie eine Website für eine gesellschaftlich engagierte Initiative, eine NGO, ein Aktivisten-Netzwerk o. ä. erstellen, sollten Sie in Betracht ziehen, diese vor DDoS-Angriffen zu schützen. Üblicherweise wird dazu zwischen dem Besucher und dem Hosting-Anbieter der Website ein Dienst eines Drittanbieters (DDoS-Mitigation Dienstleister) geschaltet, der als Reverse-Proxy für die Website arbeitet. Deflect ist z. B. eine kostenlose Open Source-Lösung, die von einer gemeinnützigen Organisation für digitale Sicherheit angeboten wird.

Die Nutzung von DDoS-Mitigationsdiensten bedeutet aber immer, dass Sie die Kontrolle über Ihren gesamten Datenverkehr an Dritte abgeben. Die Reputations- und sonstigen Risiken müssen daher sorgfältig bewertet werden. Es gibt auch DDoS-Abwehrkonzepte, die ohne Drittanbieter auskommen, weil sie dem Angriff auf Netzwerkebene begegnen.

 

Statische Websites sind zurück

Benötigen Sie wirklich eine dynamische Website? Wenn Sie keine Datenbank brauchen, stehen die Chancen gut, dass die aktuellen Webstandards wie HTML5 ausreichen, um eine hochmoderne Website nur mit statischen Ressourcen (HTML, CSS und vielleicht Javascript und Webfonts) zu erstellen (siehe JAMstack). Dies bedeutet nicht, dass Sie die Navigation u. ä. von Hand codieren müssen. Mit modernen statischen Website-Generatoren wie Jekyll, Hugo oder Pelican können Sie Ihre Inhalte in Markdown oder einfachem HTML erstellen und daraus automatisch eine vollständige HTML-Website erzeugen lassen. Wenn Sie GitLab Pages verwenden, können die Konvertierung und Bereitstellung auch automatisiert werden. Statische Websites erreichen konkurrenzlose Performance und Betriebssicherheit, da sie keine Datenbank und serverseitigen Programmcode benötigen. Ein einfacher Webserver, der die statischen Dateien bereitstellt, genügt. Folglich werden sie weniger von Sicherheitslücken heimgesucht und sind blitzschnell.

 

4. Alternativen zu teuren „kostenlosen“ Diensten Dritter

Der Einsatz von Tools von Google, Facebook, Amazon und anderen Datenkraken gilt als unvereinbar mit dem Schutz der Privatsphäre Ihrer Website-Besucher. Web-Entwickler mit ethischem Anspruch, denen die Privatsphäre ihrer Benutzer am Herzen liegt, versuchen in der Regel, solche Dienste (auch von Tochterunternehmen) weder direkt noch indirekt zu nutzen. Es gibt Dutzende ethischer, benutzerfreundlicher und datenschutzbewusster Alternativen, von denen viele in Prism Break zu finden sind. Uns ist klar, dass Dienste von Drittanbietern manchmal trotzdem sehr nützlich sind. Daher stellen wir nachfolgend ein paar datensparsame Alternativen vor:

 

Website-Statistik

Es ist wichtig zu beachten, dass Besucher-Statistiken im Allgemeinen fehlerhaft sind, weil sie von vielen Anti-Tracking-Tools blockiert werden. Daher liefern sie nur ein ungenaues Bild. Wenn Sie dennoch eine statistische Auswertung benötigen, empfehlen wir den Einsatz von Matomo (ehemals Piwik) anstelle von Google Analytics oder eines anderen Drittanbieter-Statistik-Tools. Es handelt sich um eine datenschutzfreundliche DSGVO-konforme Analyseplattform, die sehr einfach zu installieren ist und so konfiguriert werden kann, dass Daten automatisch anonymisiert und so nur eine minimale Menge an persönlichen Daten verarbeitet werden. Matomo kann auch auf der Basis von Serverlogfiles arbeiten und damit unabhängig von Tracking-Cookies alle Seitenbesuche zählen.

 

Videos

Youtube gehört zur Alphabet Inc., der multinationalen Konzernmutter von Google. Beim Einbetten eines Videos von Youtube gibt es die Möglichkeit, den Modus mit erweiterter Privatsphäre zu aktivieren (youtube-nocookie.com). Das bedeutet, dass Youtube keine Tracking-Cookies auf den Geräten der Besucher Ihrer Website platziert, es sei denn, das Video wird abgespielt. Die Option “vorgeschlagene Videos anzeigen, wenn das Video beendet ist” sollte ebenfalls deaktiviert werden. Wenn Sie ein Youtube-Plugin für Ihr Content-Management-System verwenden wollen, suchen Sie nach einem, das diese Optionen unterstützt.

Eine noch bessere Lösung ist die Verwendung oder sogar den Betrieb einer eigenen Peertube-Instanz in Betracht zu ziehen. Peertube hat den zusätzlichen Vorteil, dass es weniger anfällig für böswillige Take-Down-Anforderungen (Löschanträge) ist als Youtube. Außerdem wird Ihrem Inhalt keine Werbung beigefügt, was natürlich zur Folge hat, dass Sie mit Ihren Videos auf Peertube auch kein Geld verdienen können. Kommerzielle Video-Hosting-Plattformen wie Youtube spähen ja genau deshalb Nutzerdaten aus, um auf dieser Grundlage Geld mit Werbung einnehmen zu können. (Falls Sie auf dieses Geschäftsmodell setzen, sollten Sie sich bewusst machen, dass Youtube die Bedingungen dafür jederzeit willkürlich ändern kann.)

Vimeo erlaubt es Pro-Benutzern, ihre Videodateien ohne den Vimeo-Player (der Google Analytics enthält) zu verwenden, so dass dies eine weitere datenschutzfreundliche Alternative ist.

 

Maps

Wenn Sie die Google Maps-API zum Einbetten einer Karte in Ihre Website verwenden, zwingen Sie die Nutzer, die Google-Datenschutzbestimmungen zu akzeptieren. Als Alternative können Sie OpenStreetMap einsetzen.

 

Schriftarten und Symbole

Anstatt Google-Fonts einzubinden, die die Nutzer zwingen, die Google-Datenschutzbestimmungen zu akzeptieren, können Sie auch andere Schriftarten verwenden:

  • Fork Awesome ist eine sehr große Bibliothek von Open-Source-Icons.
  • Fontello ermöglicht Ihnen, eine eigene begrenzte Auswahl an Symbolen zu erstellen, um nicht alle laden zu müssen.
  • Fontspring bietet an, Ihre Schriften selbst zu hosten.
  • FontSquirrel stellt kostenlose Fonts zur Verfügung, die selbst gehostet werden können.

Schließlich können Sie auf den Google-Webfonts-Helper zurückgreifen, um einen vollständigen lokalen Satz von CSS- und Schriftartendateien zu erstellen und diese dann selbst zu hosten. Dadurch können Web-Entwickler immer noch alle Schriften von Google Fonts mit wenig bis gar keinem zusätzlichen Aufwand verwenden, ohne sie direkt von Google einzubinden.

 

Social Widgets

Der Standardcode zur Einbettung von “Sozialen Buttons”, der von den Plattformen bereitgestellt wird, z. B. “Gefällt mir” oder “Teilen”-Buttons, sendet Informationen an diese Sozialen Netzwerke, auch wenn der Benutzer nicht darauf klickt. Es gibt viele Möglichkeiten dies zu vermeiden und trotzdem die gleiche Funktionalität zu bieten. Eine davon ist die Verwendung von Social Share Privacy. Hierbei gibt es eine JavaScript- und eine Nicht-JavaScript-Option.

Sharingbuttons.io ist eine weitere Alternative, um Tracking und JavaScript zu vermeiden. Aufgrund der Tatsache, dass es ohne JavaScript arbeitet, werden die Buttons sehr schnell geladen und blockieren das Rendern Ihrer Website nicht.

Natürlich können Sie die Schaltflächen auch einfach selbst erstellen und verlinken. Noch besser ist es aber, konzeptionell ganz auf die Integration von Social Media Kanälen zu verzichten bzw. datenschutzfreundliche Open-Source-Alternativen dafür zu suchen.

 

Captchas

Captcha-Funktionen kommen zum Einsatz, um Spam in Online-Formularen oder Benutzerkommentaren zu verhindern. Es gibt dennoch gute Gründe, sie überhaupt nicht zu verwenden. Um tatsächliche Benutzer von “Bots” zu unterscheiden, werden oft (gutes) Hören oder Sehen als Fähigkeiten abgeprüft. Per Definition ist dies für Besucher mit Seh- oder Hörproblemen schwierig oder unmöglich. (Siehe “Website für alle zugänglich machen”.)

Derzeit haben viele Captchas von Drittanbietern außerdem Probleme mit dem Datenschutz. Google Captchas sind nicht nur lästig, sondern scheinen zusätzlich persönliche Daten über ihre Nutzer zu sammeln.

Es gibt bessere Möglichkeiten Ihre Website mit einfachen Captcha-Methoden zu schützen, bei denen kein externer Javascript-Code geladen werden muss. Falls es Konfigurationsmöglichkeiten gibt, sollten Sie auf Benutzerfreundlichkeit und den Datenschutz achten. Einige Beispiele für alternative Captchas sind:

  • Drupal Captcha
  • Wordpress Für Kontaktformular 7 mit Honeypot
  • Wordpress Secure Image Captcha
  • Securimage
  • IndyCaptcha

… und mehr

 

Tools für die Organisation von Veranstaltungen
Für gesellschaftliches Engagement und Aktivismus sind persönliche Treffen wichtig. In dem Zusammenhang sollten Sie darauf achten, dass Dritte keine Informationen über die Teilnehmer erhalten und die Vertraulichkeit gewahrt bleibt. Prüfen Sie sorgfältig, welche Tools dies gewährleisten können. Attendize ist z. B. eine Open-Source-Plattform für Ticketverkauf und Eventmanagement.

 

Websites für alle zugänglich machen
Die barrierefreie Gestaltung von Websites stellt sicher, dass behinderte Nutzer uneingeschränkten Zugang zu den Inhalten und Dienstleistungen haben und ist daher sehr wichtig. Das W3C hat diesbezüglich nützliche Standards entwickelt:

Verhindern Sie ungültige Links
Externe Informationen werden oft durch Links referenziert. Link-Ziele, die sich außerhalb Ihrer Kontrolle befinden, können irgendwann aus dem Internet verschwinden oder eine andere URL bekommen, womit die alten Referenzen ungültig werden. Es liegt auch in Ihrer Verantwortung, dafür zu sorgen, dass die Nutzer Ihrer Website zuverlässig auf die von Ihnen verlinkten Inhalte zugreifen können. Man kann zentrale Archivierungsdienste (z.B. das Internet-Archiv oder perma.cc) nutzen oder ein eigenes Archiv mit dem Amber-Tool anlegen und selbst hosten. Diese Dienste und Open-Source-Tools erstellen eine Momentaufnahme jeder auf der Website verlinkten Seite und bewahren sie auf.

 

Ethische Werbung
Sie sollten sich überlegen, Online-Werbung nicht einzubinden, wenn sie Benutzer ausspäht und mit diesen Daten handelt. Es gibt Alternativen, um diesem äußerst fragwürdigen Geschäftsmodell auszuweichen: Ethical Ads

 

Website-Suche
Wenn Sie eine Drittanbieter-Suchfunktion in Ihrer Website anbieten, sollten Sie eine Lösung in Betracht ziehen, die ihre Benutzer nicht ausspäht. Wenn Sie eine statische Website betreiben oder Ihr CMS keine gute Suchfunktion enthält, finden Sie hier weitere Tipps:

 

Schauen Sie sich auch die Open-Source-Metasuchmaschine Searx an, die keinerlei Userdaten ausspäht. Wenn Sie keine eigene Searx-Instanz betreiben wollen, können Sie einfach auch eine öffentliche Searx-Instanz verlinken.

Weitblick.org; Zugriff 14.01.2021

https://creativecommons.org/licenses/by-nc-sa/4.0/deed.de

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

02/2021

 

Bürgerschreck und Hoffnungsträger in privaten Lebenswelten

 

Utopien und Dystopien Utopien: Möglichkeiten und gesellschaftlicher Nutzen Die Beschreibung der Smart Services und die Analyse bestehender Geschäftsmodelle in den Lebenswelten Wohnen, Gesundheit und Mobilität haben gezeigt, dass die Analysen von Daten – auch von personenbezogenen Daten – für die Entwicklung neuer, umfassender Mehrwerte für die Bürger genutzt werden können. Die Sicherheit der Menschen kann durch smarte Lösungen erhöht, der Komfort kann gesteigert und Ressourcen können effizienter eingesetzt werden. Schon heute besteht z. B. die Möglichkeit, einen Großteil der Wohnumgebung so zu steuern, dass alltägliche Arbeit und Aufgaben des Bewohners entfallen und durch datenbasierte Systeme übernommen werden können.

Durch den Einsatz smarter Sensoren können Risiken wie Feuer (smarte Rauchmelder) und Feuchtigkeit (Leckage-Sensoren) nicht nur frühzeitig erkannt werden, vielmehr können sensorgesteuert auch präventive Maßnahmen ergriffen und Schäden von vornherein verhindert werden. Ergänzend können z. B. smarte Thermostate und Lichtsysteme die Wohnumgebung per App oder Sprachsteuerung auf die individuellen Bedürfnisse des Bewohners anpassen und damit den Lebenskomfort erhöhen und die Energieeffizienz steigern. Doch gerade in der Lebenswelt Wohnen stecken die Smart Services noch in den Kinderschuhen; vieles ist zwar theoretisch schon möglich, kommt aber – gerade in Deutschland – bislang kaum zum Einsatz. Die Gründe dafür sind vielfältig und reichen von einer teils noch komplizierten Handhabung (Stichworte: Installation und Konnektivität) bis hin zu Sicherheits- und Datenschutzbedenken der potenziellen Nutzer. Während aktuell noch ein gewisser Grad an technischer Versiertheit als Grundvoraussetzung für die Nutzung von Smart Home-Technologien gilt, die eher bei den jüngeren ‚Digital Natives‘ anzutreffen ist (die vielfach noch gar keine eigene Wohnung besitzen), adressieren die Angebote künftig mehr und mehr auch Familien und ältere Menschen, die ohne nennenswerte Technologieaffinität und mittels einer immer intuitiveren Bedienbarkeit die Nutzenpotenziale der Smart Home-Lösungen erkennen. Durch smarte Assistenten wie Amazon Alexa oder Lingxi Voice Assistant können die Funktionen auch allein über die Sprache gesteuert werden. Der nächste Entwicklungsschritt nach der Sprachsteuerung ist die Gestensteuerung. Statt Alexa zu bitten, die Musik etwas leiser zu stellen, reichen dann einfache Handbewegungen, mit der die Lautstärke reguliert (wie bereits bei den AirPods, den Bluetooth-Kopfhörern von Apple, möglich), die Tür geöffnet oder das Rollo nach unten gefahren werden können.

Die Kombination von Touchscreens, Sprach- und Gestensteuerung in allen Lebenswelten stellt fast den Höhepunkt an Komfort für die Nutzer dar, die nur noch durch direkte Gedankensteuerung übertroffen werden kann (was inzwischen als Ergebnis neurologischer Forschungen auch nicht mehr unmöglich scheint). Und in der Lebenswelt Gesundheit entstehen dadurch Potenziale für eine effiziente computergesteuerte Unterstützung und Versorgung eingeschränkter Menschen z. B. mittels Roboter und Künstlicher Intelligenz. Noch weitergehend ist gar an die heute noch utopisch anmutende Möglichkeit zu denken, querschnittsgelähmten Menschen über Gehirnsignale, die unter Überbrückung der geschädigten Wirbelsäule über einen externen Sensor an die Nerven in den Beinen weitergeleitet werden, wieder zum Gehen zu verhelfen. Voraussetzung dafür sind weitere Forschungen über die Zusammenhänge von Gedanken und Gehirnströmen, die in datengesteuerte Systeme zu übersetzen sind. Gerade die Skepsis, die der Technologie entgegengebracht wird, hemmt aber die Entstehung umfassender Mehrwerte und den gesellschaftlichen Nutzen. Datenanalyse und Künstliche Intelligenz sind auf Big Data angewiesen. Bspw. können in der Lebenswelt Wohnen zwar die individuellen Gewohnheiten und Routinen eines Nutzers analysiert werden, und das smarte Home kann sich auf die Bewohner einstellen. Allgemeingültige Regeln können bisher jedoch nur thesenbasiert aufgestellt und nicht vom System selbst erlernt werden, da die Datenbasis zu gering ist. Wäre jedes Haus ein Smart Home und jedes Auto mobil ein Connected Car, könnten alle Wohnungen, Gebäude, Fahrzeuge sowie ganze Städte und Infrastrukturen miteinander kommunizieren, Daten kombiniert und ausgewertet werden. Mit immer mehr Datenquellen entstünden immer mehr nutzenstiftende Anwendungspotenziale. Sogenannte Smart Cities verknüpfen alle in der vernetzten Stadt vorhandenen Daten. Luft-, Wasser- und Energieverbrauch der verschiedenen Gebäude, Bewegungsdaten der in der Stadt befindlichen Menschen und Informationen über die Verkehrssituation werden zentral zusammengefasst und ausgewertet. Dadurch wird eine gesamthafte Analyse der Verhältnisse in der smarten Stadt ermöglicht, zahlreiche Risiken werden erkannt, Verkehrsflüsse optimiert und der Energieverbrauch maximal effizient gestaltet. Schon heute gibt es in China solche Smart Cities, in denen vielerlei Daten zusammengeführt und ausgewertet werden. Dabei ist eine Ausweitung der Nutzung über Zwecke der Stadtverwaltung hinaus für geschäftliche und auch soziale Zwecke denkbar. So können akute Engpässe oder Hilfebedarfe frühzeitig erkannt und gedeckt werden – z. B. der Bedarf nach zusätzlicher (Mobilitäts-) Kapazität bei hoher Auslastungsrate der Fahrzeuge in einem bestimmten Gebiet oder nach zusätzlicher ärztlicher (Gesundheits-)Versorgung im Fall einer beginnenden Pandemie.

Was die Mobilität angeht, wird nach dem autonomen Fahren das autonome Fliegen den nächsten Entwicklungsschritt darstellen. Autonom fliegende Drohnen können z. B. die medizinische Versorgung in ländlichen Gebieten sicherstellen, und zwar mit datenbasierten Echtzeitanalysen ebenfalls auch in Akutsituationen. Dasselbe gilt für weitere Arten von Rettungseinsätzen, z. B. bei der Feuerbekämpfung oder Lawinenbergung, wenn Sensoren selbsttätig autonome Fluggeräte (Löschflugzeuge oder Bergungsdrohnen mit Robotics-Ausstattung) anfordern und effizient steuern. Auch die mobile Alltagssicherheit kann durch eine intelligente datenbasierte Steuerung erheblich gesteigert werden. Eine smarte Verkehrsüberwachung und -lenkung verhilft dazu, Ordnungswidrigkeiten aufzudecken bzw. präventiv zu vermeiden, Verkehrsflüsse zu optimieren und Unfallzahlen massiv zu senken. Straftaten können mithilfe der Gesichtserkennung und Abgleich mit einem großen Datensatz schnell aufgeklärt und mit Aussicht darauf ebenfalls von vornherein vermieden werden. Die Polizei kann dorthin geschickt werden, wo das Risiko von Übergriffen oder öffentlicher Unruhen nach aktueller Datenlage am größten ist. Dies alles führt nicht nur im Bereich Mobilität/ Verkehr zu mehr Sicherheit, sondern im gesamten öffentlichen Leben. Zudem führt die umfassende Datenerhebung in allen Lebenswelten der Bürger zu einem umfassenderen Verständnis individueller Wünsche und Bedürfnisse. Damit können Produkte, Dienstleistungen und Prozesse optimiert und auf die jeweiligen Bedürfnisse ausgerichtet werden. Im smarten Supermarkt (online oder offline) werden dem Kunden nur noch Produkte angeboten bzw. hervorgehoben angezeigt, die für ihn relevant sind. Tiernahrung wird nur Tierbesitzern präsentiert, Vegetarier erhalten nur fleischlose Rezeptvorschläge und gegenüber Allergikern werden die für sie ungeeigneten Produkte markiert. Denkbar ist auch ein digitaler Assistent, der die Finanzen und Versicherungsbedarfe überwacht, analysiert und sich selbstständig um die individuell besten Lösungen kümmert. Dies alles beschreibt eine Welt, in der sich die Bürger sicherer fühlen können, in der sie von Alltagsaufgaben entlastet sind, viele Annehmlichkeiten den Lebenskomfort erhöhen und dabei ressourceneffizient noch Zeit und Geld gespart werden können. Alles in allem ist die Utopie ein merklich erhöhtes Maß an Freiheit der Menschen, ihr Leben nach den eigenen Vorstellungen und Wünschen zu gestalten.  

 

Dystopien: Grenzen und gesellschaftliche Risiken

Bei allen Utopien über Nutzenpotenziale, die Big Data, Data Analytics und die künstliche Intelligenz mit sich bringen, stellt sich jedoch die Frage, wer über den Einsatz der Daten entscheidet und wer damit auch bestimmt, was damit angefangen wird. Je nachdem ergibt sich auch ein Spannungsfeld, ob mit den Anwendungen eine Verbesserung oder möglicherweise auch eine Verschlechterung der Lebenssituation von Bürgern in einer Gesellschaft verbunden ist. Als Ausgangsfrage ist zunächst zu erörtern, wem die Daten über Verhaltensweisen und Vorlieben der Menschen gehören. Die Diskussion darüber zieht sich bereits heute durch Politik, Gesellschaft und sämtliche Branchen. Einigkeit herrscht oft darüber, dass die Datenhoheit bei den Bürgern selbst liegen sollte, deren Verhältnisse und Verhaltensweisen damit repräsentiert werden. Das heißt, die Bürger selbst sollen individuell entscheiden und steuern können, welche Daten wem und für welche Zweck preisgegeben werden. Doch was bedeutet das konkret? Und steht diese Anforderung nicht gerade im Widerspruch zu den Potenzialen einer umfassenden, zunächst noch nicht zweckgebundenen Auswertung durch Behörden und Anbieter verschiedener Smart Services, um neue Anwendungsfelder überhaupt erst zu identifizieren? Der potenzielle Nutzen einer Datenanalyse wird naturgemäß umso größer, je mehr Daten (Big Data) miteinander verknüpft und kombiniert ausgewertet werden. Voraussetzung dafür ist wiederum, dass die Daten möglichst an einer Stelle zusammenlaufen und gepoolt werden. Dadurch bilden sich jedoch Monopolisten, bei denen die Daten nicht nur erfasst, gespeichert und ausgewertet werden, sondern die auch die Einsatzfelder kontrollieren können.

Mit der Kontrolle aller möglichen Daten geht auch die Kontrolle über die Bürger selbst einher. Von daher ist die Frage zu stellen, wem die Datenverantwortung obliegen darf und ob und inwiefern Kontrollmechanismen etabliert werden können, um den Missbrauch der Daten zu verhindern. In breiten Kreisen der Bevölkerung herrschen inzwischen erhebliche Skepsis, ein steigendes Unwohlsein und sich verstärkende Kontrollängste vor der zunehmenden Macht der großen amerikanischen Datengiganten, wie insbesondere Amazon, Apple, Facebook und Google. Beispielsweise gewinnt Amazon durch zahlreiche Schnittstellen zwischen Alexa und Hausgeräten, Smartwatches sowie Überwachungssystemen aller Art Informationen über persönliche Aktivitäten, Gewohnheiten und intime Bedürfnisse, die zusammenlaufen und ausgewertet werden können. Mit vielen weiteren Smart Services erhält Amazon schon heute Zugang zu verschiedensten Informationen: Durch Amazon Video oder Amazon Music kennt das Unternehmen den Musik- und Filmgeschmack seiner Nutzer, durch Amazon Marketplace das Einkaufsverhalten, durch Amazon Pay das Zahlungsverhalten und die Bonität und dank Amazon Fresh und Amazon Go sind die Essgewohnheiten des Nutzers bekannt. Daneben liefern Amazon Dash, Amazon Smile, Amazon Publishing, der Amazon App Store und viele weitere Amazon-Services wertvolle Informationen über die Interessen, das Konsumverhalten und die Bedürfnisse der Nutzer, die durch Kombination ein umfassendes Persönlichkeitsprofil des Bürgers ergeben. Dadurch kann Amazon jedem Nutzer die individuell passenden Produkte empfehlen und mit dem eigenen Kurierdienst (Amazon Logistik) in die Amazon Packstation oder dank Amazon Key direkt in dessen Wohnung bringen. Heute wählt der Kunde diese Produkte und den Anbieter noch selbst aus und startet nach eigenem Wunsch den Bestellvorgang. Weitergedacht entstehen durch die Datenmonopolisierung und die Perfektionierung von individuellen Offerten auch Monopole von Anbietern. Und wenn der Anbieter mithilfe künstlicher Intelligenz womöglich noch vor dem Nutzer selbst weiß, welche Produkte dieser braucht und wie die Dienstleistungen für ihn ausgestaltet sein müssen, wird letzten Endes auch die Mündigkeit des Konsumenten immer weiter eingeschränkt. Schon heute steuert auch Google Maps das Verhalten seiner Nutzer – nicht nur durch die vorgeschlagene Reiseroute und das Angebot besonders gut passender Verkehrsmittel, sondern auch z. B. durch individuelle Vorschläge eines nah gelegenen Restaurants oder sonstige Dienstleistungen. Der Streamingdienst Netflix wertet genau aus, welche Filme sich die Nutzer zu welcher Tageszeit anschauen, welche Genres sie präferieren, an welchen Stellen abgeschaltet wird, bis hin zur konkreten Aufmerksamkeit, die der Zuschauer einzelnen Szenen schenkt. Basierend auf diesen Erkenntnissen produziert Netflix mit großem Erfolg eigene Filme und Serien, die den Kunden individuell empfohlen werden.

Im Ergebnis entscheidet der Nutzer kaum noch selbst, welche Filme er sieht. Ähnlich zu Amazon verfügt auch das chinesische Pendant Alibaba über verschiedene Smart Services, wie einen Online-Markplatz und ein eigenes Bezahlsystem (Alipay). Alibaba kombiniert dabei die Daten, die innerhalb der verschiedenen Services gewonnen werden, und generiert daraus einen Scoring- Wert. In diesem Scoring-Wert werden das Konsum- und Zahlungsverhalten des Nutzers bewertet. Parallel lassen sich Punkte sammeln, die z. B. zum Entfall der Kaution bei Anmietung eines Fahrzeugs oder einer Wohnung genutzt werden können. Darüber hinaus könn(t)en zahlreiche weitere Daten in den Scoring- Wert integriert werden: der Bildungsgrad, der Beruf, das Konsum- und Zahlungsverhalten von Familienmitgliedern, Freizeitbeschäftigungen oder die politische Gesinnung. Neben einem System von Belohnungen durch Entfall von Kautionen oder z. B. vergünstigten Kreditkonditionen ist ebenso ein Bestrafungssystem denkbar. Beispielsweise könnten Kunden von bestimmten Produkten oder Smart Services ausgeschlossen werden, wenn sie für das Unternehmen einen bestimmten Mindestumsatz nicht überschreiten oder Kerndienste nicht in Anspruch nehmen. Mit der Macht der Anbieter entsteht die Gefahr, dass die Nutzer manipuliert und selbstbestimmtes Verhalten beschnitten werden. Diese Gefahr steigt mit der immer größeren Bereitschaft breiter Bevölkerungskreise, trotz aller Datenschutzskepsis persönliche Daten freizugeben, um günstigere Angebote oder mehr Komfort zu erhalten, und mit der Tendenz zu oligopolistischen Datenpools oder sogar eines Datenmonopols. Schon heute verfügen nur wenige Unternehmen nahezu monopolartig über äußerst große Datensätze. Diese Konzentration der Daten bei wenigen Unternehmen resultiert in einer gewaltigen Macht, die zu einer Verletzung der Persönlichkeitsrechte der Bürger, einem Verlust von Freiheit, Demokratie und sozialen Bindungen führen könnte.

Nicht nur Wirtschaftsunternehmen, sondern auch Behörden und staatliche Einrichtungen können die Daten und Informationen über ihre Bürger missbrauchen. Die Sozialkreditberichte, wie sie aktuell in China bereits getestet werden, sind ein Beispiel dafür. Hier ist es der Staat, der Daten sammelt, wer sich wohin bewegt hat, mit welchem Verkehrsmittel, wer dabei zu schnell gefahren ist oder bei Rot die Straße überquert hat. Übersetzt wird das ebenfalls in einen Punktestand (‚Social Scoring‘), der bei der Vergabe von Jobs herangezogen wird, die Festlegung von Kreditkonditionen bestimmen und auf Dating-Plattformen angegeben werden kann. Zudem kommen Konzepte in Betracht, die Bürger bei unerwünschtem Verhalten zu bestrafen, indem ihnen z. B. der Kauf von Luxusgütern oder Auslandsaufenthalte verboten werden. Aber wie erfolgt die Bewertung der Daten und damit die Übersetzung in ein Punktesystem? Während dies bei Verkehrsverstößen noch relativ objektiv möglich ist, wird es schwierig, wenn auch andere Datenquellen herangezogen und ausgewertet werden – z. B. wer wie lange das Licht anhat, wer sich mit wem getroffen, welche Filme geschaut, welche Produkte gekauft, an welchen Veranstaltungen teilgenommen oder welche Partei gewählt hat. Auch daran könnten wieder Belohnungs- aber auch Bestrafungssysteme geknüpft werden. So könnten z. B. das Anmieten einer Wohnung, der Zugang zu Verkehrsmitteln, bestimmte Sozialleistungen usw. eingeschränkt oder gänzlich unterbunden werden. Die informationelle Überwachung und digitale Bevormundung können im Zuge von Big Data und Data Analytics zu einer starken Einflussnahme auf die Gesellschaft und zu einer Verschiebung ihrer Strukturen führen. Es drohen der ‚Gläserne Bürger‘, d. h. der Verlust von Privatsphäre und die Manipulation von Denken und Handeln der Menschen mittels gezielter Anreiz- und Bestrafungsmechanismen. Alles in allem ist die Dystopie ein merklich eingeschränktes Maß an Freiheit. der Menschen, ihr Leben nach den eigenen Vorstellungen und Wünschen zu gestalten.

 

Zur einfacheren Lesbarkeit wurden die Quellenverweise entfernt. 

Fred Wagner, Theresa Jost in: Die Big Data-Debatte; Springer, 2019

https://link.springer.com/chapter/10.1007/978-3-658-27258-6_2

http://creativecommons.org/licenses/by/4.0/deed.de  

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

02/2021

 

Lebenswelt Mobilität Smart Services im Überblick

 

Die Digitalisierung des Automobils sowie die zunehmende Vernetzung von Verkehrsmitteln und der Verkehrsinfrastruktur werden in den nächsten Jahren den größten Wandel im Mobilitätssektor mit sich bringen. Der Kampf um den Kunden verschiebt sich dabei von der Fahrzeugebene auf die Ebene smarter Mobilitätsservices. Künftig steht z. B. nicht mehr das Automobil selbst, sondern verschiedene Mobilitätsangebote und damit verbundene Dienstleistungen im Vordergrund. Zentral sind dabei a) die jederzeitige Verfügbarkeit von Mobilität, die durch On-Demand-Lösungen sichergestellt wird, b) die erhöhte Sicherheit im Straßenverkehr, die durch Kommunikation der einzelnen Fahrzeuge untereinander sowie den (Daten-)Austausch der Fahrzeuge mit ihrer Umwelt ermöglicht werden, und c) der Komfort für den Bürger, der durch verschiedene angebundene Services von seinen (Fahr-)Aufgaben entlastet wird und zahlreiche Mehrwertleistungen angeboten bekommt, wie z. B. Entertainment- Lösungen, die ihm das Fahrerlebnis so angenehm wie möglich machen. Der Kunde erhält individuelle ‚Smart Mobility‘-Dienstleistungen bedarfsgerecht je nach seinen persönlichen Präferenzen. 

1. Connected Car Laut einer PwC-Studie beträgt die jährliche Wachstumsrate vernetzter Fahrzeuge bis zum Jahr 2022 annähernd 25 %. In den nächsten Jahren werden daher nahezu alle neu produzierten Fahrzeuge mit dem Internet verbunden sein. Dadurch können Informationen und Daten mit anderen Verkehrsteilnehmern, Objekten in der Umgebung oder der Cloud ausgetauscht werden. Der Fahrer eines Connected Car wird über Umweltkonditionen, wie bspw. Verkehrsinformationen und Wetterdaten, informiert, erhält Hinweise von verbundenen Ampelsystemen oder Beschilderungen und tauscht Daten zur Position und Geschwindigkeit mit anderen Verkehrsteilnehmern aus. Dadurch können Wege optimiert und das Ziel schneller erreicht werden. Der Datenaustausch und die Kommunikation mit anderen Verkehrsteilnehmern helfen zudem, den Verkehr sicherer zu machen und Unfällen vorzubeugen. In diesem Zusammenhang wird oft von der Car-to-Car- bzw. der Car-to-Infrastructure-Kommunikation gesprochen. Daneben ist die fahrzeuginterne Kommunikation ein weiterer Anwendungsfall im Rahmen des Connected Car. Durch im Fahrzeug verbaute Sensorik können potenzielle Mängel vom Fahrzeug selbst erkannt werden, und in den gegebenen Fällen erhält der Fahrer eine Benachrichtigung, die mit einer Handlungsempfehlung sowie einem Hinweis auf die nächste Werkstatt verknüpft sein kann. Dadurch können schadenvorbeugende Maßnahmen ergriffen und Reparatur- und Serviceleistungen optimiert werden. Zunehmend gehören zu den fahrzeuginternen Daten auch Sensoren, die im Sitz oder im Lenkrad eingebaut sind und die Vitalparameter des Fahrers messen, um Müdigkeit und gesundheitliche Beeinträchtigungen frühzeitig zu erkennen. Durch die Vernetzung mit der Umwelt und die Ausstattung mit einem Internetzugang wird ein Echtzeit-Daten-Austausch mit anderen Verkehrsteilnehmern und Geräten ermöglicht, und dem Fahrer stehen zahlreiche digitale Services zur Verfügung, die er während der Fahrt nutzen kann. Dazu gehören Navigationssysteme, Fahrassistenzsysteme, Entertainmentdienste und viele mehr. Darüber hinaus sind die gewonnenen Daten und Schnittstellen nicht nur zum Zweck der Verkehrssteuerung, sondern auch zur Strafverfolgung und für Versicherungsunternehmen nutzbar. Auch lassen sich gezielt personalisierte Werbung sowie standort- bzw. kontextspezifische Angebote einspielen. Bspw. können in der Umgebung befindliche Sonderaktionen, Events oder Spritpreise im Fahrzeugdisplay angezeigt werden. Neben Bewegungsdaten entstehen im Zusammenhang mit dem Connected Car viele weitere Daten, die durch GPS, Kameras und Sensoren erfasst und verarbeitet werden und durch Nutzungs- und Verhaltensdaten des Fahrers angereichert werden können. Damit gibt der Fahrzeugnutzer einen umfangreichen Einblick in sein Fahrverhalten, seine Nutzungsgewohnheiten bis hin zu Konsumpräferenzen. Neben Fahrzeugdaten können Daten zum Fahrverhalten und -stil, zum Musikgeschmack, Kommunikationsdaten sowie Bewegungsprofile ausgelesen und verarbeitet werden. Das Connected Car stellt die Voraussetzung für weitere Smart Services, wie bspw. das Car- oder Ridesharing und das autonome Fahren, dar.

2. Carsharing und Ridesharing Carsharing meint die gemeinschaftliche Nutzung von Fahrzeugen und deren spontane und kurzfristige Anmietung auf Grundlage einer Rahmenvereinbarung. Damit wird Carsharing dem Trend der Sharing Economy und der On-Demand-Lösungen gerecht, indem je nach Bedarf spontan und ortsunabhängig Mobilität bereitgestellt wird. Zur Nutzung von Carsharing stellt der Kunde seine Anmeldedaten und seinen Standort über eine App zur Verfügung. In der Folge kann er nahegelegene Fahrzeuge der Carsharing-Flotte ausfindig machen und per App reservieren. Die Fahrpreisabrechnung erfolgt nach in Anspruch genommener Leistung, meist minutengenau. Unterhaltskosten und andere Fixkosten sind in die Nutzungsgebühren eingepreist; dadurch zahlt der Fahrer nur, solange er den Service in Anspruch nimmt, und er muss keine gesonderten Sprit- oder Parkkosten aufwenden. Neben der Bereitstellung und Kurzzeit-Vermietung können dem Kunden ergänzende Dienstleistungen vor, während und nach der Fahrt angeboten werden. Beispielsweise kann der Kunde während des Supermarkteinkaufs kostenlos parken und dabei Rabatte im Lebensmittelmarkt erhalten. Im Rahmen des Carsharings werden personenbezogene Daten einschließlich der individuellen Bewegungsdaten über GPS, also u. a. Fahrstrecken, Fahrzeiten, Geschwindigkeiten, das Beschleunigungs- und Bremsverhalten, gesammelt, ferner Daten über das benutzte Fahrzeug. Neben Automobilen können im Rahmen des Bikesharings auch Fahrräder zur Kurzzeitmiete angeboten und damit gemeinschaftlich genutzt werden. Ein anderer, dem Carsharing verwandter Smart Service ist das Ridesharing, bei dem ebenfalls die gemeinsame Nutzung eines Fahrzeugs im Mittelpunkt steht. Im Unterschied zum Carsharing erfolgt die Nutzung des Fahrzeugs jedoch zeitgleich durch verschiedene Personen (Fahrgemeinschaft). Die Organisation des Ridesharings erfolgt über eine Plattform, auf der anderen Nutzern das eigene Auto zur Mitfahrt angeboten oder selbst nach Mitfahrgelegenheiten gesucht werden kann. Außer im Rahmen von geplanten Fahrten (Bsp. Blablacar) ist auch das spontane Teilen von Fahrdienstleistern möglich (Bsp. Uber). Insbesondere beim spontanen Ridesharing sind Bewegungs- und Standortdaten Grundvoraussetzung für die Bereitstellung des Smart Services. 

3. Autonomes Fahren Die Fahrzeugtechnik befindet sich aktuell in der Entwicklungsstufe der Teilautomatisierung: Das teilautonome Fahrzeug kann vorausfahrenden Automobilen auf geraden Strecken folgen, dabei die Spur und den Abstand halten und bei Ver kehrsstau Fahraufgaben auch vollständig übernehmen. In Zukunft ist der vollständig autonome Verkehr möglich, bei dem das Automobil in jeder Situation alle Fahrfunktionen übernimmt und die Fahrt zum automatisierten Shuttle Service wird. Die Fahrtzeit kann dann für andere Zwecke genutzt werden und das Fahrzeug verwandelt sich in einen Ort für neue Dienstleistungen. Somit wird das Automobil nicht länger ein reines Fortbewegungsmittel sein, sondern es entwickelt sich zum mobilen Arbeitsplatz, Restaurant oder Hotelzimmer. Der Friseur kann seinen Kunden vor der Haustür abholen und ihn während des Haarschnitts zum nächsten Termin bringen. Das autonome Fahren erzeugt damit einen hohen Komfort und Zeitersparnisse. Ein autonomer Transportservice kann zudem im ländlichen Raum lebende Personen oder ältere Menschen mobiler machen. Ermöglicht wird das autonome Fahren durch eine Echtzeit-Datenanalyse, die mittels Sensoren und Aktoren erfasste Daten wie Lichtzeichen, Verkehrsschilder und andere Verkehrsteilnehmer verarbeitet und intelligent verknüpft. 

4. Verkehrsüberwachung Insbesondere in der VR China ist die digitale Verkehrsüberwachung mittels Datenaufzeichnung auf dem Vormarsch. Vernetzte Kameras und Messsysteme erfassen zahlreiche Daten im öffentlichen Raum, die sich mittels Bilderkennung und künstlicher Intelligenz automatisiert auswerten lassen und eine Reihe neuer Geschäftsmodelle hervorbringen. So lassen sich bspw. Verkehrsflüsse mittels der gesammelten und analysierten Daten steuern: Vernetzte und mit Sensoren versehene Ampelanlagen erfassen Bild- und Audiodaten und optimieren mit einer smarten Signalsteuerung den Verkehrsfluss, um Staus und Unfälle zu vermeiden. Dies zeigt schon heute ein Feldversuch in der Metropole Peking: Auf der Strecke zwischen Flughafen und Innenstadt wurden alle Daten aus Verkehrsleitsystemen, Kameras und Fahrzeugen mittels künstlicher Intelligenz ausgewertet. Dadurch ließ sich das Verkehrsaufkommen in den darauffolgenden 45 min vorhersagen. Anschließend konnte der Verkehr so gesteuert werden, dass es auf dieser Verbindung keinen Stau mehr gab. Automatisierte Verkehrsüberwachungssysteme sind damit in der Lage, das Verkehrschaos in der Stadt zu lösen. Die in der Verkehrsüberwachung aufgezeichneten Daten sind Fahrzeugdaten, Bewegungsdaten, Audio- und Bilddaten sowie personenbezogene Daten. Zudem dient die Verkehrsüberwachung dazu, regelwidriges Verhalten zu erkennen und automatisiert Schritte einzuleiten. Fahrzeuge und Personen, die sich verkehrswidrig verhalten, werden über das Nummernschild oder mittels Gesichtserkennung identifiziert, computergesteuert werden alle weiteren relevanten Daten zusammengetragen, und eine Ahndung des Regelverstoßes kann ohne menschliche Interaktion erfolgen. Dabei werden neben fest installierten Kamerasystemen mittlerweile auch Drohnen eingesetzt, die die mobile Verkehrsüberwachung noch flächendeckender ermöglichen. 

5. Connected Mobility Die bisher betrachteten Smart Services beruhen vorrangig auf dem Automobil als Mobilitätsträger. Daneben bestehen viele weitere Verkehrsmittel, deren Verknüpfungen weitere Smart Services hervorbringen. Anbieter wie bspw. moovel bündeln das Angebot verschiedener Mobilitätsdienstleister und Verkehrsformen auf einer Plattform und ermöglichen ihren Nutzern damit Informationen über den Zugang zum individuell besten Angebot. Verknüpft werden im Rahmen solcher Connected-Mobility-Services typischerweise Car- und Ridesharing, öffentliche Verkehrsmittel, wie Busse und Züge, sowie Fahrdienstvermittlungen (Taxi). Der Nutzer gibt hierfür seinen aktuellen Standort oder einen anderen beliebigen Startpunkt sowie seinen Zielort ein und erhält Informationen über die verschiedenen Reisemöglichkeiten. Neben der Verbindung mit öffentlichen Verkehrsmitteln werden auch Leihfahrräder in der Nähe angezeigt, und zusätzlich hat der Nutzer die Möglichkeit, über die Plattform ein Taxi zu bestellen. Der Kunde spart dadurch Zeit und kann bequem in nur einer App Reisemöglichkeiten vergleichen und, je nach Anbieter und bestehender Kooperation, die für ihn beste Option direkt über die Plattform buchen. Voraussetzung für das Angebot einer solchen Plattform ist ein umfassender Datenaustausch zwischen den einzelnen angebundenen Mobilitätsdienstleistern. Zugangs- und Kundeninformationsdaten werden nur einmal eingegeben (bzw. aus dem Google- oder Facebook-Konto abgerufen) und stehen für alle weiteren Dienste zur Verfügung.  

Ausgewählte Geschäftsmodelle innerhalb der Smart Services ReachNow

1. Beschreibung des Geschäftsmodells Die Mobilitätsplattform ReachNow wurde 2016 von BMW ins Leben gerufen. Anfangs war ReachNow ausschließlich in Seattle verfügbar, das Angebot wurde dann aber auf andere Bundesstaaten ausgedehnt und ist seit 2017 auch in Chengdu, China, und damit außerhalb der USA nutzbar. ReachNow kombiniert auf seiner per Smartphone erreichbaren Mobilitätsplattform verschiedene Mobilitätsangebote miteinander und stellt seinen Kunden damit eine flexible Lösung zur Verfügung, die von überall in Anspruch genommen werden kann. Der Kunde kann dabei zwischen unterschiedlichen Fortbewegungsmöglichkeiten entscheiden und die für ihn beste Option per Knopfdruck auswählen und buchen. Zwar sind darin auch Kooperationen mit dem öffentlichen Nahverkehr enthalten, im Vordergrund steht jedoch – sicher auch mit Blick auf den Mutterkonzern – nach wie vor das Automobil. ReachNow bietet drei unterschiedliche Services: Erstens enthält das Angebot die klassische Vermietung von Fahrzeugen. Dabei kann der Kunde per interaktiver App sehen, welche Fahrzeuge wo in der Nähe bereitstehen, das Wunschfahrzeug reservieren und für die geplante Fahrt freischalten. Alle Daten zum Standort, zur Verfügbarkeit sowie verschiedene weitere technische Informationen zum Fahrzeug werden zentral auf der Plattform gespeichert und können jederzeit von den Nutzern eingesehen werden. Das Angebot unterscheidet sich damit kaum von anderen Carsharing-Angeboten wie bspw. DriveNow oder Car2Go. Neben dem klassischen Carsharing bietet ReachNow aber zweitens mit dem Chauffeurdienst und drittens mit dem Reservierungs- und Zustellservice weitere Leistungen: Der Chauffeurdienst als Premiumfunktion der App ist ähnlich dem Angebot von Uber oder DiDi, d. h. auch hier werden dem Nutzer verfügbare Fahrzeuge inklusive Fahrer angezeigt, die per App ausgewählt werden können und den Nutzer auf Wunsch innerhalb weniger Minuten von seinem Standort abholen. Beide Parteien, also ReachNow-Kunde und der Fahrer, sind dabei miteinander verbunden: Kontakt- und Standortdaten werden geteilt, sodass der Standort des jeweils anderen jederzeit verfügbar ist. Der Kunde erhält in Echtzeit Informationen über die voraussichtliche Ankunftszeit des Fahrers. Das dritte Angebot, der Reservierungs- und Zustellservice, ist die On-Demand-Lösung der Plattform und erinnert eher an eine Bestellung bei Amazon als an die heute in Deutschland verfügbare Autovermietung: Auf Wunsch wird dem Kunden ein Fahrzeug nach Hause oder zu einem beliebigen anderen Ort gebracht. So kann der Nutzer bspw. angeben, am nächsten Tag zu einer bestimmten Uhrzeit ein bestimmtes Fahrzeug für seinen Weg ins Wochenende zu wünschen, das dann pünktlich vor seiner Haustür bereitsteht. Wird das Fahrzeug nicht weiter benötigt, kann es im ReachNow-Gebiet geparkt und damit auf sehr einfache Weise zurückgegeben werden. Die App informiert den Kunden auch über geeignete Parkflächen. Mittelfristig sollen BMW- und Mini-Eigentümer zudem in der Lage sein, ihren Privatwagen über ReachNow zu vermieten. 

Bei ReachNow kann der Kunde aus über 1000 Fahrzeugen von BMW und Mini auswählen. Von Automobilen mit klassischen Verbrennungsmotoren über Hybride bis hin zu Elektrofahrzeugen steht je nach Präferenz ein passendes Fahrzeug zur Verfügung. Dadurch erhält der Kunde Zugang zu aktuellen Fahrzeugmodellen verschiedener Klassen und Antriebsformen. Um dem Kunden weiteren Komfort zu bieten, haben die Fahrer die Möglichkeit, ihr Smartphone mit dem Entertainment-System des Automobils zu verbinden und so die eigene Musik abzuspielen sowie Messengerdienste und (Video-)Telefonie während der Fahrt in Anspruch zu nehmen. Der Nutzer kann somit die Fahrtzeit im fremden Mietwagen individuell gestalten, was ein hohes Maß an Convenience bedeutet. Dem Anbieter eröffnen sich erneut Anknüpfungspunkte zur Datensammlung sowie zur Anbindung weiterer Services. Gesamtgesellschaftlich betrachtet wird jedes Fahrzeug, das unter einem Geschäftsmodell wie ReachNow betrieben wird, dank der geteilten Nutzung effizienter ausgelastet. In letzter Konsequenz sinken mit den komfortablen Nutzungsmöglichkeiten per App auch die Motivation und Notwendigkeit, überhaupt ein eigenes Fahrzeug zu besitzen, das die meiste Zeit ohnehin nur geparkt am Straßenrand oder in der Garage steht. Auf längere Sicht entstehen damit insbesondere in den Städten, in denen der Raum ohnehin begrenzt ist, viele wieder alternativ nutzbare Flächen, die bislang von massenhaft parkenden Fahrzeugen in Anspruch genommen werden. 

2. Geschäftsmodellanalyse nach dem Business Model Canvas Das Wertangebot von ReachNow liegt in der flexiblen und komfortablen Bereitstellung von Mobilität, die von den Kunden einfach und transparent genutzt werden kann. Ziel des Angebots ist es, individuelle Mobilität je nach Standort, Zielort, Zeitplanung, sonstigen Präferenzen und Budget zu ermöglichen. Neben kurzfristigen On-Demand-Lösungen bietet ReachNow auch Langzeitmieten an, die u. a. auch für Nutzer-Communities zur Verfügung stehen. So können bspw. Firmen oder Wohngemeinschaften ein Fahrzeug mieten und die Nutzung des Fahrzeugs untereinander aufteilen. Abgesehen von der Gruppen-Vermietung an Unternehmen (B2B2C) richtet sich das Angebot von ReachNow an das Kundensegment der Endverbraucher (B2C). Zwar wird dabei keine spezielle Kundengruppe fokussiert, die Nutzer werden jedoch häufig in urbanen Gegenden zu finden sein und typischerweise kein eigenes Auto besitzen. Der vorrangig genutzte Kanal ist die ReachNow-App. Zwar gibt es auch eine Webseite sowie Aktivitäten auf verschiedenen sozialen Median, die als Kommunikationskanäle dienen; die eigentliche Nutzung und damit der Distributionskanal des Wertangebots beschränkt sich allerdings auf die ReachNow-App. Die Kundenbeziehung ist durch einen hohen Grad an Automatisierung und Individualisierung gekennzeichnet. Es gibt kaum einen persönlichen Kontakt, vielmehr enthält die ReachNow-App eine Reihe unterschiedlicher Self-Service-Optionen, über die der Kunde seine individuelle Dienstleistung buchen kann. Aktuell hat ReachNow über 100.000 Kunden, die mit dem Reach- Now-Service bislang mehr als 1,2 Mio. km gefahren sind. Die Einnahmequellen von ReachNow setzen sich aus einmaligen Mitgliedsgebühren (15 US$) und Nutzungsgebühren für die verschiedenen Dienstleistungen zusammen. Die Fahrzeugnutzung wird dem Kunden dabei pro Minute oder bei Langzeitmieten als Tagessatz in Rechnung gestellt. Die Schlüsselaktivitäten zur Umsetzung des Geschäftsmodells bestehen im Betrieb der Plattform, der Bereitstellung und Verwaltung/Pflege der Fahrzeuge sowie der Koordination der angebundenen Partner. Neben der Bereitstellung verschiedener Mobilitätslösungen können auch die in der App erfassten Daten über das Nutzungsverhalten und die Fahrgewohnheiten genutzt werden, um dem Kunden weitere individualisierte Angebote zu stellen. Dies kann durch ReachNow selbst oder die angebundenen Schlüsselpartner erfolgen: Über verschiedene Kooperationen mit lokalen Regierungen, anderen Mobilitätsanbietern, Parkplatzbetreibern u. a. werden weitere Dienstleistungen angeschlossen, Rabatte gewährt und die Kundenbindung gefördert. Zudem investiert BMW in die städtische Infrastruktur, bspw. durch die Installation von Ladesäulen. Dadurch können wiederum neue Daten zu Ladezeiten und Tarifen gesammelt werden. Es zeigt sich, dass neben den Fahrzeugen die bereitgestellten und gewonnenen Kundendaten eine Schlüsselressource des Geschäftsmodells von ReachNow darstellen. Essenziell sind vor allem die Standort-Daten, die mittels GPS von jedem Fahrzeug sowie allen Nutzern jederzeit bereitstehen und abgerufen werden können. Dadurch ist es möglich, den Nutzern Fahrzeuge in der Nähe anzuzeigen und in Echtzeit nachzuverfolgen, wo sich der Nutzer und das Automobil gerade aufhalten. Neben den Standort- und Bewegungsdaten spielen die Nutzungs- und Verfügbarkeitsdaten eine wichtige Rolle. Jede Fahrzeugnutzung wird aufgezeichnet und alle Informationen über den Zustand des Wagens oder bspw. den Ladestatus von Elektrofahrzeugen sind jederzeit präsent. Auch dadurch kann die Ressource ‚Fahrzeuge‘ optimiert werden. Angereichert werden die Nutzungs- und Fahrverhaltensdaten der Kunden durch Daten, die im Rahmen der verschiedenen Kooperationen von ReachNow entstehen. ReachNow erhält damit u. a. Informationen, wohin der Nutzer mit dem Auto fährt, wie schnell oder vorsichtig dies geschieht, wie oft er dabei telefoniert und welche Entertainment-Angebote genutzt werden. Dies ermöglicht es ReachNow wiederum, den Kunden passgenaue Produkte oder Dienstleistungen anzubieten – womit die Rückkopplung zu den Wertangeboten vollzogen wird.

Tesla Software Version 9 Beschreibung des Geschäftsmodells Die Tesla Software Version 9 ist ein Fahrassistenz-System, das bei Model S, Model X und Model 3 der Automobile von Tesla eingesetzt wird und diese Fahrzeugmodelle zunehmend autonom steuert. Mit jedem weiteren Softwareupdate erhält das System neue Funktionen, die weitere Aufgaben des Fahrers übernehmen und damit dem Ziel des autonomen Fahrens näherkommen. Zwar trägt der Fahrer noch die Verantwortung und muss die Kontrolle über das Fahrzeug und die Verkehrslage behalten, viele Schritte werden aber bereits selbstständig durch das Fahrzeug durchgeführt. Dazu gehören eine hindernisabhängige Fahrzeuggeschwindigkeit sowie die Kombination aus Lenkassistent und Spurwechselassistent, die den selbstständigen Spurwechsel des Fahrzeugs ermöglicht. Soll die Spur gewechselt werden, reicht ein einfaches Antippen des Blinkers. Mithilfe der am Fahrzeug angebrachten 360-Grad-Kameras beobachtet das Fahrzeug den Verkehr der benachbarten Spuren und wechselt im geeigneten Zeitpunkt auf die angrenzende Fahrbahn. Neben dem Spurwechsel ist damit auch die eigenständige Nutzung von Autobahnausfahrten möglich, wobei das Navigationssystem mittels der bereitgestellten Daten die optimale Route und die passende Ausfahrt selbst auswählt – die mit dem Lenk- und Spurwechselassistenten selbstständig befahren werden kann. Auch Anschlussstellen kann der Autopilot selbstständig ansteuern. Unterstützend wirkt dabei die ebenfalls neu verfügbare Totwinkelwarnung, mit der nun auch die Seite und das Heck des Autos kontrolliert werden und die vor Hindernissen im toten Winkel der Spur warnt, auf die eingeschert werden soll. Radfahrer oder andere Verkehrsteilnehmer werden vollautomatisch registriert und die Geschwindigkeit wird der Gefahrensituationen zur Unfallvermeidung angepasst. Die Anpassung der Fahrtgeschwindigkeit an den Verkehr erfolgt selbstständig durch das Automobil, ohne dass ein manueller Eingriff erforderlich ist. Über acht außen am Fahrzeug befindliche Kameras zeichnet Tesla Videodaten über die Fahrzeugumgebung auf, die in Echtzeit im Bordcomputer verarbeitet werden. Dabei werden Informationen mit einer Reichweite von bis zu 250 m einbezogen. Die 360-Grad-Visualisierung des Fahrzeugs gewährleistet eine ganzheitliche Überwachung des Verkehrs und unterstützt die Reaktion auf die wahrgenommene Umgebung. Dafür werden durch die Software Version 9 neben Video- auch Ultraschall- und Radarsignaldaten analysiert, sodass auch durch dichten Nebel oder vorausfahrende Fahrzeuge hindurch Daten gesammelt werden können. Die Videodaten können aufgezeichnet und gespeichert werden.

Dadurch soll bspw. bei einem Unfall die Ursache leichter aufgedeckt werden können. Ergänzend werden weitere Funktionen, wie die Parkplatzsuche und das Einparken, autonom vom Fahrzeug durchgeführt. Allein die rechtliche Situation erfordert (noch) das Vorhandensein eines menschlichen Insassen mit Führerschein.  2. Geschäftsmodellanalyse nach dem Business Model Canvas Bei der Geschäftsmodellanalyse nach dem Business Model Canvas muss zwischen dem Geschäftsmodell Tesla und der Softwareversion 9 unterschieden werden. Einige der Kernelemente des Business Model Canvas können für die Version 9 nicht angewandt werden; insoweit erstreckt sich dann die Analyse auf das Geschäftsmodell von Tesla im Allgemeinen.

Das Wertangebot der Tesla Version 9 liegt vornehmlich in der Unterstützung des Fahrers bei seinen Fahraufgaben. Durch teilautonomes Fahren wird der Fahrer entlastet, und er soll künftig in der Lage sein, sich während der Fahrt auf andere Interessen als das Steuern seines Fahrzeugs zu konzentrieren. Zudem sollen Unfälle vermieden und zu einer höheren Verkehrssicherheit beigetragen werden. Soweit dennoch Unfälle eintreten, sollen die Erfassungs- und Beweismöglichkeiten für die Verursachung verbessert werden. Daneben ist der Prestige-Gewinn eines autonom gesteuerten Oberklassefahrzeugs für viele Kunden ein weiteres Kaufargument. Das angesprochene Kundensegment von Tesla-Fahrzeugen sind vorrangig Endkunden (B2B), ebenso sind aber auch B2B2C-Lösungen, bspw. über Leasing, möglich. Im B2B-Markt stellt das Fahrzeug besonders für innovative oder ökologisch orientierte Unternehmen eine Alternative zu herkömmlichen Oberklassedienstwagen dar. Als konkrete B2C-Zielgruppe stehen Nutzer höherer Einkommensklassen im Vordergrund, die technologischen Neuerungen gegenüber aufgeschlossen sind. Die Kundenbeziehung und -bindung werden über das Fahrzeug selbst gepflegt, indem regelmäßige Updates erscheinen und dadurch der Kontakt zu Tesla fortdauernd aufrechterhalten wird. Neben dem Fahrzeug selbst sind für Tesla die Flagship-Stores in ausgewählten Städten ein wichtiger Kanal, über den mit dem Kunden interagiert und Fahrzeuge abgesetzt werden. Des Weiteren werden unterschiedliche Foren und Communitys als Kommunikationskanäle genutzt, über die Tesla Kunden gewinnen und binden möchte. Primäre Einnahmequelle ist der Verkauf von Fahrzeugen. Daneben werden auch durch die Nachrüstung bspw. mit Kamerapaketen sowie über Reparaturen und Wartungsarbeiten Einnahmen generiert. Eine zusätzliche, wenn auch nur kleine Einnahmequelle sind Subventionen der Forschungs- und Entwicklungsarbeit im Bereich autonomer Fortbewegung, die Tesla von unterschiedlichen Institutionen oder Förderprogrammen erhält. Daneben ermöglichen wiederum Kundendaten das Anbinden zusätzlicher Services, die eine zusätzliche Einnahmequelle darstellen können. Die Schlüsselaktivitäten, die zur Umsetzung des Geschäftsmodells notwendig sind, sind die Forschung und Entwicklung sowie die Produktion von Fahrzeugen. Die Software, die die autonome Fortbewegung steuert, bindet keine Kooperationen ein, weshalb es insofern keine Schlüsselpartner gibt. Als Grund hierfür nennt Tesla die Gefahr eines Verlusts von Know-how und erhöhter Fehleranfälligkeit bei verteilten Kompetenzen. Kooperationen und Partnerschaften gibt es nur bei Tesla-Komponenten, die keine autonomen Fahrfunktionen steuern (bspw. Partnerschaften im Bereich der Ladestationen und der Batterieentwicklung). Damit umfangreichere Daten generiert werden können, fallen Kosten für die Softwareentwicklung an, und die Fahrzeuge müssen entsprechend aufgerüstet und mit Kamerasystemen und Sensoren ausgestattet sein. Außerdem verursachen die Pflege der IT-Systemlandschaft und die Rechenzentren, die von Tesla eingesetzt werden, hohe Kosten. Zu den Schlüsselressourcen von Tesla zählen zunächst Rohstoffe und Personal zur Entwicklung und Produktion von Fahrzeugen. Die Schlüsselressource des Systems, das das autonome Fahren ermöglicht, ist die Tesla-Software, die wiederum nur mit den Fahrzeug- und Umgebungsdaten funktioniert – die also letztlich maßgebliche Schlüsselressourcen für das Wertangebot von Tesla darstellen.

Spannungsfeld Datennutzung und Datenschutz

Datengetriebene Services in der Lebenswelt Mobilität bieten nicht nur eine höhere Sicherheit im Straßenverkehr, sie ermöglichen auch eine neue Form der Flexibilität und Bequemlichkeit, bei der zahlreiche unterschiedliche Mobilitätsformen jederzeit und für jeden bereitstehen. Darüber hinaus enthalten Smart Services in der Lebenswelt Mobilität zahlreiche Komponenten, die den Komfort der Bürger erhöhen, wenn sie sich im öffentlichen Raum bewegen. Beispielsweise können bequem verschiedene Transportmittel für eine Reise nach den Präferenzen der Nutzer aufeinander abgestimmt und miteinander verknüpft werden, bei Autofahrten wird die Parkplatzsuche erleichtert oder obsolet, und die Bezahlung erfolgt einfach per App. Ermöglicht wird dies durch das Erkennen und Auswerten der Bedürfnisse und typischen Verhaltensweisen verschiedener Straßenverkehrsteilnehmer, die Bereitstellung verschiedener Mobilitätsformen, ergänzender Services sowie Bezahlsysteme. Im Hinblick auf die Datenerhebung ergibt sich in der Lebenswelt Mobilität eine Besonderheit: Zum einen geht es um die eigenen Daten, die bspw. ermöglichen, dass jederzeit und von überall auf verschiedene Dienste zugegriffen werden kann (Bsp. Apple CarPlay) oder auf Basis persönlicher (Standort-) Daten nutzerorientierte Empfehlungen abgegeben werden (Bsp. Google Maps). Daneben ist im Bereich der Mobilität auch die Interaktion mit anderen Personen und Objekten erforderlich (z. B. bei Navigationsservices und beim autonomen Fahren), d. h. es müssen auch Daten Dritter verfügbar sein und verarbeitet werden, um smarte Services zum Nutzen aller zu generieren. Dies sei noch etwas näher erläutert: Moderne Fahrzeugmodelle sammeln mit einer großen Menge eingebauter Sensoren schon heute Daten über die gefahrene Geschwindigkeit, das Beschleunigungs-/ Brems- und Kurvenverhalten, die gefahrenen Gänge und Drehzahlen, die Abstimmung des Fahrgestells (z. B. Öko, Komfort, Sport), womöglich auch den eingestellten Radiosender und natürlich die Ausgangs- und Zielorte sowie Routen. Dadurch können relevante Informationen zum Fahrzeug und dessen Nutzung ausgewertet werden. Zugleich werden Verhaltensdaten der Fahrer erfasst, die dazu geeignet sind, Bewegungsprofile zu erstellen, das Fahrverhalten zu analysieren, um auf dieser Grundlage Smart Services anzubieten.  So ermöglichen Standort- und Bewegungsdaten überhaupt erst die Lokalisierung einer Person und/oder ihres Fahrzeugs. Dadurch können geeignete Angebote in der Nähe ausfindig gemacht werden (bspw. Tankstellen, Parkplätze, Restaurants, Sehenswürdigkeiten) und in Kombination mit den Standort- und Bewegungsdaten anderer Personen und Fahrzeuge eine Einordnung in das Umfeld sowie ein Gesamtbild der Verkehrssituation erzeugt werden. Solcherart Daten werden bspw. von Navigationsgeräten genutzt, um das Verkehrsaufkommen zu analysieren und zu prognostizieren sowie optimale Verkehrsrouten zu bestimmen – und damit zu einer effizienten Verkehrssteuerung (weniger Staus, weniger Unfälle) beizutragen. Zudem ermöglicht der gesamthafte Verkehrsüberblick, akute Gefahrensituationen zu erkennen (z. B. ein brennendes Fahrzeug hinter einer Kurve auf der Landstraße), um daraus Handlungsempfehlungen abzuleiten und die Sicherheit im Straßenverkehr zu erhöhen. Wie in anderen Lebenswelten auch, ist allerdings der Datenschutz ein restringierender Faktor, der im Mobilitätssektor verschiedene Aufgaben erfüllen soll. Dazu gehören der Schutz der informationellen Selbstbestimmung sowie der Privatsphäre. Soweit eine Zuordnung von Daten zum polizeilichen Kennzeichen oder der Fahrgestellnummer – bzw. letztlich zum Fahrer oder Halter selbst – erfolgt oder ermöglicht wird, handelt es sich um personenbezogene Mobilitätsdaten, die der Anwendung der EU-DSGVO unterliegen. Hinzu kommt, dass die Datenaufzeichnung nicht – wie in der Lebenswelt Wohnen vorrangig der Fall – freiwillig und im privaten, geschlossenen Umfeld erfolgt, sondern im öffentlichen Raum stattfindet und dadurch der individuelle Bürger wenig bis keine Chancen hat, sich dieser zu entziehen. Dadurch besteht die Gefahr einer Verwendung, die nicht nur Smart Services unterstützt oder vor Verkehrsdelikten und Verkehrsunfällen schützt, sondern auch eine umfassende Überwachung der Bürger ermöglicht. Sowohl Regelungen der Datenhoheit als auch des Datenschutzes sind daher auch im öffentlichen Interesse. Die vertrauensvolle Preisgabe von Informationen durch die Nutzer und ein adäquater Schutzstandard sind daher essenziell für die Entwicklung und die Nutzung smarter Mobilitätsservices. Damit ist nicht nur der Schutz vor Datenmissbrauch gemeint – wie z. B. dem Missbrauch von Bewegungsprofilen oder einer unter Umständen unfairen Bepreisung von Smart Services in Notlagen. Auch durch Hackerangriffe auf sensible Schnittstellen zwischen der Software des Fahrzeugs und anderen vernetzten Verkehrsteilnehmern und mobilitätsrelevanten Infrastruktureinrichtungen (Ampeln, Bahnübergänge, Zugbrücken, Tunnelschranken) können erhebliche Schäden angerichtet werden. Außerdem kann das Connected Car über ein Botnet11 angegriffen werden. Damit bestehen erhebliche Sicherheitsrisiken, dass Hacker die Kontrolle über die vernetzten Fahrzeuge erlangen oder zumindest die Fahrer die Kontrolle über ihre Automobile verlieren. Insbesondere während der Fahrt hätte dies fatale Auswirkungen auf die Verkehrssicherheit: Unfälle könnten herbeigeführt und der Verkehr könnte vollständig gestört oder lahmgelegt werden. Wer den Zugang und die Kontrolle über die gesammelten Mobilitätsdaten erhält, wird entscheidend an der Gestaltung und dem Angebot künftiger Fortbewegungsmöglichkeiten mitwirken. Neben Automobilherstellern sind es zunehmend auch neue Wettbewerber, wie Tech-Unternehmen oder Softwareentwickler, die über ihre Plattformen und Apps insbesondere im Bereich Connected Car Einblicke in Fahrzeug- und Verhaltensdaten der Nutzer erhalten. Die Frage, wem welche Daten gehören, ist dabei oft noch nicht abschließend beantwortet. Allerdings ist auch eine zu enge Regulierung hinderlich. So warnen z. B. Automobilhersteller in Deutschland und Europa vor zu starken gesetzlichen Einschränkungen und befürchten, dass die Europäische Union im Gegensatz zu Ländern wie China oder den USA zu enge Grenzen für die Nutzung der Mobilitätsdaten setzt. Damit werden nicht nur Smart Services behindert, sondern auch die unternehmerische Wettbewerbsfähigkeit aufs Spiel gesetzt. Unterschiedliche länderspezifische Regelungen und divergierende Rechtsprechungen betreffen z. B. das autonome Fahren: So ist der Fahrassistent von Tesla bislang nur in den USA und (noch) nicht in der EU verfügbar.12 Aufgrund teilweise deutlich großzügigerer Datenschutzrichtlinien haben Unternehmen außerhalb Europas insgesamt weit größere Spielräume, datenbasierte Mobilitätsdienstleistungen zu erforschen und anzuwenden. Innovative Smart Services, wie das autonome Fahren und Ride Sharing, werden in jedem Fall kommen und sich weiter ausbreiten – ob die Angebote in den USA, China oder Europa entwickelt werden und in welchen Ländern die Wertschöpfung erfolgt, ist dafür nicht maßgeblich. Und sie werden mittelfristig auch ganze Branchen und Arbeitswelten verändern. Traditionelle Arbeitsplätze werden in Gefahr geraten, die durch eine intelligente und vernetzte Datenverarbeitung sowie datengesteuerte Automatisierung überflüssig werden. Das beste Beispiel ist der Taxifahrer, der zuerst durch Uber und Didi und in nicht allzu ferner Zukunft durch Künstliche Intelligenz ersetzt wird. Automobile werden zu Dienstleistungsorten, in die während der Fahrt Nachrichten übermittelt, in denen bildschirmgestützte Beratungsgespräche geführt und die Haare geschnitten werden können. Autonom gelenkte Fahrzeuge von Flottenanbietern werden zunehmend Privatwagen ersetzen, d. h. die Nachfrage nach einem eigenen Fahrzeug sinkt. Dies wird auch Druck auf politische Rahmenbedingungen erzeugen. Diesbezüglich steht Deutschland, ein Land, dessen Wirtschaft besonders stark vom Automobil abhängt (Herstellung, Finanzierung, Versicherung), im besonderen Fokus, Lösungsvorschläge anzubieten. Und dies wiederum erfordert auch die Kooperation von Politik und Gesetzgebung mit den betroffenen Branchen und Verbraucherschutzeinrichtungen, ein ausgewogenes Verhältnis zwischen den Möglichkeiten der Datennutzung und den Notwendigkeiten des Datenschutzes rund um smarte Mobilitätsdienstleistungen herzustellen.  

Rolle der Versicherer

Die Lebenswelt Mobilität ist seit jeher von einer großer Veränderungsdynamik geprägt. Die Fortbewegung spielt für die Menschen immer eine große Rolle, und die Wichtigkeit einer schnellen und komfortablen Fortbewegung von A nach B gewinnt in einer zunehmend globalisierten Welt fortwährend an Bedeutung: Mehr als eine Billion Euro investieren private EU-Haushalte pro Jahr, um mobil zu sein. In Deutschland fließt jeder siebte Euro in Mobilitätsangebote, und es entstehen immer neue Mobilitätsformen. Der Mobilitätssektor ist daher von einer hohen Aufmerksamkeit geprägt, die mit einem intensiven Wettbewerb einhergeht. Nach wie vor ist das Automobil das wichtigste Verkehrsmittel, jedoch verändert sich seine Bedeutung rasant und es vollzieht sich eine Entwicklung, bei der das Auto immer weniger Symbol der Freiheit und des Status ist. Nicht nur aufgrund überfüllter Straßen verliert das eigene Fahrzeug langsam an Attraktivität und Bedeutung und wird zunehmend durch neue Mobilitätsangebote abgelöst. Auch der Einstellungswechsel weg vom ‚Eigentum‘ hin zur ‚Nutzung‘, der mit den aufkommenden Sharing-Konzepten einhergeht, verschiebt die Gewichtungen. Mit der Etablierung verschiedener Smart Services verlegt sich der Fokus von der Ingenieurstechnik und der Hardware auf agile und komfortable Lösungen. Der veränderte Markt, der bisher von Automobilherstellern und Verkehrsbetrieben geprägt war, bringt zusätzlich neue Wettbewerber mit sich. Mit den beschriebenen Smart Services in der Lebenswelt Mobilität verändert sich auch das Geschäftsmodell der Versicherer. Die zunehmende Vernetzung im Zusammenhang mit dem Connected Car bringt für die Assekuranz sowohl Potenziale als auch Herausforderungen mit sich. Durch die mit zahlreichen Sensoren ausgestatteten Automobile können Unfälle verhindert, Unfallhergänge rekonstruiert und eingetretene Schäden durch das Fahrzeug selbst gemeldet, automatisiert erfasst und begutachtet werden. Die Schadensabwicklung kann damit deutlich schneller und reibungsloser erfolgen, wozu auch neue Technologien wie Chatbots und – in der Logistik – Drohnen beitragen. Damit werden die Prozesse der Versicherer effizienter, und auch für die Kunden werden die Abläufe deutlich vereinfacht und komfortabler gestaltet. Die Abrechnung erfolgt objektiver und damit grundsätzlich fairer, Versicherungsbetrug wird eingedämmt, und nicht nur der Verwaltungsaufwand für die Versicherer sinkt durch die datengetriebenen Services, vermutlich reduziert sich auch das Streitpotenzial bei der Schadenregulierung, was im Ergebnis auch Gelassenheit und Zufriedenheit auf der Kundenseite erhöhen könnten. Jedoch ist der Zugang zu den relevanten Daten für die Versicherer erschwert. Die Daten werden von Systemen generiert, die im Fahrzeug verbaut sind, oder von Kommunikationsmedien, wie dem Smartphone. Damit sind es zunächst die Autohersteller, Telekommunikationsanbieter bzw. Tech-Konzerne, die mit dem Connected Car wertvolle Mobilitätsinformationen einschließlich Informationen über das Fahrverhalten bekommen. Schon für die Entwicklung und Etablierung von Telematik-Tarifen benötigt aber auch der Versicherer solche Verhaltensdaten, zu denen auch Zugang gewonnen werden kann, wenn der Nutzer die Informationen ausdrücklich mit dem Versicherer teilt. Während Automobilhersteller oder Tech-Unternehmen aber den Vorteil haben, anhand der ausgewerteten Daten tatsächliche Mehrwertleistungen und neue Smart Services anbieten zu können, sind die Anwendungen der Versicherer bislang noch weitestgehend auf die Kalkulation der versicherungstechnisch richtigen Prämienhöhe und damit auf eine Prämiendifferenzierung reduziert, die naturgemäß nur den ‚guten Risiken‘ nützt, also den Risiken mit unterdurchschnittlichen Schadenerwartungswerten. Nach den Regeln der Statistik ist aber immer auch rund die Hälfte der Risiken mit überdurchschnittlichen Schadenerwartungswerten unterwegs, für die Telematik-Tarife eher nachteilig wären. Abgesehen davon, dass allerdings die Korrelationen zwischen dem Fahrverhalten und der Schadenträchtigkeit noch keineswegs hinreichend sicher ermittelt sind und deshalb Telematik-Tarife noch in Kinderschuhen eines Versuchsstadiums stecken, sind damit die unmittelbaren Nutzenpotenziale auf bestimmte Kundengruppen eingeschränkt. Nur wenn es den Versicherern gelingt, über gesellschaftlich hoch akzeptierte Anreiz- und Sanktionsmechanismen die Motivation für ein ‚besseres‘ Fahrverhalten auf breiter Front zu erhöhen, ist damit ein Nutzen für die gesamte Kundschaft in der Kfz-Versicherung generierbar – bis hin zu einem Beitrag für den gesamtgesellschaftlichen Nutzen einer reduzierten Zahl von Unfällen mit Sachschäden, Verletzten und Toten. Insgesamt liegt die große Herausforderung der Versicherungswirtschaft darin, mit den neu gewonnen Mobilitätsdaten echte Mehrwerte für die Kunden und Nutzenpotenziale auch jenseits einer für einzelne Zielgruppen günstigeren Tarifierung und Prämieneinstufung zu erzeugen.

Die Rolle der Versicherer ändert sich des Weiteren durch das Car- und Ridesharing als immer mehr aufkommende Smart Services. Damit sind zunächst Herausforderungen verbunden, weil mit den Sharing-Konzepten zum einen der Gesamtbestand zu versichernder Fahrzeuge zurückgeht und sich zum anderen die klassischen Deckungskonzepte nicht mehr ohne Weiteres anwenden lassen. Zur Fortbewegung mit dem Auto ist der Bürger nicht mehr länger vom Vorhandensein eines eigenen Fahrzeugs abhängig. Damit sinkt die Nachfrage nach dem eigenen Automobil und damit auch nach privaten Kfz-Versicherungen. Der Nutzer eines Carsharing-Dienstes möchte lediglich die Möglichkeit einer flexiblen Mobilität in Anspruch nehmen, wird sich darüber hinaus jedoch mit dem Fahrzeug – das er nur für kurze Zeit nutzt – nicht weiter beschäftigen. Wichtig sind ihm lediglich die Sicherheit, der Komfort und die Effizienz der Mobilität, also die Erhältlichkeit und Funktionstüchtigkeit des Fahrzeugs, die eigene Fahrsicherheit sowie die Absicherung, falls doch etwas passiert … und das Ganze zu einem günstigen Preis. Der Versicherungsschutz muss in diesem Paket bereits enthalten sein, und der Nutzer möchte sich für seine flexibel und fallweise gewählten Fahrten nicht damit auseinandersetzen. Ein naheliegendes Szenario ist also, dass die Fahrzeuge künftig viel häufiger von einem OEM oder Mobilitätsanbieter und nicht vom Bürger selbst versichert werden. Die private Kfz-Versicherung dürfte damit auf Sicht immer mehr durch Policen für Fahrzeugflotten und Poolfahrzeuge abgelöst werden. Damit verändert sich nicht nur die Tarifierung, sondern auch der Zugang zum Endkunden geht für den Versicherer zunehmend verloren. Einen noch größeren Einfluss auf die Kfz-Versicherung nimmt das autonome Fahren. Es ist zu erwarten, dass das Unfallrisiko mit autonomen Fahrzeugen erheblich sinkt und einzelne Fahrzeugversicherungen für Privatpersonen und vermutlich auch Flottenversicherungen für Geschäftskunden entbehrlich werden könnten. Ohne einen Fahrzeugführer – und wenn das Fahrzeug noch nicht einmal mehr ein Lenkrad aufweist, über das in die Steuerung eingegriffen werden könnte – wird dem Nutzer des Fahrzeugs auch kein Verschulden mehr für einen Unfall zugewiesen werden können und wird folglich auch kein individueller Versicherungsschutz mehr für den Fahrzeuglenker erforderlich sein. Die Verschiebung der Risikosituation liegt damit auf der Hand: Die Eintrittswahrscheinlichkeit eines Schadens sinkt, dafür erhöhen sich die Schadensummen angesichts der eingesetzten Technologie und möglicher Kumulsituationen. Für Unfälle kann kein Fahrer mehr, sondern muss der Hersteller oder müssen Komponentenlieferanten haftbar gemacht werden.

Der Fokus verschiebt sich damit von der Absicherung menschlicher Fehler auf die Absicherung technischer Ausfälle oder Manipulationen. Bereits kurz- bis mittelfristig wird die fortschreitende Entwicklung der autonomen Fortbewegung das Portfolio der Versicherer weiter verändern. Neuere, zunehmend digital vernetzte Kraftfahrzeuge mit vermehrten Assistenzfunktionen bis hin zu weitgehender oder vollkommener Autonomie haben im Gegensatz zu älteren, noch im Großen und Ganzen analogen, Fahrzeugen eine geringere Unfallwahrscheinlichkeit, und die Insassen sind besser geschützt – mit allen Konsequenzen für die Begleitung der Veränderungen durch die Versicherungswirtschaft mit Korrelationsforschungen und der Entwicklung passender Deckungskonzepte und Tarifierungssysteme. Ein weiterer, besonders wichtiger Trend in der Lebenswelt Mobilität ist die Intermodalität, also die Kombination verschiedener Verkehrsmittel. Zwar kommen die einzelnen Verkehrsmittel nach wie vor typischerweise von verschiedenen Anbietern – neue Mobilitätsformen/-angebote oftmals sogar von ganz neuen Unternehmen, wie Busanbietern (z. B. Flixbus) oder Plattformbetreibern für Car- und Ridesharing, es lassen sich aber zunehmend Konsolidierungen beobachten. Automobilkonzerne entwickeln eigene Sharing-Dienste und kaufen Mobilitäts-Start-ups auf. So hat z. B. Daimler mittlerweile u. a. den Mitfahr-Pionier flinc, das Taxi- Start-up myTaxi und auch den Carsharing-Dienst car2go übernommen. Die Zahl der relevanten Marktakteure scheint also zu sinken, und dem Kunden stehen immer mehr Angebote aus einer Hand zur Verfügung. Für den Bürger entstehen damit Vorteile: mit der moovel-App können verschiedene Verkehrsmittel für eine bestimmte Route ausgewählt, reserviert, gebucht sowie bezahlt werden und die urbane Mobilität wird für ihre Nutzer vereinfacht. Aufgrund der großen Bedeutung einer einfachen und flexiblen Kombinierbarkeit einzelner Angebote ist gerade in der Lebenswelt Mobilität die Rolle des Orchestrators von herausragender Bedeutung und als Voraussetzung für die intermodale Mobilität anzusehen. Diese Rolle wird von Versicherern schwer einzunehmen sein, da sie im Vergleich zu den Automobilherstellern über eine geringere Größe, weniger Ressourcen – inkl. des Pools an smarten Daten – und meist einen deutlich schlechteren Zugang zum Kunden verfügen. Es muss daher eher eine andere Rolle gefunden werden, sich in dieser Lebenswelt zu positionieren. Im Zusammenhang mit der Intermodalität könnte das Angebot einer Mobilitätsversicherung einen Lösungsansatz bieten. Die Versicherungspolice könnte sich damit an ein Ökosystem der vernetzten Mobilität andocken und neben Schäden bei der Nutzung einzelner Fortbewegungsmittel auch die Nichtverfügbarkeit eines Carsharing-Fahrzeugs, die Verspätung eines öffentlichen Verkehrsmittels oder den Ausfall von weitergehenden Services bzw. Mehrwertdiensten abdecken, die rund um die Mobilität von den Anbietern versprochen wurden. Mit der Absicherung von Kfz-Schäden allein wird sich im Rahmen vernetzter Fahrzeuge nicht mehr lange ein Alleinstellungsmerkmal aufrechterhalten lassen. Durch die immer seltener werdenden Schäden, die sich immer besser prognostizieren lassen, ist damit zu rechnen, dass die verbleibenden Schäden künftig auch. von den Automobilherstellern selbst übernommen werden (wie beispielsweise bei Tesla). Eine Neuausrichtung ist für die Versicherer daher unumgänglich.

 

Zur einfacheren Lesbarkeit wurden die Quellenverweise entfernt. 

Fred Wagner, Theresa Jost in: Die Big Data-Debatte; Springer, 2019

https://link.springer.com/chapter/10.1007/978-3-658-27258-6_2

http://creativecommons.org/licenses/by/4.0/deed.de

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

02/2021

 

Klage gegen Amazon, weil Kündigung von Prime-Abonnements so schwer ist

 

Amazon legt Verbrauchern, die sich von seinem Abonnement „Prime“ abmelden wollen, Steine in den Weg. Die Norwegische Verbraucherschutzorganisation „Forbruker Radet“ bemängelt so genannte Dark Patterns, wie solche Praktiken in der Fachsprache heißen. Die Verbraucherschützer reichten am Donnerstag eine Klage (PDF) gegen Amazon wegen Verstößen gegen die EU-Richtlinie über unlautere Geschäftspraktiken ein.

In der Pressemitteilung der Organisation heißt es, dass Amazon bei der Abmeldung von Amazon Prime die Verbraucher:innen manipuliere, damit sie den Dienst weiter nutzen. Die Verbraucherschützer sehen die Praxis als einen bewussten Versuch an, die Kunden zu verwirren und zu frustrieren.

Sie fordern deshalb, dass die Kündigung genauso einfach sein sollte wie der Abschluss eines Abonnements. Die bisherige Praxis von Amazon würde die Kunden behindern und mit Tricks dazu bringen, die Bezahl-Dienste fortzusetzen.

Die Organisation stützt sich in ihrer Klage auch auf eine von ihr in Auftrag gegebene repräsentative Online-Umfrage (PDF), nach der gut ein Viertel aller Nutzer:innen angaben, dass sie schon einmal Schwierigkeiten hatten, ein Online-Abo zu beenden. Im speziellen Fall hat die Organisation den Kündigungsprozess von Amazon Prime in einer Studie (PDF) eingehend untersucht und beschrieben.

 

Hürden und viele Klicks

Laut der Studie sind nur drei Klicks nötig, um das Amazon Prime Abo auf der Seite abzuschließen, jedoch neun Klicks, um das Abonnement zu beenden. Auf dem Weg zur Kündigung arbeitet Amazon mit Warnhinweisen und Warntafeln, mit manipulativer Sprache („Auf Vorteile verzichten“), mit Aufzählungen angeblicher Vorteile, mit längeren Scroll-Strecken sowie verwirrenden und versteckten Menüs und Buttons, welche die Nutzer:innen im Kündigungsprozess immer wieder zurückwerfen können.

Amazon selbst sieht das naturgemäß anders. In einem Statement gegenüber Onlinemarketing.de sagt der Konzern, dass er es den Kund:innen einfach mache jederzeit zu kündigen. Amazon weist auch zurück, dass der Kündigungsprozess unfair sei oder Unsicherheit schaffe.

16 Verbraucherorganisationen in der EU haben sich in diesem Fall zusammengeschlossen und werden nun gemeinsam gegen Amazon vorgehen und in ihren Ländern Untersuchungen einleiten.

 

Dark Patterns

Dark Patterns oder manipulatives Design sind Merkmale des Benutzeroberflächendesigns, die Verbraucher dazu bringen oder drängen, Entscheidungen zu treffen, die im vor allem im Interesse des Dienstanbieters und nicht im Interesse des Verbrauchers liegen.

Dazu kann gehören, dass bestimmte Optionen leichter zu wählen sind als andere, dass Verbraucher dazu gebracht werden, ihre Zustimmung zur Weitergabe persönlicher Daten zu geben, und viele andere Praktiken.

 

Netzpolitik.org; Markus Reuter; 16.01.2021

https://netzpolitik.org/2021/dark-patterns-klage-gegen-amazon-weil-kuendigung-von-prime-abonnements-so-schwer-ist/

http://creativecommons.org/licenses/by-nc-sa/4.0/

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

– Ist die Transferproblematik in die USA damit geklärt?

01/2021

 

1 Einleitung

Mit dem als «Schrems II» bekannt gewordenen Entscheid (C-311/18) des Europäischen Gerichtshofs (EuGH) vom 16. Juli 2020  wurde der  Angemessenheitsbeschluss 2016/1250 zum EU-US Privacy Shield für ungültig erklärt. Hintergrund dieser Entscheidung war, dass das mit den USA ausgehandelte Privacy Shield-Abkommen die Daten von Personen, die sich in der EU befinden,  nicht vor dem Zugriff US-amerikanischer Geheimdienste angemessen zu schützen vermochte.  

Wenig später hat sich auch der Eidgenössische Öffentlichkeits- und Datenschutzbeauftragte (EDÖB) diesem Entscheid angeschlossen und das EU-Swiss Privacy Shield-Abkommen  als nicht  mehr wirksam erklärt.

Der EuGH befasste sich in seinem Entscheid auch mit den EU-Standardvertragsklauseln. Das Gericht stellte fest, dass eine blosse standardmässige Übernahme dieser Klauseln nicht genügt und diese ebenfalls keinen angemessenen Schutz darstellen würden. Vielmehr muss ein Verantwortlicher die Umstände des konkreten Datentransfers würdigen und sich fragen, wie weit die Standardvertragsklauseln die übermittelten Daten tatsächlich angemessen schützen und ggf. zusätzliche Massnahmen vorsehen.

Am 11. November 2020 hat der Europäische Datenschutzausschuss einen Entwurf mit «Empfehlungen über Massnahmen zur Gewährleistung des EU-Schutzniveaus bei der Übertragung von personenbezogenen Daten» veröffentlicht (Empfehlungen 01/2020).  Diese Empfehlungen beschreiben ausführlich, welche zusätzlichen Massnahmen ein Unternehmen treffen muss, damit eine Übermittlung personenbezogener Daten nach dem Schrems II-Entscheid durchgeführt werden kann. Nur einen Tag später veröffentlichte die EU-Kommission ihren Entwurf für Standardvertragsklauseln, der ebenfalls den Schrems II-Entscheid berücksichtigt. 

 

2 Handlungsempfehlungen des Europäischen Datenschutzausschusses 

Der Europäische Datenschutzausschuss hat in seinem Empfehlungsentwurf 01/2020 in sechs Schritten beschrieben, wie ein Unternehmen vorgehen muss, damit eine Übermittlung von personenbezogenen Daten auch nach dem Schrems II-Entscheid möglich ist: 

 

1. Daten-Mapping

In einem ersten Schritt soll ermittelt werden, welche Datentransfers an Empfänger in Drittländern gehen und ob die übermittelten Daten im Hinblick auf die Zwecke, für die sie übermittelt werden, angemessen, zweckdienlich und notwendig sind.

 

2. Identifizierung geeigneter Transferinstrumente

Sofern kein Angemessenheitsbeschluss vorliegt, ist in einem zweiten Schritt abzuklären, ob eine geeignete Garantie gemäss Art. 46 DSGVO vorliegt oder einer der Ausnahmetatbestände gemäss Art. 49 DSGVO greift. Erfolgt die Übermittlung mittels Standardvertragsklauseln oder über verbindliche Unternehmensvorschriften, muss sichergestellt werden, dass die übermittelten personenbezogenen Daten tatsächlich einem im Wesentlichen gleichwertigen Schutzniveau unterliegen.

 

3. Beurteilung der Wirksamkeit des Schutzes der Personendaten

Der dritte Schritt besteht darin, zu beurteilen, ob es im Recht oder Praxis des Drittlands etwas gibt, welches die Wirksamkeit der geeigneten Garantien beeinträchtigen könnte. Für die Beurteilung der Gesetzgebung verweist der EDSA auf seine Empfehlungen 02/2020 «European Essential Guarantees for surveillance measures», insbesondere dann, wenn die Gesetzgebung eine Offenlegung gegenüber den Behörden des Drittlandes vorschreibt oder Zugang gewährt. 

 

4. Implementierung zusätzlicher Massnahmen sofern erforderlich

Kommt die Beurteilung (Schritt 3) zum Schluss, dass zusätzliche Massnahmen erforderlich sind, um ein angemessenes Datenschutzniveau herzustellen, so müssen diese wirksam implementiert werden. Eine Wirksamkeit ist vor allem bei technischen Schutzmassnahmen gegeben, die den Zugang zu personenbezogenen Daten entweder durch die Empfänger und/oder Behörden in Drittländern verhindern. 

 

5. Einleitung formeller Verfahrensschritte

In einem fünften Schritt sind alle formellen Verfahrensschritte zu treffen, die eine vorgängige Genehmigung durch eine Datenschutzbehörde erfordern. Sofern die zusätzlichen Massnahmen nicht im Widerspruch zu den Regelungen der Standardvertragsklauseln oder der verbindlichen Unternehmensvorschriften stehen oder das durch diese Mechanismen geschaffene Schutzniveau nicht beeinträchtigt wird, bedarf es keiner vorgängigen Genehmigung. 

 

6. Regelmässige Neubewertung

Der sechste und letzte Schritt besteht darin, in regelmässigen Zeitabständen das Schutzniveau der Daten, die in Drittländer übermittelt wurden, neu zu bewerten und Entwicklungen im Drittland zu überwachen, welche sich auf den Schutz auswirken könnten. 

 

3 Ist der neue Anhang zu den Standardvertragsklauseln von Microsoft die langersehnte Lösung?

Microsoft hat als erstes Unternehmen auf den Empfehlungsentwurf des Europäischen Datenschutzausschusses reagiert und unter dem Namen «Defending Your Data» einen Anhang zu den Standardvertragsklauseln veröffentlicht, der nun standardmässig Bestandteil des Auftragsverarbeitungsvertrags ist. Darin werden die Informationspflichten der betroffenen Personen ausgeweitet und Microsoft verpflichtet, den Rechtsweg zu beschreiten und die US-Gerichte anzurufen, die behördliche Anordnung zur Herausgabe der Daten anzufechten sowie ein Anspruch auf Schadensersatz für die betroffene Person, deren Daten unrechtmässig verarbeitet wurden und die dadurch einen materiellen oder immateriellen Schaden erlitten hat, geltend gemacht.  

 

4 Fazit

Dass sich Microsoft für die Verbesserung der Rechte der betroffenen Personen einsetzt, ist löblich und ein Schritt in die richtige Richtung. Jedoch vermag er die Transferproblematik in die USA nicht zu lösen. Einen Zugriff der US-Geheimdienste auf die Daten wird dadurch nicht unterbunden. 

Es bleibt also dabei, dass Unternehmen weiterhin prüfen müssen, welchem Risiko die Daten bzw. die Betroffenen im Drittland ausgesetzt sind. Immerhin bieten die Empfehlungen 01/2020 des EDSA eine gewisse Hilfestellung, wenn es darum geht, zusätzliche Massnahmen bei der Übermittlung in ein Drittland ohne Angemessenheitsbeschluss zu treffen.  

 

 

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.  

Swiss Infosec AG; 23.12.2020

Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

01/2021

 

Die Nutzung personenbezogener Daten in politischen Kampagnen

 

Beachtung der Datenschutzbestimmungen bei Wahlen Eine vergleichende Analyse zwischen der EU und Brasilien (DSGVO vs. LGPD)

 

Zur Analyse der Anwendung von Bestimmungen zum Schutz personenbezogener Daten auf Wahlprozesse in Brasilien und der EU untersucht dieser Abschnitt die relevantesten Ähnlichkeiten und Unterschiede zwischen der europäischen Datenschutz- Grundverordnung (DSGVO) und dem brasilianischen Allgemeinen Datenschutzgesetz („Lei Geral de Proteção de Dados Pessoais“, LGPD). Die folgenden Erwägungen untersuchen, wie diese komplizierten Systeme die Grenzen der Datenverarbeitungsfähigkeiten der Kandidaten und Parteien in jeder Gerichtsbarkeit bestimmen, während sie außerdem relevante normative Instrumente spezifisch in Bezug auf Wahlprozesse vorstellen. Das brasilianische Allgemeine Datenschutzgesetz war weithin auf der Datenschutz- Grundverordnung der EU gegründet. Deshalb bestehen viele Ähnlichkeiten zwischen den beiden Gesetzen. Zuerst gibt es Überschneidungen zwischen den allgemeinen Grundsätzen in beiden Gesetzen. Die DSGVO führt in Artikel 5 sechs Grundsätze in Bezug auf die Verarbeitung personenbezogener Daten an. Das LGPD nennt in Artikel 6 zehn Grundsätze. Beide Verordnungen bzw. Gesetze enthalten die Kernwertvorstellungen von festgelegten und eindeutigen Zwecken, Transparenz, Qualität (Richtigkeit) von Daten, Sicherheit, Verantwortlichkeit, Rechtmäßigkeit und Verarbeitung nach Treu und Glauben (Fairness). Der Kopfteil des brasilianischen Artikels zu den Grundsätzen lautet:

Art. 6 Aktivitäten zur Verarbeitung personenbezogener Daten müssen nach Treu und Glauben erfolgen und folgende Grundsätze beachten …

Die Erwähnung von „Treu und Glauben“ (boa-fé) könnte als analog zum Fairness- Grundsatz der DSGVO interpretiert werden. „Boa-fé“ ist ein allgemeiner Grundsatz des bürgerlichen Rechts in Brasilien. Seine ausdrückliche Erwähnung im Kopfteil des Artikels in Bezug auf die Grundsätze der Verarbeitung personenbezogener Daten stärkt seine Rolle als interpretative Achse bei der Anwendung des Gesetzes. In der Praxis bedeutet das die Berücksichtigung des Kontexts der Datenerfassung zur Bestimmung der angemessen erwarteten und fairen Verwendung der Daten. Juristen beschreiben dies als „kontextabhängigen Datenschutz“:  Zusammenfassend betrachtet umfasst die Theorie des kontextabhängigen Datenschutzes deshalb die Erwägung, dass die betroffene Person legitime Erwartungen (Schutz ihrer Daten) in Bezug auf den angemessenen Fluss ihrer Daten haben kann. Der Datenverkehr findet daher nicht in einem Vakuum statt, sondern unter einer Gruppe von Umständen, die seine Integrität bestimmen. Abgesehen von vielen Ähnlichkeiten wie dem oben erwähnten Fairnessgrundsatz gibt es allerdings Punkte, in denen sich die beiden Gesetze unterscheiden. Ein solcher Fall ist die Definition von gemeinsam Verantwortlichen. Gemeinsam Verantwortliche sind in Artikel 26 der DSGVO beschrieben, der besagt:

Legen zwei oder mehr Verantwortliche gemeinsam die Zwecke der und die Mittel zur Verarbeitung fest, so sind sie gemeinsam Verantwortliche. Sie legen in einer Vereinbarung in transparenter Form fest, wer von ihnen welche Verpflichtung gemäß dieser Verordnung erfüllt, insbesondere was die Wahrnehmung der Rechte der betroffenen Person angeht, und wer welchen Informationspflichten gemäß den Artikeln 13 und 14 nachkommt, sofern und soweit die jeweiligen Aufgaben der Verantwortlichen nicht durch Rechtsvorschriften der Union oder der Mitgliedstaaten, denen die Verantwortlichen unterliegen, festgelegt sind. In der Vereinbarung kann eine Anlaufstelle für die betroffenen Personen angegeben werden.

Es ist wichtig, hervorzuheben, dass derselbe Datensatz viele bestimmte Verantwortliche haben kann, wenn diese ihn zu bestimmten Zwecken verwenden, oder gemeinsam Verantwortliche, wenn diese gemeinsam über die Zwecke der Verarbeitung entscheiden. Das brasilianische Gesetz umfasst dagegen keine ausdrückliche Kategorie gemeinsam Verantwortlicher.

Die Verantwortlichkeit wird weiterhin auf der Grundlage der Fähigkeit festgestellt, über die Zwecke der Verarbeitung zu entscheiden, wobei jedoch keine gemeinsame Verantwortlichkeit erwähnt wird. Das Gesetz weist allerdings in einem Fall darauf hin. In Artikel 42, II, erklärt das LGPD, dass die Verantwortlichen, die direkt an einer Verarbeitungsaktivität beteiligt sind, die gemeinsame Verantwortung für mögliche Verstöße gegen das Gesetz tragen. Dieser Artikel legt eine gemeinsame Verantwortung nahe, indem er besagt, dass bestimmte Akteure unter den Auswirkungen des Gesetzes zusammengefasst werden können. Das ist eine Auslegung, die bei der Festlegung der Steuerungsstruktur politischer Kampagnenanstrengungen berücksichtigt werden sollte. In solchen Fällen ist das besonders wahr, was von einer anderen Rechtsvorschrift zur Haftung von Kandidaten und politischen Parteien untermauert wird. Das brasilianische Gesetz Nr. 9.504/1997 erklärt in Artikel 6, § 5: § 5 Kandidaten und ihre Parteien haften gemeinsam und einzeln für Geldbußen aufgrund von Wahlpropaganda … Daher ist das LGPD vollständig anwendbar auf die Verarbeitung personenbezogener Daten, die von Parteien und Kandidaten durchgeführt wird, sowie auf ihre Kampagnenstrukturen. Im brasilianischen Gesetz wird dies weiter unterstrichen, indem politische Parteien als private Vereinigungen charakterisiert werden, d. h. als Rechtswesenheiten, die unter dieselben rechtlichen Grundsätze fallen wie Privatunternehmen und Nichtregierungsorganisationen. Die Verantwortlichkeit ist eine entscheidende Frage in beiden Gesetzen, da der Verantwortliche für die Implementierung einer breiten Gruppe aus Anforderungen verantwortlich und in letzter Instanz für mögliche Verstöße haftbar ist.

Die Feststellung des Verantwortlichen für personenbezogene Daten kann sich in der Praxis als Herausforderung erweisen, bei der es darum geht, die Person(en) ausfindig zu machen, welche die Fähigkeit hat (haben), Entscheidungen von bedeutender Tragweite über die Zwecke und Mittel der Datenverarbeitung zu treffen. Im Kontext politischer Kampagnen kann sich das als komplexe Bewertung herausstellen:

Die Rolle des Datenverantwortlichen oder Datenverarbeiters/-auftragsverarbeiters muss für jeden Einzelfall bewertet werden. Im Zusammenhang mit Wahlen können eine Reihe von Akteuren Datenverantwortliche sein: Politische Parteien, einzelne Kandidaten und Stiftungen sind in den meisten Fällen Datenverantwortliche. Plattformen und Datenanalyseunternehmen können (gemeinsam) Verantwortliche oder Auftragsverarbeiter für eine gegebene Verarbeitung sein, was vom Ausmaß ihrer Kontrolle über die betreffende Verarbeitung abhängt. Nationale Wahlbehörden sind Verantwortliche für die Wählerverzeichnisse.

Abgesehen von Verantwortlichen müssen politische Kampagnen ebenfalls zwei weitere Rechtswesenheiten beachten, die an den Beziehungen der Verarbeitung personenbezogener Daten beteiligt sind. Die Datenverarbeitung wird von einem „Auftragsverarbeiter“ (DSGVO; im LGPD als Operador bezeichnet) durchgeführt, der den Willen und die Strategie des Verantwortlichen umsetzt. Während der Verantwortliche umfassende Entscheidungsbefugnis hat, implementiert der Auftragsverarbeiter lediglich die geplanten Verarbeitungsaktivitäten. Die andere Rechtswesenheit ist der Datenschutzbeauftragte (DSGVO; im brasilianischen Gesetz als Encarregado bezeichnet), der als Kommunikationskanal zwischen der betroffenen Person, der Datenschutzbehörde und dem Unternehmen bzw. der Organisation agiert. Die Rollen des Auftragsverarbeiters und des Datenschutzbeauftragten sind sehr unterschiedlich. Der Auftragsverarbeiter ist an den Verarbeitungsaktivitäten beteiligt und hat den erforderlichen technischen Hintergrund zur Umsetzung der Entscheidungen des Verantwortlichen, dessen Anweisungen er ausführt. Der Datenschutzbeauftragte ist dagegen als „die Manifestation der Aufsichtsbehörde in einer Organisation“ beschrieben worden. Diese Rolle sollte idealerweise vom Verantwortlichen und Auftragsverarbeiter unabhängig sein, um eine umfassende Bewertung der Datenverarbeitungsaktivitäten durchführen und die Behörde und betroffenen Personen bei Bedarf über Probleme benachrichtigen zu können. Obwohl sich die Konzepte für den Datenschutzbeauftragten und den Encarregado ähneln, sind die beiden in der DSGVO und im LGPD leicht unterschiedlich aufgebaut. Eine wesentliche Unterscheidung besteht darin, dass die Bestellung eines Encarregado im Allgemeinen vorgeschrieben ist und der Verzicht auf seine Bestellung eine weitere Vorgabe von der brasilianischen Datenschutzbehörde erfordert (Art. 41, § 3, LGPD).

Die DSGVO führt dagegen die Fälle auf, in denen der Datenschutzbeauftragte notwendig ist, obwohl es als gute Praxis gilt, in allen Fällen einen solchen zu bestellen. Das brasilianische Gesetz hat sich vor der Einführung des LGPD in einem beschränkten Ausmaß mit personenbezogenen Daten in Wahlkampagnen beschäftigt. Ein Beispiel bezieht sich auf den Austausch von Daten mit Dritten. Artikel 7, I, und § 5 des LGPD besagen, dass, falls Daten mit Einwilligung gesammelt und verarbeitet werden und einem anderen Verantwortlichen mitgeteilt werden müssen, eine neue spezifische Einwilligung der betroffenen Person erforderlich ist. Falls dies auf einer beliebigen sonstigen Rechtsgrundlage basierte, wären die Pflichten der Transparenz und Verantwortlichkeit sowie alle Rechte der Person und Rechtsgrundsätze weiterhin anwendbar, doch wäre keine vorhergehende Mitteilung an die Person erforderlich. Das würde bedeuten, dass die Übertragung und ihre Zwecke abhängig vom Einzelfall, jedoch vorzugsweise in einem Datenschutz-Folgenabschätzungsbericht (DSFA-Bericht) erfasst werden. Falls berechtigtes Interesse die rechtmäßige Grundlage für die Verarbeitung darstellt, ist es empfehlenswert, eine Interessenabwägung, d. h. eine Abwägung des berechtigten Interesses (Legitimate Interest Assessment, LIA), vorzunehmen. Vor der Einführung des LGPD gab es jedoch bereits Artikel 57-E von Gesetz Nr. 9.504/97 (Bestimmungen zu politischen Parteien), der ein Verbot des Austauschs oder Kaufs von Kontaktadressenlisten zu politischen Propagandazwecken enthielt. Der Artikel besagt:

Art. 57-E. Es ist den in Art. 24 aufgeführten Personen verboten, elektronische Verzeichnisse ihrer Kunden zugunsten von Kandidaten, Parteien oder Parteigruppierungen zu verwenden, zu spenden oder zu überlassen. § 1 Es ist verboten, elektronische Adressenlisten zu verkaufen. Dieses allgemeine Verbot des Austauschs von Kontaktinformationen macht das Szenario noch komplizierter.

„Elektronische Listen“ (cadastro eletrônico) dürfen von einer Reihe von Rechtswesenheiten nicht weitergegeben werden, einschließlich ausländischen Rechtswesenheiten oder Regierungen; öffentlichen Verwaltungsbehörden; öffentlichen Dienstleistungsanbietern; Gewerkschaften; gemeinnützigen Organisationen, die ausländische Finanzierung erhalten; Nichtregierungsorganisationen, die öffentliche Finanzierung erhalten; usw. Privatunternehmen im Allgemeinen wurden im Anschluss an eine Entscheidung des Obersten Gerichtshofs zu Fall ADI 4650, der sich mit privaten Spenden an politische Kampagnen beschäftigte, hinzugefügt. Zusätzlich ist jede kommerzielle Nutzung elektronischer Adressenlisten verboten. Die DSGVO beschäftigt sich nicht ausdrücklich mit der Datenkommerzialisierung. Eine Auslegung nach den Regelungen und Grundsätzen der Verordnung ordnet jedoch an, dass ein Verantwortlicher personenbezogene Daten entsprechend den ursprünglich beabsichtigten Zwecken verarbeiten muss. Dies bedeutet, dass die Übertragung von Daten an Dritte mittels Spende oder Verkauf den ursprünglichen Zweck der Datensammlung erfüllen muss. In der Praxis bedeuten diese Erwägungen, dass politische Kampagnen die Quelle ihrer Daten und die Zugangsberechtigten sorgfältig prüfen sollten. Falls die ursprüngliche Datensammlung direkt durch die Kampagne mittels Online-Abonnement oder physischem Abonnement erfolgte, sollten alle zukünftigen Verwendungen der Informationen, einschließlich E-Mail-Marketing und Profiling, der betroffenen Person mitgeteilt werden. Falls die ursprüngliche Datensammlung keinen Bezug zu politischen Kampagnen hatte, zum Beispiel im Fall eines Kandidaten mit Kontaktinformationen über seine Wählerschaft mit dem Ziel, ihnen bei bestimmten Problemen im Rahmen der regulären Ausübung seiner politischen Aufgaben zu helfen, sollte man fragen, ob die betroffenen Personen mögliche weitere Verwendungen angemessen erwarten würden. Dies trifft sowohl auf den europäischen als auch auf den brasilianischen Kontext zu. In Brasilien sollten politische Kampagnen zudem weder Spenden von Kontaktlisten annehmen noch letztere kaufen, da das Wahlgesetz solche Praktiken ausdrücklich verbietet. Der zuvor beschriebene Fall, in dem politische Nachrichten während der Wahlen in Brasilien über WhatsApp verbreitet wurden, ist ein gutes Beispiel für eine Praxis, die gegen diese Pflichten verstoßen würde. Damals wurden spezialisierte Unternehmen angestellt, um solche Nachrichten im großen Stil unter bestimmten Umständen an Kontakte auf Nummernlisten zu senden. Man könnte argumentieren, dass die Personen auf diesen Listen keine angemessene Erwartung bezüglich des Empfangs von Wahlpropaganda oder politischen Nachrichten über WhatsApp hatten. Die Aktivisten hätten Schwierigkeiten, Nachweise bezüglich einer spezifischen Einwilligung oder sonstigen Rechtsgrundlage für solche Aktivitäten vorzulegen. Ein ähnliches Problem ist die Sammlung und Behandlung öffentlich verfügbarer Daten. Eine solche Datensammlung im großen Stil kann für Profiling-Aktivitäten verwendet werden, wobei das Kreuzen eindeutiger Datenquellen und -punkte es gestattet, Schlüsse zu ziehen und ein detailliertes Profil einer Person zu erstellen. Alle auf diese Weise gesammelten Daten und die gezogenen Schlussfolgerungen unterliegen Datenschutzbestimmungen, da sie sich „auf eine identifizierte oder identifizierbare natürliche Person beziehen“ (Art. 4 DSGVO) oder es sich um „Informationen in Bezug auf eine identifizierte oder identifizierbare natürliche Person“ handelt (Art. 5 LGPD).

Hierbei handelte es sich um die Grundlage des oben erwähnten Falls von Cambridge Analytica, bei dem das Unternehmen unter Verwendung von Datenanalysetechniken in der Lage war, Wähler in eindeutige Gruppen zu unterteilen – selbst solche Wähler, die keine ausdrückliche Einwilligung zur Sammlung ihrer Daten gegeben hatten. Auf der Grundlage einer Einstufung, welche Informationen als „öffentlich verfügbar“ wahrgenommen werden könnten, d. h. mithilfe von Profilen von Nutzern und ihren Freunden gesammelte Informationen, verzerrte CA quasi den demokratischen Prozess mittels Psychometrie und Big Data. Erwähnungen „öffentlich verfügbarer“ Daten im brasilianischen LGPD treten in drei Fällen auf: den Paragraphen 3, 4 und 7 von Artikel 7. Der erste Paragraph beschreibt die Verarbeitung „öffentlich verfügbarer personenbezogener Daten“, indem er angibt, dass der ursprüngliche Zweck und das öffentliche Interesse, das ihrer Veröffentlichung zugrunde lag, sowie guter Glaube zu beachten sind. Der zweite Fall behandelt „von der Person offenbar veröffentlichte Daten“, wodurch in diesem Fall eine Ausnahme zur Einwilligung geschaffen wurde. Der dritte Fall, bei dem es sich um eine späte Änderung des Gesetzes handelt, gestattet die Verarbeitung solcher Daten zu neuen Zwecken. Es besteht ein offensichtlicher Konflikt zwischen den Paragraphen 3 und 7, da ersterer die weitergehende Verarbeitung auf den ursprünglichen Kontext beschränkt, während letzterer eine Verarbeitung zu neuen Zwecken gestattet. Dies ist wahrscheinlich ein Problem, mit dem sich die neue Nationale Datenschutzbehörde (Autoridade Nacional de Proteção de Dados, ANPD) beschäftigen muss. In diesem Punkt ist die DSGVO erheblich präziser als das LGPD. Artikel 14 der DSGVO verweist auf die „Informationspflicht, wenn die personenbezogenen Daten nicht bei der betroffenen Person erhoben wurden“, sondern zum Beispiel aus öffentlich verfügbaren Daten stammen. Der Artikel enthält eine Reihe von Festlegungen der Pflichten des Verantwortlichen bezüglich der Verarbeitung von Daten.

Diese Informationspflichten umfassen unter anderem die beabsichtigten Verwendungszwecke der Daten, den Verarbeitungszeitraum, Namen und Kontaktdaten des Verantwortlichen, die Kategorien der gesammelten Daten, die Zwecke der Verarbeitung, die Empfänger und Quellen der Daten, die Rechte der betroffenen Person auf Berichtigung und das Beschwerderecht bei einer Aufsichtsbehörde. Auf der Grundlage des LGPD bzw. der DSGVO müssen die Möglichkeiten einer Verarbeitung basierend auf „öffentlich verfügbaren personenbezogenen Daten“ von den Behörden sorgfältig erwogen werden. Dabei sind die Geschehnisse in spezifischen Situationen, wie beispielsweise der Massenversand von WhatsApp-Nachrichten in Brasilien oder der CA-Fall, zu berücksichtigen. Obwohl Ausnahmen bei der Einwilligung in Bezug auf öffentlich verfügbare personenbezogene Daten bestehen können, kann die Verarbeitung in vielen Fällen als rechtswidrig betrachtet werden, indem keine grundlegenden Compliance-Schritte durchgeführt wurden, wie beispielsweise die Benachrichtigung der betroffenen Person über die Verarbeitung und die Gewährleistung grundlegender Datenschutzprinzipien und -rechte. Aufgrund der vollen Anwendbarkeit der Bestimmungen zum Schutz personenbezogener Daten ist es wichtig, dass sowohl die Parteien als auch die Kandidaten alle notwendigen Vorsichtsmaßnahmen treffen, um die Beachtung aller Grundsätze und Rechte zu gewährleisten. Dies beginnt gewöhnlich mit einer ausführlichen Darstellung der Datenflüsse in der Kampagnenstruktur: eine Aufgabe, die eng mit dem Verantwortungsbereich des Datenschutzbeauftragten zusammenhängt. Das trifft insbesondere auf Fälle zu, in denen sensible Daten verarbeitet werden – eine bei politischen Kampagnen gängige Situation. Da die von Parteien und Kandidaten verwendeten Daten in der Regel die politischen Einstellungen und Meinungen der betroffenen Personen beinhalten, erweist sich die Rolle des Datenschutzbeauftragten als noch wichtiger. Unterschiedliche Kampagnen haben unterschiedliche Anforderungen und Formate, besonders in breiten und diversen Zusammenhängen wie den politischen Szenarien in Brasilien und Europa. Ein erster Schritt besteht in der detaillierten Erfassung aller Punkte, an denen Daten auf beliebige Weise gesammelt, kommuniziert, gespeichert oder verarbeitet werden. Weitere Details klären darüber auf, wer Zugang zu welcher Art v on Daten hat, auf welcher Rechtsgrundlage die Verarbeitung regulärer oder sensibler Daten erfolgt, von welcher Dauer die Verarbeitungsaktivitäten sind und welchem Zweck sie dienen. Ein wesentlicher Unterschied zwischen den beiden Gesetzen besteht in ihrer Behandlung der Datenschutz-Folgenabschätzung (DSFA). DSFA werden in Artikel 35 der DSGVO und in den Artikeln 10, 32 und 38 (unter anderen) des LGPD behandelt.

Erstere gibt eine Verpflichtung vor, eine DSFA durchzuführen, wann immer ein „hohes Risiko für die Rechte und Freiheiten natürlicher Personen“ besteht. Dabei wird davon ausgegangen, dass zumindest eine vorläufige Risikoabschätzung für alle Verarbeitungsaktivitäten durchgeführt werden sollte, um ein hohes Risiko und folglich die Verpflichtung zur Durchführung einer DSFA festzustellen. Der umfassende Artikel legt nicht nur die Pflichten des Verantwortlichen fest, sondern auch die Beteiligung des Datenschutzbeauftragten und die Pflichten der Datenschutzbehörde, die für die Festlegung spezifischer Fälle verantwortlich ist, in denen eine DSFA zwingend vorgeschrieben ist. Das brasilianische Gesetz behandelt dagegen das Thema der Folgenabschätzungen kürzer und erwähnt lediglich, dass die brasilianische Datenschutzbehörde (ANPD) eben diese von Verantwortlichen verlangen und ihren erforderlichen Inhalt festlegen kann. In Bezug auf diesen Punkt besagt Artikel 38 des LGPD:

Art. 38. Die nationale Behörde kann den Verantwortlichen anweisen, einen Folgenabschätzungsbericht zum Schutz personenbezogener Daten, einschließlich sensibler Daten, vorzulegen, bezüglich seiner Datenverarbeitungsaktivitäten in Übereinstimmung mit der spezifischen Bestimmung unter Beachtung industrieller Geheimhaltungsbestimmungen. Alleinstehender Paragraph. Der im Kopfteil dieses Artikels erwähnte Bericht muss mindestens eine Beschreibung der Arten gesammelter Daten, der angewandten Datensammlungs- und Informationssicherheitsmethoden und der Analyse des Verantwortlichen bezüglich der angewandten Maßnahmen, Sicherheitsvorkehrungen und Minderungsmechanismen enthalten.

Dagegen erklärt Artikel 35 (7) der DSGVO: Die Folgenabschätzung enthält zumindest Folgendes:

 

a) eine systematische Beschreibung der geplanten Verarbeitungsvorgänge und der Zwecke der Verarbeitung, gegebenenfalls einschließlich der von dem Verantwortlichen verfolgten berechtigten Interessen;

b) eine Bewertung der Notwendigkeit und Verhältnismäßigkeit der Verarbeitungsvorgänge in Bezug auf den Zweck;

c) eine Bewertung der Risiken für die Rechte und Freiheiten der betroffenen Personen gemäß Absatz 1 und

d) die zur Bewältigung der Risiken geplanten Abhilfemaßnahmen, einschließlich Garantien, Sicherheitsvorkehrungen und Verfahren, durch die der Schutz personenbezogener Daten sichergestellt und der Nachweis dafür erbracht wird, dass diese Verordnung eingehalten wird, wobei den Rechten und berechtigten Interessen der betroffenen Personen und sonstiger Betroffener Rechnung getragen wird.

 

Wie bei vielen anderen Themen entschied sich das brasilianische Gesetz, die Einzelheiten der DSFA-Verordnung der ANPD zu überlassen. Dabei wird es zum Beispiel um die Entscheidung gehen, welche Repräsentanten verpflichtet sein werden, DSFA durchzuführen und unter welchen Umständen. Das wird durch mindestens zwei Gesetzespunkte bestärkt: Artikel 55-J, XIII und XVIII. Ersterer erklärt, dass die nationale Behörde über die Kompetenz verfügt, Bestimmungen im Detail zu klären und Verfahren für die DSFAs in Fällen festzulegen, in denen ein hohes Risiko für die gesetzlich garantierten Grundsätze und Rechte besteht. Letzterer besagt, dass es in den Zuständigkeitsbereich der Behörde fällt, besondere und vereinfachte Verfahren für kleine und neu gegründete Unternehmen vorzugeben. Ein weiterer wichtiger Unterschied zwischen den europäischen und brasilianischen Bestimmungen bezieht sich auf die automatisierte Verarbeitung von Daten. In der DSGVO hat die betroffene Person das Recht, in automatisierte Entscheidungsfindungsprozesse, einschließlich Profiling, nicht einbezogen zu werden. Dieses Recht unterliegt den folgenden drei Ausnahmen: Art 22 Abs 2: Absatz 1 gilt nicht, wenn die Entscheidung:

 

a) für den Abschluss oder die Erfüllung eines Vertrags zwischen der betroffenen Person und dem Verantwortlichen erforderlich ist,

b) aufgrund von Rechtsvorschriften der Union oder der Mitgliedstaaten, denen der Verantwortliche unterliegt, zulässig ist und diese Rechtsvorschriften angemessene Maßnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person enthalten oder

c) mit ausdrücklicher Einwilligung der betroffenen Person erfolgt.

 

Falls jedoch eine der Ausnahmen anwendbar ist, garantiert die europäische Verordnung der betroffenen Person das „Recht auf Erwirkung des Eingreifens einer Person seitens des Verantwortlichen, auf Darlegung des eigenen Standpunkts und auf Anfechtung der Entscheidung“ (Art. 22 (3)). Wenn das brasilianische LGPD in seiner ursprünglichen Form verabschiedet worden wäre, hätte es eine ähnliche Bestimmung enthalten. Das Gesetz wurde jedoch mittels eines Erlasses des Präsidenten modifiziert, sodass Artikel 20 in seiner gegenwärtigen Form nur das Recht auf eine „Prüfung“ automatisierter Entscheidungen garantiert. Demzufolge braucht diese Prüfung nicht durch einen menschlichen Bearbeiter zu erfolgen. Wichtig ist ein abschließender Hinweis auf eine spezifische Erwägung bezüglich der Verarbeitung personenbezogener Daten zu politischen Einstellungen durch Parteien bei Wahlkampfaktivitäten. Diese Verarbeitung, die wie oben erklärt unter den von den Gesetzen festgelegten Schutz und die festgelegten Einschränkungen fallen würde, wird von Erwägungsgrund 56 der DSGVO interpretiert, der eine lockerere Verarbeitung auf der Grundlage öffentlichen Interesses gestattet. Nichtsdestotrotz sollte diese Möglichkeit sorgfältig beachtet werden, um sicherzustellen, dass die Verarbeitung politischer Einstellungen durch politische Parteien im Sinn des Gesetzes erfolgt. Politische Einstellungen sind von Artikel 9 der DSGVO als besondere Kategorie personenbezogener Daten eingestuft, die einen stärkeren Schutz verdienen. Ihre Verarbeitung ist ausdrücklich untersagt (Art. 9 (1)) und nur in außerordentlichen Fällen zulässig (Art. 9 (2)). Das brasilianische Gesetz hat kein Äquivalent zu Erwägungsgründen und keinen ausdrücklichen Verweis auf die Verarbeitung politischer Einstellungen, mit Ausnahme ihrer Kategorisierung als sensible personenbezogene Daten, dem Äquivalent zu Daten einer besonderen Kategorie in der DSGVO. Dieser offensichtliche Widerspruch wird im nächsten Abschnitt untersucht, in dem wir die Implementierung diskutieren, um einen wirksamen demokratischen Prozess bei Wahlen in Bezug auf den Schutz personenbezogener Daten zu gewährleisten.

Zuvor ist es nichtsdestotrotz wichtig, hervorzuheben, dass es beim Vergleich der Qualität der europäischen Verordnung mit dem brasilianischen Gesetz keine eindeutige Antwort gibt. Das brasilianische Gesetz ist im Allgemeinen flexibler als die DSGVO und diese Flexibilität zeigt sich, wenn man die Anzahl von Rechtsgrundlagen für Verarbeitungsaktivitäten, das Meldesystem nach einer Verletzung des Schutzes, die Höhe der Verwaltungsstrafgelder usw. betrachtet. Das könnte auf der einen Seite als positiver Faktor angesehen werden, da es der Branche mehr Raum zur Anpassung an die Bestimmungen gibt. Auf der anderen Seite könnte dieser Grad von Flexibilität jedoch zu einer Unwirksamkeit des Gesetzes führen, da die für die Verantwortlichen festgelegten Parameter zu subjektiv und die Bestimmungen nicht starr genug sind, um eindeutige Grenzen festzulegen. Zusätzlich legt sie den Datenschutzbehörden eine noch größere Verantwortung auf. In dieser Angelegenheit ist die nationale Behörde in Brasilien im Gegensatz zu den Datenschutzbehörden in der EU weder unabhängig noch autonom, da sie der Präsidentschaft der Republik untersteht.

Außerdem steht die Auslegung ihrer Struktur und Körperschaft noch aus. Wenn man die Bedeutung der Datenschutzbehörde bei der Gewährleistung der Wirksamkeit des Gesetzes und der Bereitstellung spezifischer Bestimmungen zu seiner Ergänzung berücksichtigt, führen alle diese Elemente zu Ungewissheit bezüglich der Erfüllung und Wirksamkeit des Datenschutzszenarios in Brasilien. Trotz ihrer Ähnlichkeit mit dem LGDP ist die DSGVO bewusst geradliniger und objektiver bezüglich der Regulierung des Datenschutzes. Dies ist wiederum Grund zu Lob und Kritik. Einerseits schafft ihre Starrheit ein Klima der Rechtssicherheit, das durch hohe Parameter des Schutzes grundlegender Rechte geprägt ist. Da diese einen kontrollierteren Raum für Ermessensentscheidungen der Aufsichtsbehörden bieten, ist es einfacher, eine harmonisierte Anwendung des Gesetzes innerhalb der Europäischen Union zu erzielen. Andererseits könnte die Verordnung bei ihrem Unterfangen, solche Parameter festzulegen, undurchführbare Bestimmungen enthalten, wie beispielsweise die in Art. 33 vorgegebene Bestimmung, die einen Teil ihrer Glaubwürdigkeit rauben könnte, indem sie den Verantwortlichen eine übermäßige Belastung auflegt und unnötige Kosten verursacht. Deshalb sollte angesichts der Ähnlichkeiten und Unterschiede im Ansatz beider Gesetzeswerke, die positive und negative Kommentare hervorrufen könnten, die Frage nicht die sein, welches Gesetz bessere Bestimmungen umfasst, da dies subjektiv sein kann, sondern wie Compliance und Verantwortlichkeit in beiden Szenarios garantiert werden können. Daran anknüpfend ist das nächste Kapitel einer praktischen Analyse und Aufführung der zu diesem Zweck einzuleitenden Schritte gewidmet.

 

Zur einfacheren Lesbarkeit wurden die Referenzverweise entfernt.  

 

Eduardo Magrani, Konrad Adenauer-Stiftung; 12.11.2020

https://www.kas.de/de/einzeltitel/-/content/das-hacken-der-waehlerschaft

https://creativecommons.org/licenses/by-sa/4.0/legalcode.de

 

 

Enisa.europa.eu; PM, BOW; 20.10.2020

https://www.enisa.europa.eu/news/enisa-news/enisa-threat-landscape-2020

 

cyber security

 

Cybersecurity


Schutz vor Cyber-Bedrohungen

Reagieren auch Sie früh genug und richtig auf die massiv zunehmenden Cyber-Bedrohungen und -Angriffe. Schützen Sie Ihr Unternehmen. Schützen Sie Ihre Informationen.

Kontaktieren Sie uns und überzeugen Sie sich von unserem Know-how im Bereich der Cybersecurity.

Wir beraten Sie gerne und unverbindlich. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

01/2021

 

Die Nutzung personenbezogener Daten in politischen Kampagnen Steigerung der Wirksamkeit und Schließen der Lücken

 

Die Bedeutung der Pflege der Datenhygiene und Beachtung der Bestimmungen bei politischen Kampagnen hat viele Aspekte. Vom Blickpunkt der demokratischen Institutionen betrachtet, ist sie, wie zuvor erörtert, eine Voraussetzung für gesunde Wahlprozesse. In einem Zeitalter der allgegenwärtigen Verbindung und des sofortigen wahllosen Austauschs von Daten können Ideen und Überzeugungen von Online- Filtern geformt werden und wird der öffentliche Raum zwangsläufig mit neuen Informations- und Kommunikationstechnologien überschwemmt. Deren fehlerhafte Funktion, die auf echte Fehler oder ein strukturell mangelhaftes System zurückzuführen sein kann, könnte die Fähigkeit von Personen, einen Konsens und Mittelweg auf eine friedliche und ausgewogene Weise zu finden, kompromittieren, wie kürzlich durch die Einmischung in Wahlprozesse in unterschiedlichen Teilen der Welt offensichtlich wurde. Vom Standpunkt der Datenverantwortlichen und, in diesem spezifischen Fall, der politischen Parteien und Politiker gesehen, stellt die präzise Beachtung der Regeln nicht nur eine gesetzliche Verpflichtung dar, sondern sollte sich als grundlegende Anforderung an die Darstellung der eigenen Person bzw. Partei gegenüber der Gesellschaft als ethische Person bzw. Partei erweisen, die Aufmerksamkeit, Vertrauen und damit die Stimme der Wähler verdient. Das trifft noch stärker zu, wenn man die jüngsten Fälle berücksichtigt, bei denen Datenverarbeitungstechniken auf politische Kampagnen angewandt wurden, zum Beispiel im Fall von CA und des Einsatzes von WhatsApp bei den Wahlen in Brasilien, und die das Problem in den Vordergrund und die Aufmerksamkeit der Wählerschaft auf dasselbe gelenkt haben. Die Nichtachtung der Privatsphäre von Menschen sowie ihres Rechts auf Datenschutz und Selbstbestimmung im Hinblick auf Informationen sollte sich für das Marketingimage und das öffentliche Image zunehmend als unentschuldbar herausstellen, insbesondere da sich eine zunehmende Anzahl von Menschen dieser Probleme bewusst wird. Kandidaten und politische Parteien sollten in Bezug auf die Verarbeitung von Daten für ihre Kampagnen bei Wahlprozessen Sorgfalt walten lassen und nach den besten aktuellen Praktiken suchen – nicht nur in ihrem eigenen Interesse, sondern auch im Interesse von betroffenen Personen und der Gesellschaft in ihrer Gesamtheit. Aufgrund der Natur dieser Prozesse wird es sich bei vielen der von ihnen behandelten personenbezogenen Daten, die entweder von ihnen direkt gesammelt oder mittels Analyse- und Profiling-Techniken erschlossen werden, um sensible Daten handeln – eine besondere Kategorie von Daten, die besonderen Schutz verdienen. Es ist nicht nur wichtig, die Beachtung von Rechten und Grundsätzen im Interesse der betroffenen Personen unter Beachtung des Rechtsstaatsprinzips zu garantieren, sondern es ist auch wesentlich, insbesondere in Bezug auf politische Kampagnen, bei denen das öffentliche Image einen zentralen Bestandteil darstellt, demonstrieren zu können, dass Privatsphäre und Datenschutz auf eine ethisch und rechtlich absolut einwandfreie Weise beachtet werden. Die Zunahme der Datenverstöße erreichte 2019 ihren Höhepunkt mit 5.183 Datenverstößen und 7,9 Milliarden offengelegten Datensätzen in den ersten neun Monaten des Jahres. Das bedeutet eine 33,3-prozentige Steigerung im Vergleich zu 2018. Falls dies eine Andeutung auf zukünftige Trends darstellt, sollte die Datensicherheit eines der Hauptbedenken bei allen Aktivitäten zur Verarbeitung personenbezogener Daten sein. Strafgelder für Datenverstöße können Dutzende Millionen US-Dollar ausmachen sowie die Aussetzung oder den Ausschluss von Vermögenswerten einschließen. Zur Verhinderung solcher Verluste muss der Verantwortliche die neuesten Sicherheitsstandards anwenden. Wichtige Schritte umfassen zum Beispiel die ordnungsgemäße Schulung aller an der Verarbeitung beteiligten Personen sowie die Verringerung der Anzahl von Personen mit Zugang zu personenbezogenen Daten. Eine aus mehreren Faktoren bestehende Zugangsberechtigung ist ebenfalls eine grundlegende Anforderung, da sie in der Lage ist, die Verwundbarkeit des Systems drastisch zu reduzieren. Weitere Schritte in Richtung auf eine gesteigerte Sicherheit sind die Verringerung der Anzahl von Geräten, auf denen die Daten gespeichert sind, und die Reduzierung der Datenübertragung zwischen Geräten. Verantwortliche können und sollten diese Schritte einleiten, vorzugsweise durch einen Chief Information Security Officer (CISO), bei dem es sich nicht um dieselbe Person wie den Datenschutzbeauftragten handeln sollte. Letzterer spielt eine führende Rolle bei der Gewährleistung, dass dieses gesamte System funktioniert. Er ist dafür verantwortlich, die Beachtung der Datenschutzgesetzgebung zu verfolgen. Das bedeutet, Informationen über die Stellen zu sammeln, an denen Daten verarbeitet werden, und sicherzustellen, dass dabei alle gesetzlichen Anforderungen erfüllt werden. Es bedeutet weiterhin, den Verantwortlichen auf der Grundlage der eigenen Beobachtungen in Bezug auf die Verbesserung der Compliance zu beraten, die Mitarbeiter im Hinblick auf Sicherheitsmaßnahmen und gute Praktiken zu schulen sowie als Verbindungsglied zwischen der Organisation, der Behörde und den betroffenen Personen zu fungieren. Außerdem sollte der Datenschutzbeauftragte unabhängig sein, was schwierig sein kann, wenn er intern angestellt ist. Beste Praxis besagt, dass der Datenschutzbeauftragte nicht dem Verantwortlichen unterstellt, sondern stattdessen direkt der höchsten Ebene der Entscheidungsfindung in der Leitungsstruktur gegenüber verantwortlich sein sollte. Zur Garantie seiner Unabhängigkeit sollte er weiterhin über die notwendigen Ressourcen (Mitarbeiter, Geräte und Finanzmittel) verfügen, um seine Pflichten ausüben zu können. Abschließend sollte er nicht in eine Position gebracht werden, in der ein Interessenkonflikt besteht, zum Beispiel indem er in IT- oder Personalabteilungen an den Datenverarbeitungsaktivitäten arbeitet oder gearbeitet hat, was hieße, dass er zur Selbstaufsicht gezwungen wäre.

 

Diese Probleme können durch die Anstellung eines externen Datenschutzbeauftragten vermieden werden. Selbst dann ist es jedoch wichtig, dass der Datenschutzbeauftragte den notwendigen Zugang und die notwendigen Ressourcen sowie die erforderlichen technischen Kenntnisse hat. Alle diese Punkte sind Bausteine einer Datenverarbeitungs- und -sicherheitsstrategie, die mit einer einfachen Bewertung des Datenflusses durch die Betriebsabläufe und der aktuellen diesbezüglichen Risiken beginnt. Zur Gewährleistung der Beachtung der DSGVO und folglich des LGPD (da beide sehr ähnliche Datenschutzgrade aufweisen), sollten sich politische Parteien und Kandidaten mit den aktuellen besten Managementpraktiken und -werkzeugen in Bezug auf Datenflüsse auskennen. Ein Verantwortlicher sollte in der Lage sein, die Flüsse personenbezogener Daten in seiner Kampagne aus der Vogelperspektive zu betrachten, vorzugsweise mithilfe einer Compliance-Tafel, die von allen beteiligten Verantwortlichen und Auftragsverarbeitern zu verwenden ist. Dieses zentralisierte Datenverwaltungssystem sollte außerdem die Kontaktangaben aufweisen und den Datenschutzbeauftragten in der Kampagnenstruktur sowie eine vollständige Zuordnung und Steuerung der verarbeiteten und übertragenen Daten und ihren zugehörigen rechtmäßigen Zweck zeigen. Weiterhin sind die Mitteilungspflichten des Verantwortlichen nach DSGVO und LGPD zu bedenken, einschließlich der (i) Identität und Kontaktangaben des Verantwortlichen und Datenschutzbeauftragten; (ii) der Identifizierung oder Kategorisierung der Empfänger der Daten; (iii) der Zielsetzungen der Verarbeitung sowie ihrer Rechtsgrundlage; (iv) der Dauer der Verarbeitung (v) sowie der Rechte der betroffenen Personen – insbesondere gegebenenfalls der Berichtigung und des Widerrufs der Einwilligung usw. Zusätzlich sollten Verantwortliche in der Lage sein, die Anträge betroffener Personen auf Zugang zu ihren Daten zeitgerecht zu bearbeiten. Diese Anträge stellen Fälle dar, in denen betroffene Personen Zugang zu ihren Daten, die Berichtigung derselben und manchmal auch deren Löschung verlangen könnten. Der Verantwortliche sollte außerdem Maßnahmen zur Pflege von „Brotkrumen zur digitalen Einwilligung“ einleiten, d. h. ein Verzeichnis der Zeitachse der Einwilligung oder bestimmter Einwilligungen für die Verarbeitung, die eine betroffene Person gegeben bzw. widerrufen hat. Abschließend sollten Genehmigung und Zugangskontrolle granular sein, was bedeutet, dass nur die unverzichtbaren Bearbeiter innerhalb der Kampagnenstruktur Zugang zu den entsprechenden Datengruppen haben sollten. Alle diese Aspekte der Beziehung zwischen dem Auftragsverarbeiter und der betroffenen Person sollten durch einfach zu verwendende Schnittstellen wie beispielsweise Apps und Formulare umgesetzt werden, sodass die betroffene Person ihre Rechte umfassend verstehen kann und der Verantwortliche in der Lage ist, Compliance nachzuweisen. All dies könnte sich nach erheblicher Arbeit anhören, und diese Einschätzung ist richtig. Glücklicherweise gibt es abgesehen von fähigen Fachleuten, die Unternehmen beim Aufbau von Compliance unterstützen können, zurzeit Werkzeuge zur Selbstbewertung bezüglich der DSGVO-Compliance, die sich leicht auf die Anforderungen des LGPD anpassen lassen sollten. Das britische Information Commissioner’s Office (ICO, die britische Datenschutzbehörde) bietet zum Beispiel zahlreiche spezifische Ressourcen einschließlich Compliance-Checklisten für Verantwortliche, Auftragsverarbeiter, Informationssicherheits-, Direktmarketing-, kleine und mittelständische Unternehmen usw. an. Ein weiteres unbezahlbares Werkzeug ist der Privacy Notice Code des ICO, der im Einzelnen behandelt, wie die auf Webseiten und in Apps anzutreffende Datenschutzerklärung (Privacy Notice), eines der am häufigsten für die Kommunikation zwischen dem Verantwortlichen und der betroffenen Person verwendeten Werkzeuge, zur Gewährleistung von Compliance strukturiert sein sollte. Ein kurzer Überblick über diese Werkzeuge zeigt, dass der wesentliche Punkt eines wirksamen Compliance-Programms für die Verarbeitung personenbezogener Daten darin besteht, die an einem Betriebsablauf beteiligten Prozesse zu kennen: das Was, Wo, Wann und Wie der Sammlung und Verarbeitung personenbezogener Daten. Dies sollte bei politischen Kampagnen nicht anders sein: Ein praktischer Ansatz ist notwendig, an dem Marketingfachleute, Designer, Rechtsexperten, Programmierer und ehrenamtliche Helfer beteiligt sind und daran arbeiten, wie betroffene Personen am besten gegen mögliche Verletzungen ihrer Rechte auf Privatsphäre und Datenschutz geschützt werden können. Diese Studie hat durch das Hervorheben spezifischer rechtlicher Leitfäden und konkreter Situationen gezeigt, dass Datenschutzbestimmungen vollständig auf politische Kampagnen anwendbar sind und die Fähigkeit haben, die Verringerung der instrumentalen Verwendung personenbezogener Daten zu unterstützen, während sie gleichzeitig die Auswirkungen des Einsatzes von Falschinformation und computergestützter Propaganda zum Zweck der politischen Manipulation vermeiden. Pragmatischer betrachtet sollten politische Kampagnen zumindest die folgenden Empfehlungen auf der Basis der Grundsätze und wichtigsten Leitfäden allgemeiner Datenschutzbestimmungen beachten, wobei stets der Blickwinkel von Gesetzmäßigkeit, Fairness, Transparenz und Verantwortlichkeit zu wahren ist:  

Stellen Sie die relevanten Akteure fest: Welche Personen sind Verantwortliche und Auftragsverarbeiter und wer ist der Datenschutzbeauftragte (falls vorhanden)?

Art. 5 LGPD; Art. 4 DSGVO. Beispiel: Der Kandidat hat in einer bestimmten politischen Kampagne ein Marketingunternehmen zum Management seines öffentlichen Images angestellt. Alle Entscheidungen bezüglich der Sammlung und Verarbeitung von Daten werden vom Marketingdirektor getroffen. Der Direktor kann als Datenverantwortlicher charakterisiert werden, da er über die Zwecke der Verarbeitung entscheiden kann. Der Kandidat wäre ebenfalls ein Verantwortlicher, da er der Entscheidungsträger in letzter Instanz ist. Stellen Sie fest, wie die Daten gesammelt und verarbeitet werden, d. h. welchen Lebenszyklus die Daten im Organisationsfluss der Kampagne haben. Maßnahme: Stellen Sie alle Datensammlungs- und -verarbeitungspunkte fest.

 

Stellen Sie fest, wie viel Zeit vergeht, bis ein einzelner Datenpunkt eliminiert wird. Identifizieren Sie die zur Datenspeicherung verwendeten Geräte bzw. Dienste. Identifizieren Sie, welche Drittparteien Zugang zu den Daten haben.

Stellen Sie fest, welche Daten auf welcher Rechtsgrundlage gesammelt und verarbeitet werden. Legen Sie sensible Daten fest und achten Sie besonders auf deren Rechtsgrundlagen.

Art. 5, I, II; Art. 7, Art. 11 LGPD; Art. 4, Art. 9 DSGVO. Maßnahme: Falls es Datenpunkte gibt, für die keine Rechtsgrundlage bestimmt werden kann, sollten diese eliminiert werden, da sie eine Bürde darstellen. Hierbei handelt es sich um grundlegende „Datenhygiene“.

Denken Sie daran, dass Datenminimierung eine gute allgemeine Regel (und ein Grundsatz) ist. Falls keine Notwendigkeit besteht, einen bestimmten Aspekt personenbezogener Daten zu sammeln, sehen Sie von seiner Erfassung ab. Wenn der Zweck der Sammlung erfüllt worden ist, löschen Sie die Daten.

Art. 15, Art. 16 LGDP; Art. 5, Art. 25 DSGVO. Maßnahme: Falls keine Notwendigkeit besteht, einen bestimmten Aspekt personenbezogener Daten zu sammeln, sehen Sie von seiner Sammlung ab. Wenn der Zweck der Sammlung erfüllt worden ist, löschen Sie die Daten. Beispiel: Der Kandidat sammelt Daten von betroffenen Personen, um ihnen eine digitale Kopie des Regierungsplans zu schicken. Falls die Einwilligung strikt zur Verbreitung des besagten Materials gegeben wird:

 

1. braucht der Kandidat keine weiteren Daten als den Namen und die E-Mail-Adresse der betroffenen Person zu sammeln und sollte die Sammlung auf diese Angaben beschränken;

2. sollte der Kandidat die Daten nach dem Versand des Materials löschen, sofern keine angemessene anderweitige Erwartung auf sonstigen Rechtsgrundlagen bzw. mittels einer neuen spezifischen Einwilligung besteht.

 

Lassen Sie die gesamte Dokumentation zu Rechtsgrundlagen archivieren.

Beispiel: Der Kandidat hat Daten gesammelt und verarbeitet, um eine Aufzeichnung einzelner Kampagnenspenden nach dem brasilianischen Wahlgesetz zu führen. Der Kandidat sollte eine Aufzeichnung solcher Betriebsabläufe mit Verweis auf die relevanten Gesetze und Rechtsgrundlagen führen, um auf eine mögliche Prüfung vorbereitet zu sein.

Erneuern Sie die bestehende Einwilligung in Übereinstimmung mit den aktuellsten Datenschutzbestimmungen.

Maßnahme: Falls ein neuer Text für die Datenschutzerklärung vorliegt oder Daten betroffener Personen vor Einführung der DSGVO bzw. des LGPD gesammelt wurden, holen Sie eine neue Einwilligung ein oder benachrichtigen Sie die betroffenen Personen über die neue Datenschutzerklärung und Rechtsgrundlage. Beispiel: Der Kandidat hat bereits eine Kontaktliste im Rahmen von öffentlichen Veranstaltungen und mithilfe eines Webseitenabonnementformulars vor Einführung der DSGVO bzw. des LGPD gesammelt. Er sollte allen Empfängern eine Bitte um Bestätigung ihrer Einwilligung zum Erhalt von politischer Kommunikation schicken. Die Mitteilung könnte zum Beispiel wie folgt lauten: „Wir aktualisieren unsere Datenschutzpraktiken im Einklang mit den jüngsten Datenschutzbestimmungen. Falls Sie unseren Inhalt weiterhin erhalten möchten, klicken Sie bitte auf die folgende Schaltfläche/erneuern Sie Ihr Abonnement bitte auf/[Fügen Sie eine Form der Bestätigung hinzu].“

Geben Sie Informationen an: Denken Sie an die verschiedenen Informationspflichten, die ein Verantwortlicher gegenüber der betroffenen Person hat. Die betroffene Person sollte in der Lage sein festzustellen, welche personenbezogenen Daten gesammelt werden, zu welchem Zweck, über welchen Zeitraum, wer Zugang zu ihnen hat, welcher Prozess zur Beantragung von Zugang zu den Daten verwendet wird, sowie zu ihrer Berichtigung, zur Beantragung ihrer Löschung oder ihrer Übertragung an einen anderen Verantwortlichen usw.

Art. 9, Art. 18 LGPD; Art. 13, Art. 14 DSGVO. Maßnahme: Falls die Einwilligung die Rechtsgrundlage darstellt, sollten alle relevanten Informationen im Rahmen der Einwilligungsabgabe bereitgestellt werden. Bei sonstigen Rechtsgrundlagen sollte die betroffene Person einfachen Zugang zu solchen Informationen mittels Antrag oder öffentlichem Zugang (z. B. auf einer Webseite) haben. Falls Daten durch sonstige Mittel, d. h. nicht direkt von der betroffenen Person, gesammelt werden (z. B. öffentlich verfügbare Daten), hat der Verantwortliche eine Reihe von Informationspflichten (siehe relevante DSGVO-Artikel).

Führen Sie eine Aufzeichnung der Verarbeitungsaktivitäten, insbesondere falls berechtigtes Interesse die Rechtsgrundlage darstellt (Art. 30 DSGVO; Art. 37 LGDP). Halten Sie gegebenenfalls eine DSFA bzw. ein LIA bereit.

Art. 37 LGPD; Art. 30 DSGVO. Maßnahme: Führen Sie ein Verzeichnis mit folgendem Mindestinhalt: 1. Zweck der Verarbeitung; 2. Beschreibung der Datenkategorien und betroffenen Personen; 3. externe Datenflüsse; 4. angewendete Sicherheitsmaßnahmen; 5. Namen und Kontaktdaten des Verantwortlichen; 6. vorgesehene Fristen für die Löschung jeder Datenkategorie. Beispiel: Eine kleine Kampagne für eine lokale Wahl hat einen Organisationsfluss angewendet, um ein Verzeichnis von Datenverarbeitungsaktivitäten zu führen. Alle über betroffene Personen gesammelten Informationen werden in einer Tabelle mit Kategorien entsprechend der Datenquelle aufgezeichnet. Zum Beispiel werden Daten aus Abonnementformularen entsprechend der Vereinbarung zum Zeitpunkt der Einwilligung als einwilligungsbasierte Daten kategorisiert, enthalten den Namen und die E-Mail-Adresse, werden an den Newsletter- Dienst eines Dritten geschickt, auf einem mit Zwei-Faktor-Berechtigung geschützten, restriktierten Cloud Server gespeichert und auf unbestimmte Zeit aufbewahrt.

Teilen Sie den betroffenen Personen mit, wer ihr Datenschutzbeauftragter ist (falls zutreffend), und bieten Sie ihnen einen einfachen Kommunikationskanal für Anträge auf Zugang durch betroffene Personen.

Art. 18 LGDP; Art. 12 DSGVO. Beispiel: Eine Kampagne hat auf ihrer Webseite ein Kontaktformular mit direkter Verbindung zum Datenschutzbeauftragten eingerichtet. Es enthält außerdem spezifische Felder für Zugangsanträge von betroffenen Personen, die mit Vorrang bearbeitet werden. Vergewissern Sie sich, dass Sprache und Auslegung Ihrer Plattformen geeignet sind, das bestmögliche Verständnis für betroffene Personen zu gewährleisten. Maßnahme: Verwenden Sie angemessene Typografie (Größe, Farbe, Kontrast, Schrift usw.), Sprache, Bildsymbole, Illustrationen und sonstige Mittel zur Gewährleistung des optimalen Verständnisses unter Berücksichtigung der spezifischen Fähigkeiten der Leser. Beispiel: Eine Kampagne hat ein Team aus Rechtsfachleuten, Marketingfachleuten und Webdesignern angestellt, die gemeinsam an der Erstellung eines Datenschutzdokuments arbeiten werden, das nicht nur die geforderte Rechtssprache, sondern auch vereinfachten erklärenden Inhalt enthält, den Nichtjuristen verstehen können. Benachrichtigen Sie Nutzer über ihre Datenschutzrichtlinien und mögliche Aktualisierungen. Maßnahme: Benachrichtigen Sie Personen über die Verarbeitung ihrer Daten, einschließlich Übertragungen an Dritte, unter Angabe dieser Dritten oder zumindest ihrer Kategorien und des Zeitraums der Verwahrung der Daten. Maßnahme: Seien Sie möglichst spezifisch, da allgemeine Genehmigungen von keinem der beiden Gesetze anerkannt werden. Beispiel: Eine Kampagne hat sich entschlossen, Google Analytics auf ihrer Webseite zu verwenden. Außerdem hat sie die Webseite unter Verwendung eines Webseitenbaukastens wie Wix oder Squarespace gebaut. Alle diese Plattformen sammeln Nutzerdaten, was den betroffenen Personen gegenüber erwähnt werden sollte.

Verwalten Sie den Inhalt: Falls die Einwilligung die Rechtsgrundlage darstellt, vergewissern Sie sich, dass sie unter angemessenen Bedingungen erteilt wird. Das erfordert einen multidisziplinären Ansatz von der Rechtsabteilung bis zu IT und Design, um sicherzustellen, dass die Einwilligung freiwillig erteilt wird sowie spezifisch, informiert und unmissverständlich ist.

Maßnahme: Erbitten Sie ausdrücklich die Genehmigung zur Sammlung von Cookies und sonstigen identifizierenden Informationen (ausgenommen in Fällen, in denen eine andere angemessene Rechtsgrundlage für die Sammlung besteht). Beispiel: Der Kandidat hat ein Abonnementformular für einen politischen Newsletter auf seiner Kampagnenwebseite und seine Webseite sammelt Cookies. Die Webseite hat ein vormarkiertes Kästchen, das die Einwilligung zum Erhalt des Newsletter anzeigt. Das wird nicht als gültige Einwilligung betrachtet, und das Kästchen sollte nicht vormarkiert sein. Außerdem weist die Webseite eine Cookie-Erklärung auf, die besagt, dass die „Einwilligung bei Verwendung dieser Webseite als gegeben betrachtet wird“. Das wird gleichfalls nicht als gültige Einwilligung betrachtet. Beste Praxis wäre eine informative Haftungsfreistellung, die dem Nutzer gestattet zu wählen, welche Arten von Cookies er zulassen möchte, und die erklärt, welche Cookies für das ordnungsgemäße Funktionieren der Webseite notwendig sind und welche die aktive Einwilligung des Nutzers erfordern, d. h. eine Handlung, die seine Einwilligung widerspiegelt.

Achten Sie besonders auf die Daten von Kindern und Daten einer besonderen Kategorie (sensible Daten), die strengeren Bestimmungen unterliegen.

Art. 11, Art. 14 LGPD; Art. 8, Art. 9 DSGVO. Maßnahme: Die Einwilligung sollte spezifisch und hervorgehoben sein und, im Fall von Kindern, von den Eltern oder gesetzlichen Vertretern gegeben werden. (Die DSGVO enthält altersspezifische Regelungen. Siehe den relevanten Artikel.)

 

Die Rechtsgrundlagen für die Verarbeitung sensibler Daten sind einschränkender (siehe relevante Artikel).

Beachten Sie die Datenübertragbarkeit: Vergewissern Sie sich, dass die Daten in einem Format vorliegen, welches ihre Übertragbarkeit gestattet. Hierbei handelt es sich um ein Recht der betroffenen Person sowohl im LGPD als auch in der DSGVO. Die betroffene Person sollte in der Lage sein, ihre Daten „in einem strukturierten, gängigen und maschinenlesbaren Format zu erhalten, und sie hat das Recht, diese Daten einem anderen Verantwortlichen ohne Behinderung durch den Verantwortlichen, dem die personenbezogenen Daten bereitgestellt wurden, zu übermitteln“ (Art. 20 DSGVO).

Art. 18 LGDP; Art. 20 DSGVO.

Definieren Sie die Pflichten des Auftragsverarbeiters: Alle von einem Verantwortlichen beauftragten oder ernannten Auftragsverarbeiter sollten einen Datenverarbeitungsvertrag haben, der ihre Verantwortlichkeiten, die Sicherheitsstandards und sonstige rechtliche Anforderungen festlegt.

Art. 28 DSGVO. Maßnahme: Setzen Sie einen Datenverarbeitungsvertrag auf, der die Verantwortlichkeiten und Sicherheitsstandards festlegt.

Stellen Sie sicher, dass Ihre Dienstanbieter Compliance gewährleisten sowie die Daten auf eine sichere Art und Weise verwalten und dass die Daten auf einem Server in einem Land gespeichert werden, das die aktuellsten Datenschutzbestimmungen beachtet.

Maßnahme: Prüfen Sie, ob die von diesen Dritten gehandhabten Daten in Ländern mit einem äquivalenten Status hinsichtlich des Datenschutzes gespeichert werden. Die EU hat ein System zur Einstufung der Gesetzgebung von Ländern als äquivalent oder nicht äquivalent eingerichtet. Maßnahme: Vergewissern Sie sich, dass Ihre Rechtsabteilung die Nutzungsbedingungen eines von Ihnen verwendeten Drittdienstes zur Verwaltung personenbezogener Daten sorgfältig studiert und ihre Compliance mit der DSGVO bzw. dem LGPD analysiert. Beispiel: Die Kampagne entscheidet sich für eine Datensammlung mithilfe von Google Analytics sowie die Lieferung von Werbung mit der Werbeplattform von Facebook, das Senden von E-Mails über Mailchimp und das Management interner Datenflüsse mithilfe einer technischen Lösung aus Indien. Die Kampagne muss sich vergewissern, dass jeder einzelne der obigen Dienstanbieter die Datenschutzgesetze beachtet, da sie Zugang (wenn auch nur vorübergehend) zu den gesammelten und verarbeiteten personenbezogenen Daten haben werden. Im Fall der technischen Lösung aus Indien sollte die Kampagne bei einer Speicherung der Daten auf einem Server in Indien bestätigen, dass die EU Indiens Compliance mit der DSGVO anerkannt hat. (Im Dezember 2019 war das Land dabei, diesen Status anzustreben, hatte ihn jedoch noch nicht erreicht.)

Managen Sie Verletzungen des Schutzes: Ein Prozess zur Feststellung von Verletzungen des Schutzes und zur Benachrichtigung der Aufsichtsbehörde und betroffenen Personen über Verletzungen des Schutzes sollte vorhanden sein.

Art. 48 LGPD; Art. 33 DSGVO. Maßnahme: Sicherheitsverstöße müssen der nationalen Aufsichtsbehörde unverzüglich gemeldet werden (nach DSGVO innerhalb von 72 Stunden). Nur das LGPD schreibt die Benachrichtigung der betroffenen Personen vor, während eine solche Benachrichtigung in der DSGVO nur notwendig ist, wenn ein erhebliches Risiko für die Rechte und Freiheiten der betroffenen Personen besteht. Beispiel: Die Kampagne hat eine Sicherheitsabteilung, die dafür zuständig ist, Fehler und Mängel im Design und in den Funktionen aller Datenverarbeitungsaktivitäten zu finden. Sie hat außerdem das gesamte relevante Personal dahingehend geschult, wie es auf eine Verletzung des Schutzes zu reagieren hat, einschließlich den an die Aufsichtsbehörde über entsprechende Kanäle zu meldenden Informationen und der Kommunikation mit der Öffentlichkeit. Managen Sie Sicherheitsrisiken: Art. 46 LGPD; Art. 32 DSGVO. Maßnahmen: Minimieren Sie die Übertragung von Daten zwischen Geräten. Verschlüsseln, pseudonymisieren oder anonymisieren Sie die Daten nach Möglichkeit. Richten Sie interne Sicherheitsleitlinien ein, schulen Sie die Teammitglieder zu Sicherheitsfragen, legen Sie vorgeschriebene Passwortsicherheitsrichtlinien fest und betreiben Sie eine aus mehreren Faktoren bestehende Berechtigungsprüfung. Führen Sie eine Risikobewertung der zur Sammlung, Verarbeitung und Speicherung der Daten verwendeten Infrastruktur durch. Compliance als Prozess: Datenschutz hört nicht auf, wenn ein Verantwortlicher eine DSFA schreibt oder den betroffenen Personen Informationen über die Datenschutzrichtlinien der Organisation bereitstellt. Der Datenschutz sollte fortlaufend überwacht, geprüft, aktualisiert und an die Datenverarbeitungskontexte sowie die jüngsten technologischen Fortschritte angepasst werden. Diese obigen Punkte sind alle ausführbar und an Datenverantwortliche und Verarbeitungsabläufe gerichtet. Ein vollständiges Datenschutzparadigma kann jedoch nur durch die Beteiligung vieler Akteure erreicht werden. Dies bedeutet eine sorgfältige Regulierung und Führung durch nationale Aufsichtsbehörden, insbesondere im Fall von Brasilien, wo das Gesetz viele Punkte dem Ermessen der Datenschutzbehörde überließ, die über Sicherheitsstandards sowie Fälle, in denen eine DSFA notwendig ist, und besondere Bestimmungen für kleine und mittelständische Unternehmen usw. entscheiden wird. Es bedeutet außerdem eine aktive Anstrengung seitens der Judikative zur Abstimmung ihres Verständnisses an die Grundsätze und den Sinn des Gesetzes sowie zur Interpretation schwieriger Fälle und der Erfüllung dieser Grundsätze mit Leben unter Berücksichtigung des Schutzes der betroffenen Personen. Diese Anstrengungen, den Bestimmungen die nötige Substanz zu geben, haben in Europa bereits begonnen, und in Bezug auf politische Kampagnen ist es interessant, die rechtlichen Debatten zu beobachten, die unmittelbar nach dem Inkrafttreten der DSGVO bezüglich des Erwägungsgrunds Nr. 56 zur Verordnung entstanden sind. Der Erwägungsgrund lieferte eine Interpretation bezüglich der Verarbeitung personenbezogener Daten im Zusammenhang mit Wahlen. Dort lautet es wie folgt:

Wenn es in einem Mitgliedstaat das Funktionieren des demokratischen Systems erfordert, dass die politischen Parteien im Zusammenhang mit Wahlen personenbezogene Daten über die politische Einstellung von Personen sammeln, kann die Verarbeitung derartiger Daten aus Gründen des öffentlichen Interesses zugelassen werden, sofern geeignete Garantien vorgesehen werden.

Die darauffolgenden legislativen Anstrengungen in einigen Mitgliedstaaten unter Berücksichtigung des Erwägungsgrunds führten zu einer Diskussion über die Grenzen einer Verarbeitung in solchen Fällen. Spanien und Rumänien führten Grundlagen für die Verarbeitung personenbezogener Daten bei Wahlkampagnen in ihre nationale Gesetzgebung ein, die auf der Interpretation des öffentlichen Interesses gegründet sind. In Rumänien bedeutete das eine Ausnahme bezüglich der Einwilligung zur Verarbeitung personenbezogener Daten zu Wahlzwecken. Sie gestattete zum Beispiel der rumänischen Post den Abschluss eines Vertrags mit der Sozialdemokratischen Partei des Landes zur Lieferung von politischem Kampagnenmaterial an ausgewählte Populationen unter Verwendung der Daten der Post über ältere Rentner. Auf ähnliche Weise gestattete ein nationales Gesetz in Spanien politischen Parteien die Sammlung personenbezogener Daten aus öffentlich verfügbaren Quellen, wie beispielsweise sozialen Netzwerken, und ihre Verwendung zum Profiling von Wählern.

 

Die Bestimmung modifiziert das spanische Wahlgesetz durch die Hinzufügung von Artikel 58 bis, der besagt: Artikel 58 bis. Verwendung von technologischen Werkzeugen und personenbezogenen Daten bei Wahlaktivitäten.

 

1. Die Sammlung personenbezogener Daten in Bezug auf politische Einstellungen von Personen durch politische Parteien bei ihren Wahlaktivitäten muss durch öffentliches Interesse begründet sein und darf nur durchgeführt werden, wenn angemessene Garantien bestehen.

2. Politische Parteien, Koalitionen und Wahlgruppierungen dürfen personenbezogene Daten, die sie von Webseiten und sonstigen, öffentlich zugänglichen Quellen erhalten haben, zu Wahlkampfaktivitäten während des Wahlzeitraums verwenden.

3. Das Verschicken von Wahlpropaganda mithilfe von elektronischen Mitteln oder Nachrichtensystemen und die Verbreitung von Wahlpropaganda in sozialen Netzwerken oder auf äquivalenten Plattformen mittels Beauftragung Dritter wird nicht als kommerzielle Kommunikationsaktivität betrachtet.

4. Die oben erwähnten Werbeaktivitäten müssen ihre Wahlkampfnatur eindeutig klarstellen.

5. Der Empfänger muss über eine einfache und kostenlose Methode zur Ausübung seines Rechts auf Widerspruch verfügen.

 

In der Praxis könnten die Bestimmungen des spanischen Gesetzes als nachlässiger in Bezug auf den Schutz personenbezogener Daten interpretiert werden, in diesem Fall die besondere Datenkategorie politischer Einstellungen, die den spezifischen Gegenstand des Erwägungsgrunds darstellen. Erwägungsgrund 56 sollte als Spezifizierung von Artikel 9 der DSGVO interpretiert werden, die unter Punkt (2) g) die Verarbeitung behandelt, die „aus Gründen eines erheblichen öffentlichen Interesses erforderlich“ ist. Daher sollten sowohl die Darlegungen des Erwägungsgrunds als auch, insbesondere, der Artikel bei der Implementierung solcher Bestimmungen im nationalen Gesetz beachtet werden. Erwägungsgrund 56 verlangt, dass die Zusammenstellung solcher Daten zu politischen Einstellungen für „das Funktionieren des demokratischen Systems in einem Mitgliedstaat“ erforderlich und durch „geeignete Garantien“ abgedeckt ist. Artikel 9 (2) g) ist strenger und erwähnt die Notwendigkeit eines „erheblichen“ öffentlichen Interesses sowie eine Verarbeitung, die in angemessenem Verhältnis zu dem verfolgten Ziel steht, „den Wesensgehalt des Rechts auf Datenschutz“ wahrt und „angemessene und spezifische Maßnahmen zur Wahrung der Grundrechte und Interessen der betroffenen Person“ vorsieht. Der Fehler des spanischen Gesetzes, der vom Obersten Gericht des Landes in einem Fall im März 2019 erkannt wurde, liegt darin, dass weder „angemessene und spezifische Maßnahmen“ vorgesehen waren noch ein „erhebliches öffentliches Interesse“ festgestellt worden war. In der Praxis ging das Gesetz das Risiko ein, eine willkürliche Verarbeitung sensibler Daten unter direkter Verletzung der DSGVO zu gestatten und die Bürger Praktiken auszusetzen, die den beim Skandal von Cambridge Analytica eingesetzten Praktiken ähnelten. Zu diesem Punkt und angesichts solcher Kontroversen bezüglich der Verwendung sensibler personenbezogener Daten bei Wahlkampagnen veröffentlichte der Europäische Datenschutzausschuss (EDSA) im März 2019 seine „Erklärung Nr. 2/2019 zur Verwendung personenbezogener Daten im Rahmen politischer Kampagnen“.

 

Die Erklärung liefert fünf konkrete Empfehlungen und Klarstellungen für die Mitgliedstaaten:

 

I. Personenbezogene Daten, aus denen politische Meinungen hervorgehen, stellen eine besondere Kategorie von Daten nach der Datenschutz-Grundverordnung (DSGVO) dar. Grundsätzlich ist die Verarbeitung solcher Daten verboten und unterliegt einer Reihe eng auszulegender Voraussetzungen, wie der ausdrücklichen, spezifischen, umfassend informierten und freiwillig erteilten Einwilligung der betroffenen Personen;

II. Personenbezogene Daten, die öffentlich gemacht oder von einzelnen Wählern geteilt wurden, auch wenn sie keine Daten darstellen, die politische Meinungen erkennen lassen, unterliegen nach wie vor dem EU-Datenschutzrecht. Beispielsweise kann die Verwendung personenbezogener Daten, die über soziale Medien erhoben werden, nicht durchgeführt werden, ohne dass die Verpflichtungen in Bezug auf Transparenz, Zweckbindung und Rechtmäßigkeit erfüllt werden;

III. Selbst wenn die Verarbeitung rechtmäßig ist, müssen Organisationen ihre anderen Pflichten nach der Datenschutz-Grundverordnung einhalten, einschließlich der Transparenz- und Informationspflichten. Die politischen Parteien und die Kandidaten müssen in der Lage sein, nachzuweisen, wie sie den Grundsätzen des Datenschutzes, insbesondere den Grundsätzen der Rechtmäßigkeit, Fairness und Transparenz, Rechnung tragen;

IV. Ausschließlich automatisierte Entscheidungen einschließlich des Profilings, bei denen die Entscheidung die betroffene Person rechtlich oder in ähnlicher Weise erheblich beeinträchtigt, sind beschränkt. Der EDSA interpretiert die Beeinflussung der Wahlstimme einer Person als „rechtliche Beeinflussung“ der betroffenen Person;

V. Bei gezielter Ansprache sollten die Wähler angemessene Informationen erhalten, in denen erläutert wird, warum sie eine bestimmte Botschaft erhalten, wer dafür verantwortlich ist und wie sie ihre Rechte als betroffene Personen wahrnehmen können.

 

Mit diesen Empfehlungen bietet der EDSA den Gesetzgebern der Mitgliedstaaten eindeutige Leitlinien zur Interpretation von Artikel 9 (2) g) und Erwägungsgrund 56 in Bezug auf Wahlprozesse. Das ist wesentlich, da eine unvollständige Anwendung der von der Verordnung verlangten Garantien und Anforderungen zu Situationen führen könnte, die direkt gegen den Sinn des Gesetzes verstoßen, wie es in zuvor erwähnten Fällen geschah. In diesem Zusammenhang ist es interessant, die spanischen und rumänischen Fälle mit den von Italien und Frankreich verfolgten Ansätzen zu vergleichen. In Italien können nach Feststellung der Datenschutzbehörde des Landes im Jahr 2014 im Internet öffentlich verfügbare, personenbezogene Daten nicht zur politischen Kommunikation verwendet werden, mit Ausnahme von ursprünglich zu diesem Zweck veröffentlichten Daten. In Frankreich verlangt eine 2016 vorgenommene Aktualisierung der Empfehlungen zur politischen Kommunikation der französischen nationalen Datenschutzkommission (CNIL) aus dem Jahr 2012 die spezifische Einwilligung zur rechtmäßigen Sammlung und zum Profiling der personenbezogenen Daten von Wählern. Der Verantwortliche sollte immer daran denken, dass die Datenschutzgesetze um die betroffene Person und ihre Rechte herum ausgelegt sind und ein ermächtigendes System für Geschäftspraktiken und Innovationen um Daten schaffen, allerdings innerhalb der Grenzen von Privatsphäre und Datenschutz, bei denen es sich um tief in Persönlichkeitsrechten und menschlicher Würde verwurzelten Garantien handelt. Deshalb sollten Praktiken, wie beispielsweise das Kaufen von Listen von Datenmaklern und das willkürliche Profiling betroffener Personen, die in einem Szenario vor der Einführung von Datenschutzbestimmungen gängig waren und unter anderem zu Wahlzwecken eingesetzt wurden, unter diesem neuen Paradigma vermieden werden. Zusätzlich hat der Schutz personenbezogener Daten wie zuvor erwähnt eine direkte Auswirkung auf die Qualität von Wahlprozessen, da diese Daten eine notwendige Eingabegröße für Psychometrie und andere Techniken darstellen, die bei ihrer Anwendung auf politische Kampagnen eine echte Auswirkung auf Wahlergebnisse haben. In Europa und Brasilien werden sich die Behörden dieses Risikos zunehmend bewusst, was aus den Maßnahmen des EDSA zur Harmonisierung der nationalen Gesetzgebungen und einer ordnungsgemäßen Auslegung von Erwägungsgrund 56 hervorgeht. In Brasilien nahm das Oberste Wahlgericht vor Kurzem Bestimmungen in seinen letzten Gesetzesentwurf für die anstehenden Kommunalwahlen auf, die auf eine Einschränkung der Verbreitung von Falschinformationen abzielen, insbesondere über soziale Medien und digitale Anwendungen. Die Harmonisierung allgemeiner Datenschutzbestimmungen mit Wahlbeschlüssen sowie die Beachtung der Bestimmungen zur Informationsverarbeitung sollten als Priorität betrachtet werden mit der Gewalt, wirksame Mechanismen gegen die missbräuchliche Verwendung personenbezogener Daten während Wahlperioden sicherzustellen, die einen Beitrag zu einem fairen Wahlumfeld leisten. 

 

Abschließende Betrachtungen

Die Kultur der „Hyperconnectivity“, in der wir leben, bringt trotz zahlloser und unbestrittener Vorteile für die Bürger auch signifikante Herausforderungen für demokratische Räume mit sich. In diesem Zusammenhang ist es wichtig, der neuen Art und Weise der Kampagnenführung in unserer modernen Datenwelt besondere Aufmerksamkeit zu schenken und geeignete und effiziente Bestimmungen zur Gewährleistung fairer Wahlen vorzuschlagen. Obwohl datengetriebene politische Kampagnen an und für sich kein neues Phänomen sind, stellen die verwendeten Werkzeuge, die Menge der zugänglichen Daten sowie die potenzielle Fähigkeit zur Beeinflussung von Wählern ein neues und herausforderndes Szenario für das Rechtsstaatsprinzip dar. In den vergangenen Jahren haben politische Parteien in allen Teilen der Welt stark in Online-Werbung investiert, die das Potenzial aufweist, mehr Menschen auf eine effiziente und zielgerichtete Weise zu erreichen. Jüngste Erfahrungen, wie im Fall von Cambridge Analytica und bei den letzten Wahlen in Brasilien, haben jedoch gezeigt, wie Strategien zur politischen Manipulation von Wählern durch Falschinformation, algorithmische Manipulation, verhaltensorientiertes Microtargeting und Social Bots in diesem Szenario weit verbreitet eingesetzt wurden. Zusätzlich basieren diese Strategien meistens auf der unbefugten bzw. unrechtmäßigen Verarbeitung personenbezogener Daten, wie es im Fall von Cambridge Analytica, bei der Wahlkampagne in Brasilien 2018 und in anderen Fällen beobachtet wurde. Mit den Worten von Colin Bennett und David Lyon:

Fragen zur legitimen Verarbeitung personenbezogener Daten über die Wählerschaft sind der Kern der Antwort auf jede dieser größeren Fragen. Die Durchführung von Wähleranalytik und das Microtargeting politischer Nachrichten, einschließlich der Lieferung sogenannter Fake News, hat eine direkte Beziehung zur programmierten Werbung und zu den unpersönlichen Algorithmen, die einzelne Bürger oft ohne deren Kenntnis und Einwilligung anvisieren. Jetzt treten bekannte Fragen zur Privatsphäre in dieser hitzigen internationalen Debatte über demokratische Praktiken zu Tage, und Aufsichtsbehörden, wie beispielsweise Datenschutzbehörden, finden sich im Mittelpunkt einer globalen Diskussion über die Zukunft der Demokratie. Demzufolge „sind Privatsphäre und Datenschutz in der Vergangenheit selten große politische Fragen gewesen. Das hat sich jetzt geändert.“

Daher kann ein Teil der möglichen missbräuchlichen Verwendungen und Risiken infolge von Missbrauch unter Berücksichtigung der Bedeutung der Verarbeitung personenbezogener Daten in diesem Kontext durch die Anwendung robuster gesetzlicher Rahmenwerke für die Regulierung personenbezogener Informationen gemindert werden. Als Beispiele gelten die DSGVO in Europa und das kürzlich verabschiedete brasilianische Datenschutzgesetz (LGPD), das bald in Kraft treten wird. Diese Studie hat durch das Hervorheben spezifischer rechtlicher Leitfäden und konkreter Situationen gezeigt, dass Datenschutzbestimmungen vollständig auf politische Kampagnen anwendbar sind und die Fähigkeit haben, die Verringerung der instrumentellen Verwendung personenbezogener Daten zu unterstützen, während sie gleichzeitig die Auswirkungen des Einsatzes von Falschinformation und computergestützter Propaganda zum Zweck der politischen Manipulation vermeiden. Deshalb kann ein Datenschutzansatz andere Anstrengungen, zum Beispiel durch die Privatwirtschaft, strategisch verstärken, und Falschinformationen bei Wahlkampagnen durch die Sanktionierung der rechtswidrigen Verarbeitung personalisierter Daten verringern helfen, wodurch er zu einem wirksamen und nützlichen Rechtsinstrument im vorliegenden Kontext wird. Einerseits besteht die Rolle öffentlicher Organe und Institutionen darin, mittels ihrer Beschlüsse und Sanktionen die Compliance mit den Richtlinien des LGPD und der DSGVO sowie deren Wirksamkeit zu verstärken. Andererseits haben die politischen Parteien die Pflicht zur Erfüllung gesetzlicher Anforderungen und tragen die volle Verantwortung für die Transparenz der Verarbeitung und den guten Glauben an die Verarbeitung der personenbezogenen Daten von Wählern. Die unbefugte bzw. rechtswidrige Verarbeitung personenbezogener Daten untergräbt zusammen mit Falschinformationstechniken und der unfairen Verwendung von Bots, Profilen, Deep Fakes und anderen Mitteln das Vertrauen der Wähler sowie die Integrität politischer Prozesse. Daher sollte es von Institutionen als Bedrohung der Demokratie betrachtet werden.   

 

Zur einfacheren Lesbarkeit wurden die Referenzverweise entfernt.  

 

Eduardo Magrani, Konrad Adenauer-Stiftung; 12.11.2020

https://www.kas.de/de/einzeltitel/-/content/das-hacken-der-waehlerschaft

https://creativecommons.org/licenses/by-sa/4.0/legalcode.de

 

 

Enisa.europa.eu; PM, BOW; 20.10.2020

https://www.enisa.europa.eu/news/enisa-news/enisa-threat-landscape-2020

 

cyber security

 

Cybersecurity


Schutz vor Cyber-Bedrohungen

Reagieren auch Sie früh genug und richtig auf die massiv zunehmenden Cyber-Bedrohungen und -Angriffe. Schützen Sie Ihr Unternehmen. Schützen Sie Ihre Informationen.

Kontaktieren Sie uns und überzeugen Sie sich von unserem Know-how im Bereich der Cybersecurity.

Wir beraten Sie gerne und unverbindlich. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

01/2021

 

Bürgerschreck und Hoffnungsträger in privaten Lebenswelten

 

 

Lebenswelt Gesundheit

Smart Services im Überblick

Die Gesundheit zählt zu den höchsten Gütern der Menschen. Die Entwicklungen im Gesundheitssektor und der medizinische Fortschritt sind vor diesem Hintergrund in der Breite der Bevölkerung von großem Interesse. Ohne Übertreibung stellt die eigene Gesundheit per se eine ‚Lebenswelt‘ für die Menschen dar. Die Entwicklung des Gesundheitswesens ist im Grunde so alt wie die Menschheit selbst, und die Technologieverwendung geht weit in die Vergangenheit zurück. Vor allem im letzten Jahrhundert sind die technischen Anwendungen im Gesundheitssektor immer schneller vorangeschritten. Im Zusammenspiel mit der zunehmend besser werdenden medizinischen Versorgung sowie der stärkeren Aufklärung über die verschiedenen Krankheitsrisiken und Präventionsmöglichkeiten werden die Menschen immer älter und bleiben länger gesund. Seit einiger Zeit hat sich zudem die ‚Quantified Self‘-Bewegung als bedeutender Trend entwickelt, der sich durch einen großen Teil verschiedener Altersstufen und durch breite Bevölkerungsgruppen zieht. Dieser Trend, zu dem neben der Selbstvermessung auch die Selbstoptimierung gehört, hat bedeutende Auswirkungen auf die Lebenswelt Gesundheit. Viele der Verhaltensweisen und Einfluss nehmenden Faktoren, wie bspw. der Grad der sportlichen Betätigung oder die Ernährung, sind allerdings stark subjektiv geprägt und nicht ohne Weiteres kontrollierbar. Dafür rücken Alltagshelfer und Tracking-Systeme, die beim Aufzeichnen des eigenen Lebensstils helfen, immer stärker in den Fokus. Einen starken Einfluss auf die Medizin, namentlich auf die Diagnostik und Therapie, haben Daten. Die Flut an Daten, die inzwischen gesammelt werden kann, führt zu besseren und genaueren Analysen und – insbesondere auch im Zusammenhang mit Künstlicher Intelligenz – zu besseren Vorhersagemöglichkeiten. Damit können nicht nur die Effizienz (schnellere Diagnose) und der Komfort (automatische Erhebung) medizinischer Leistungen gesteigert werden, sondern vor allem auch deren Qualität. Eine Besonderheit der in der Lebenswelt Gesundheit erhobenen Daten liegt in dem hohen Grad der Sensibilität: Bei Gesundheitsdaten handelt es sich um personenbezogene Daten, die nach Art. 4 Nr. 15 der Europäischen Datenschutzgrundverordnung (EU-DSGVO) besonders schutzbedürftig sind und daher einem ausgeprägten Datenschutz unterliegen. Gerade die sensiblen Personendaten sind aber in einem hohen Detaillierungsgrad notwendig, um die Bürger in der Lebenswelt Gesundheit unterstützen zu können und ihnen Mehrwerte zu bieten. Daher ergibt sich in besonderem Maße ein Spannungsfeld, das immer wieder stark in der gesellschaftspolitischen Diskussion steht. Neben den Daten sind verschiedene Technologien, wie die Sensorik, die zunehmende Vernetzung im Rahmen des Internet of Things (IoT) oder die Künstliche Intelligenz (KI), essenzielle Bestandteile der Smart Services in der Lebenswelt Gesundheit. Dabei können die Smart Services wie folgt gegliedert werden: Datensammlung Ausgangspunkt und zugleich erstes mehrwertiges Ergebnis ist die Sammlung von Körpermessdaten. Zunehmend ermöglichen es technische Geräte, beispielsweise Smart Watches, smarte Waagen, intelligente Laufbänder oder andere Wearables, Körperdaten wie den Pulsschlag, die Körpertemperatur, die Sauerstoffsättigung, das Gewicht, die Muskelmasse, den Fett- und Wasseranteil zu messen. Angereichert werden können diese Informationen durch Daten wie die Blutgruppe, Allergien oder Vorerkrankungen. Zusätzlich können Arztberichte und Befunde die Auswertungen ergänzen, sodass die Zielsetzung und das Ergebnis ein Datenpool ist, der ein umfassendes Bild über den Gesundheitszustand eines Menschen liefert. Aus diesem Datenpool können unterschiedliche Akteure verschiedene Nutzen ziehen. So kann die messende Person selbst den eigenen Lebensstil analysieren und optimieren und mit anderen teilen – etwa um sich so in ihrer Peergroup zu vergleichen. Im Zusammenspiel zwischen Patient und Arzt können mit einer qualifizierten Datenbasis und den Auswertungsmöglichkeiten Krankheiten und körperliche Beeinträchtigungen besser behandelt werden. Und die Forschung kann die Medizin durch Einbeziehung umfassenderer Datengrundlagen und verbessertem Zusammenhangswissen substanziell weiterentwickeln.

 

Diagnoseunterstützung

Auf Basis der gesammelten Daten ergeben sich Smart Services, die Mehrwerte für die Diagnoseunterstützung bieten. Dabei gibt es verschiedene Anwendungsmöglichkeiten: So können Daten, die gewisse Anomalien signalisieren, eine automatische Meldung an den Nutzer mit dem Hinweis auslösen, einen bestimmten Arzt aufzusuchen. Digitale Fotos einer auffälligen Hautstelle können durch eine Analysesoftware über eine Datenbank gespielt und im Sinne einer Ersteinschätzung automatisch ausgewertet werden. Zusammen mit dem übermittelten Analyseergebnis kann gegebenenfalls zugleich ein geeigneter Facharzt zur näheren Begutachtung und anschließenden Therapie empfohlen werden. Auch mit Röntgenbildern, CTs und MRTs, ferner mit Blutwerten, EKGs und allen sonstigen möglichen Analysewerten lassen sich solche Datenbanken füllen und nutzen. Unter Einbeziehung einer Künstlichen Intelligenz kann das System von den Ergebnissen nachfolgender Untersuchungen lernen und dadurch im Gleichschritt mit der Nutzungshäufigkeit verbessert werden. Systeme mit Künstlicher Intelligenz können über die Zeit immer ausgefeiltere Verknüpfungen von Gesundheitsdaten interpretieren und sich selbstlernend verbessern, d. h. Krankheitssymptome immer zuverlässiger automatisch erkennen und zielführende Therapien vorschlagen. Schon heute gibt es Künstliche Intelligenzen, die mittels bildgebender Verfahren, etwa der sog. Positronen-Emissions-Tomografie (PET), Demenzerkrankungen deutlich früher erkennen können als Ärzte. Das Ziel ist es, durch eine ausreichend große Zahl an Daten, die mithilfe vorangegangener und gespeicherter Untersuchungsergebnisse generiert wird, Befunde automatisch und damit sowohl schneller als auch präziser als von Menschen möglich zu erstellen.

 

Therapieunterstützung

Die technischen Hilfsmittel zur Diagnoseunterstützung gehen Hand in Hand mit Mehrwerten, die Smart Services im Bereich des Monitorings von Heilungsverläufen oder im Rahmen der Unterstützung bei körperlichen Beeinträchtigungen im Alltag bieten. Nach Feststellung einer Erkrankung bieten digitale Anwendungen die Möglichkeit, den Therapieverlauf 24/7 für den Arzt abzubilden. Dieser erhält beispielsweise über die beim Patienten aufgezeichneten Daten Einblick in dessen Gesundheitszustand und empfängt zusätzlich eine Meldung, sobald ein bestimmter Wert abseits der Toleranz liegt. Mit einer dann erfolgten frühzeitigen Intervention kann der Heilungsverlauf schneller und effizienter weitergeführt werden. Wenn der Patient zusätzlich die Einnahme der Medikamente in die Anwendung einpflegt, kann der behandelnde Arzt schneller Ursachen für eine falsche Entwicklung der Genesung finden. Über Cloud-basierte Kommunikationsplattformen kann das Zusammenspiel der verschiedenen Akteure, also Patient, Arzt, Krankenhaus, Pflegekraft, Krankenversicherer etc., erheblich verbessert werden und Doppel- und Mehrfachuntersuchungen können vermieden werden. Auch können das Internet of Things (IoT), also die Vernetzung z. B. von medizinischem Gerät, und der Austausch über Informations- und Kommunikationsplattformen wichtige Hilfestellungen für die Zusammenarbeit der verschiedenen Parteien geben.

 

Ambient Assisted Living

Ambient-Assisted-Living-(AAL)-Technologien können auch im Krankheitsfall oder bei körperlichen Beeinträchtigungen ein selbstbestimmtes Leben ermöglichen. AAL-Technologien beinhalten Produkte, Dienstleistungen und Konzepte, die die Lebensqualität vor allem älterer Menschen in allen Lebenslagen erhöhen sollen. Beispielsweise können Sensoren die Bewegungsabläufe in der Wohnumgebung messen und einen Notdienst alarmieren, wenn eine auffällige Bewegungsunterbrechung vorliegt. Viele solcher Systeme haben sich aufgrund der Scheu vor Technik, von Überwachungsängsten oder zu hohen Kosten noch nicht durchgesetzt. Einzig der Hausnotruf, bei dem ein Alarmknopf am Körper getragen wird, ist bereits weit verbreitet.

 

Transhumanismus

Die Entwicklungen zeigen, dass es eine immer stärkere Verschmelzung von Mensch und Maschine gibt. Im Rahmen von Testversuchen werden bereits Technologien entwickelt, bei denen Chips oder Sensoren direkt unter die Haut des Menschen gelegt werden. Das enge Zusammenspiel zwischen der Digitaltechnik und dem Menschen kann zu einem ganzheitlichen Ansatz der Gesundheitsbegleitung führen, der einerseits die verfügbaren Datengrundlagen nochmals exponentiell ausweitet, andererseits die Potenziale für eine schnellere und zuverlässigere Diagnose und Therapie ebenso nochmals steigert. Die verschiedenen Entwicklungen können eine Fülle von Problemen lösen, denen Patienten Ärzte, Pfleger und weitere Beteiligte gegenüberstehen. Die Zeitrestriktionen der Ärzte werden durch die Diagnosemöglichkeiten und Therapieempfehlungen mittels Technologie entschärft, die Behandlung der Patienten durch die Überwachung während der Genesung verbessert, umständliche Vorgehensweisen beispielsweise beim Arztwechsel durch die erleichterte Kommunikation zwischen den Parteien vereinfacht und effizientere und zielgerichtetere Pflegeleistungen auf Basis der AAL-Technologien werden ermöglicht. Immobilen Personen und Personen, die in einem Gebiet mit schlechter Arztabdeckung wohnen, können durch die Technologie viele Wege sparen. In die Diagnose und Therapieempfehlung können Computersysteme eine große Zahl an Parametern einbeziehen und damit deutlich zuverlässigere und zudem noch schnellere Ergebnisse liefern. Es zeigt sich, dass Smart Services in der Lebenswelt Gesundheit die Anwendungsfelder Prävention, Diagnostik, Therapie, Überwachung von Krankheitsverläufen, Pflegeunterstützung und nicht zuletzt Fitness/Freizeit/Lebensstil beinhalten. Diese Anwendungsfelder basieren auf der Erhebung von Daten, deren Auswertung zunehmend mit Künstlicher Intelligenz vorgenommen wird. Im Folgenden werden drei ausgewählte Geschäftsmodelle betrachtet, die bereits auf Märkten existieren und aus den zuvor beschriebenen Entwicklungen hervorgegangen sind. Dabei liegt der Fokus auf der Beschreibung und Würdigung der Nutzenversprechen, die mit diesen Geschäftsmodellen verbunden sind.

 

Ausgewählte Geschäftsmodelle innerhalb der Smart Services  

 

Apple Health

1. Beschreibung des Geschäftsmodells

Nach den Anwendungsfeldern der Smart Services lässt sich das Geschäftsmodell von Apple Health in die Bereiche Datengenerierung, Prävention, Diagnostik, Therapie, Überwachung von Krankheitsverläufen und Fitness/Freizeit/Lebensstil einordnen. Apple Health ist eine Anwendung, mittels derer Gesundheitsdaten gesammelt, aufbereitet und ausgewertet werden können. Sie ist als App auf dem iPhone vorinstalliert und in die vier Gruppen ‚Aktivität‘, ‚Achtsamkeit‘, ‚Schlaf‘ und ‚Ernährung‘ eingeteilt. Da das Smartphone selbst nur begrenzt Gesundheitsdaten erheben kann, sind zusätzliche Gadgets wie die Apple Watch oder kleine Adapter zur Messung der Blutwerte für eine umfassende Nutzung und Datenerhebung unabdingbar. Auch mit Geräten aus dem Haushalt, wie der digitalen Körperwaage oder einer intelligenten Zahnbürste, kann die Anwendung gekoppelt und mit Daten angereichert werden. Als kompatibles Hauptgerät von Apple misst die Apple Watch u. a. die Herzfrequenz. Bei besonders hohen oder niedrigen Frequenzen löst sie eine Warnung aus und gibt unter Umständen einen Hinweis, zum Arzt zu gehen. Zum anderen ist in die Apple Watch ein sogenannter Beschleunigungs- und Gyrosensor eingebaut, der einen möglichen Sturz des Trägers erkennt. Nach einem Sturz kann mit einem Klick ein Notruf gesendet werden. Wenn der Gestürzte allerdings 60 s nicht reagiert, wird der Notruf automatisch ausgelöst. Über GPS wird den Rettungskräften bei Ausruf des Notfalls unmittelbar der Standort der gestürzten Person angezeigt, ohne dass sich der Nutzer zunächst orientieren muss. Durch die einfache und direkte Kommunikation über die Anwendung werden Fehler vermieden und die Effizienz gesteigert. Daneben erfasst die Apple Watch Freizeitaktivitäten und kann als eine Art Trainer im Sport agieren. Für Anwender der Freizeitfunktionen bietet Apple einige Gadgets zur Kopplung mit dem iPhone an. Dazu zählen u. a. ein smarter Fahrradhelm, ein smartes Fahrradsystem für Licht, Navigation, Diebstahlsicherung und Fitness Tracking, ein Springseil, ein Tennisschläger und weitere Geräte zur Messung von Körperdaten, wie Blutdruck- und Blutzuckermessgeräte und andere Überwachungssensoren. Wegen der Notwendigkeit und des Angebots, weitere Geräte und Anwendungen zu nutzen, ist eine standardisierte Schnittstelle erforderlich, um den Datenaustausch zwischen den verschiedenen Geräten zu organisieren. Apple stellt mit ‚CareKit‘ ein Open Source Software Framework zur Verfügung, mit dessen Hilfe Entwickler Apps generieren können, die beim Umgang mit Krankheiten helfen, indem sie die individuelle Behandlung unterstützen (bspw. Festhalten von Symptomen oder der Medikation). Ein ähnliches Software Framework stellt das ‚ResearchKit‘ dar, das die medizinische Forschung adressiert und bei der Durchführung medizinischer Studien hilft, indem bspw. Teilnehmer registriert werden können. Damit werden zwei Funktionen angeboten, mit denen andere Entwickler Gesundheitsapps erstellen können, die auf die gesammelten Daten von Apple Health zugreifen und mit der Anwendung interagieren. Apple setzt also ausdrücklich den Anreiz, dass weitere Gesundheitsapps programmiert werden, und stellt gleichzeitig sicher, dass sie mit Apple Health, das weiterhin als Zentrum für alle Daten fungiert, kompatibel sind. Ebenfalls unterstützt Apple medizinische Studien, die mittels App Gesundheitsdaten auswerten. Apple Health fungiert also als eine Art Zentrale, die über verschiedene Geräte mit Daten ‚gefüttert‘ wird. Folgende Gesundheitsdaten können dabei u. a. ausgewertet werden:

  • Atemfrequenz
  • Blutdruck und -gruppe
  • Body-Mass-Index
  • Herzfrequenz
  • Kalorienverbrauch
  • Körpergewicht und -größe
  • Körpertemperatur
  • Sauerstoffsättigung
  • Schlafverhalten
  • Schritte inkl. Treppenstufen bzw. Höhenmeter
  • Stürze

 

Seit Einführung des Betriebssystems iOS12 ist für iPhone-Besitzer auch die elektronische Patientenakte ‚Medisafe‘ verfügbar. Diese beinhaltet schon bislang die Möglichkeit der Eingabe von Medikamentierungen, verbunden mit der Funktion, vor Wechselwirkungen verschiedener Medikamente zu warnen. Ebenfalls wird ein Notfallpass angeboten, der einen besonderen Nutzen entfaltet: Im Sperrbildschirm werden relevante Gesundheitsdaten angezeigt, auf die im Notfall der Rettungssanitäter oder Notarzt direkt zugreifen kann, um dem Patienten zielgerichteter zu helfen. Die Möglichkeit, an einem Ort alle Daten zu sammeln, schafft die Voraussetzung, weitere Leistungen anzuknüpfen, die das Gesundheitssystem im Ganzen optimieren.

2. Geschäftsmodellanalyse nach Canvas

Apple Health adressiert als Kundensegment vorrangig die Endverbraucher und kann damit als B2C-Lösung klassifiziert werden. Die Funktionen von ‚Care- Kit‘ und ‚ResearchKit‘ richten sich allerdings eher an Unternehmen, wodurch auch eine B2B-Komponente vorliegt. Unter den Endkunden werden speziell iPhone-Besitzer adressiert, die technisch affin sind, Gesundheitsbewusstsein aufweisen und deshalb entweder ihre Werte beobachten, präventiv sportliche Aktivitäten ‚tracken‘ oder den Umgang mit vorliegenden Krankheiten optimieren wollen. Für diese Zwecke und als weiteres Wertangebot bietet Apple Health eine Basis für eine umfassende Datensammlung, um damit einen Überblick über die eigene Lebensweise und Gesundheit bereitzustellen. Insbesondere liegen die Daten für ihre Nutzer nicht mehr nur an verschiedenen Stellen, wie z. B. Apps, getrennt vor, sondern sind in Apple Health zusammengefasst und damit komfortabel zugreifbar. Zudem bieten die Auswertungen der Daten eine Hilfestellung, Krankheiten frühzeitig zu erkennen und in die Behandlung einzutreten. Mithilfe des Notfallpasses gibt es eine weitere Absicherung bei Unfällen. Sozioökonomisch führen die Anwendungen zu einer möglichen Einsparung von Kosten, da durch die allgemeine Gesundheitsförderung und frühzeitigere Aufdeckung von Krankheiten weniger Arztbesuche notwendig sind und der Heilungsverlauf besser abgebildet und unterstützt werden kann, was ihn beschleunigt. Kundennutzen erzeugt auch die Transparenz, mit der der Nutzer über die eigene Lebensweise und seine Aktivitäten informiert wird. Dazu werden die Daten dem Nutzer auch grafisch aufbereitet. Ein weiteres Wertangebot liefert die Integration von Self-Service-Optionen. Neben der automatischen Datenerhebung sind weitere manuelle Eingaben, wie z. B. die Blutgruppe, vorliegende Allergien und Erkrankungen möglich. Durch die Zentralisierung der Daten in einer Anwendung steigt der Komfort für den Nutzer, und die Datenpflege wird erleichtert. Apple hat besonderen Wert auf eine intuitive App gelegt, sodass die Übersichtlichkeit auch beim angestrebten Ausbau der Datenbank und der Anwendungen nicht verloren geht. Der reduzierte Bedarf an Arztbesuchen, die Beschleunigung des Behandlungserfolgs und womöglich auch die Effizienzsteigerung im sportlichen Training führen zu Zeitersparnissen. Als Kommunikations- und Vertriebskanäle bedient sich Apple Health der App sowie einer Homepage. Es besteht aber keine direkte Beziehung zwischen Unternehmen und Nutzer, vielmehr stellt die App Hilfsmittel zur Selbstbedienung zur Verfügung. Einnahmequellen von Apple Health werden indirekt durch den Verkauf der kompatiblen Geräte generiert, da die App selbst kostenlos ist. Die Kooperationspartner von Apple Health können vielfältig sein. Jeder App-Entwickler, der ‚CareKit‘ oder ‚ResearchKit‘ nutzt, aber auch Ärzte, Krankenhäuser, Apotheken und Pfleger können eingebunden werden. Zudem sind sowohl Kranken- als auch Unfall- und Berufsunfähigkeitsversicherer als mögliche Kooperationspartner prädestiniert – und damit Versicherungsanbieter aus allen Sparten des Versicherungsgeschäfts. Als Schlüsselressourcen stehen die Daten über den Nutzer und seine Gesundheit im Vordergrund. Des Weiteren wird medizinisches Know-how als intellektuelle Ressource eingesetzt, das zudem mit sich ständig weiterentwickelndem Zusammenhangswissen sowohl auf der Unternehmensseite als auch auf der Seite der Nutzer kontinuierlich gesteigert wird. Infolge der Datengenerierung, des Datenpooling und der Datenanalyse unter Verknüpfung vieler gesundheits- bzw. krankheitsrelevanter Parameter kann auch das medizinische Wissen insgesamt in der Gesellschaft erweitert werden – was wiederum ein besonderes Wertangebot darstellt.

 

Digitale Krankenversicherer am Beispiel Oscar und Clover

Ein digitaler Krankenversicherer nutzt für sein Geschäftsmodell im Kern neue Technologien, insbesondere für seine Produkte und Services (‚Smart Services‘) sowie für die innerbetrieblichen und nach außen gerichteten Abläufe. Sie verwenden Daten aus Anwendungen wie beispielsweise Apple Health. Die Kommunikation erfolgt so weit wie möglich digital. Oscar und Clover, zwei Versicherer aus den USA, bieten auf diese Weise neue Möglichkeiten. 1. Beschreibung der Geschäftsmodelle Oscar ermöglicht den vollkommen digitalen und transparenten Abschluss einer Versicherungspolice. Dabei werden folgende Leistungen angeboten: Über ein Suchfeld in der Smartphone-Applikation kann der Versicherte seine Symptome eintragen, und er erhält daraufhin erste Hinweise über eine mögliche Erkrankung. Nach Anwählen einer Rückruf-Funktion meldet sich innerhalb kürzester Zeit ein Arzt oder eine Krankenschwester und berät den Kunden. Zusätzlich steht dem Anwender ein persönliches Concierge-Team zur Verfügung, das z. B. Arzttermine bzw. Rückrufe vereinbart, Krankenhausaufenthalte organisiert und Schreibarbeiten nach einem Krankenhausaufenthalt übernimmt. Außerdem unterstützt Oscar den Kunden dabei, einen gesünderen Lebensstil zu führen: Beispielsweise lässt das Unternehmen dem Versicherungsnehmer bei Erreichen einer vorgegebenen Schrittzahl, die über die App gemessen wird, einen Amazon-Gutschein zukommen. Clover sammelt Patienteninformationen zur datenbasierten Erstellung klinischer Profile der versicherten Personen. Dabei greift das Unternehmen auf ein Netzwerk aus Ärzten, Arzthelfern, Krankenhäusern und (Online-)Apotheken zurück, deren Daten von Clover zusammengeführt und ausgewertet werden. So nutzt Clover z. B. Informationen zur Krankheitshistorie eines Versicherten, um ihn bei der Genesung zielgerichtet unterstützen zu können. Wird einem Patienten ein Medikament verschrieben, das regelmäßig einzunehmen ist, wird dies von Clover getrackt: Wird keine diesbezügliche Abrechnung eingereicht, schaltet sich Clover ein, erinnert den Patienten und informiert über die ‚Einnahmehinweise‘. Falls Arzttermine versäumt wurden, erhält der Patient ggf. Hausbesuche von Mitgliedern des Clover-Health-Teams, dazu gehören z. B. Krankenschwestern, Krankenpfleger oder Sozialarbeiter. Mit den Präventionsmaßnahmen verfolgt Clover insgesamt das Ziel, den Gesundheitszustand der Versicherten zu verbessern, kostenintensive Gesundheitsleistungen zu vermeiden und damit die allgemeinen Aufwendungen für die Versorgung von Patienten zu senken. Weiterhin gehören zum Leistungs- und Serviceangebot ein digitaler Katalog, der eine Übersicht über die Medikamente gibt, die durch den Versicherungsschutz abgedeckt sind, ein digitaler Apotheken- und Ärztefinder sowie kostenfreie Zusatzleistungen, wie z. B. routinemäßige Augen- oder Zahnuntersuchungen.

 

2. Geschäftsmodellanalyse nach Canvas

Beide Unternehmen bieten neue Smart Services im Bereich Gesundheit. Während das Wertangebot von Oscar den digitalen und transparenten Abschluss einer Versicherungspolice umfasst und den Versicherungsnehmer beim Erkennen und einer möglichen Behandlung unterstützt, konzentriert sich Clover auf die präventive Gesundheitsvorsorge, die auf einer softwarebasierten Datenanalyse beruht. Es können individuell zugeschnittene Informationen bereitgestellt, passende Ärzte gefunden, die Medikamenteneinnahme überprüft werden und vieles mehr. Auch die individuellere Tarifierung auf Basis der erhobenen Daten stellt eine Neuheit dar. Die datenbasierte Risikoermittlung führt dazu, dass der Versicherte in der Krankenversicherung immer näher an seinem wirklichen Schadenerwartungswert policiert werden kann. Auch dadurch kann sich eine mittelbare Kostenreduktion ergeben. Beispielsweise wird das individuelle Krankheitsrisiko aufgrund der Anreizwirkungen für eine gesündere Lebensweise gesenkt, was sich für die Versicherten auch in niedrigeren Prämien widerspiegeln kann. U. a. durch die Hilfe bei der Suche nach einem passenden Arzt geben die digitalen Krankenversicherer ein Transparenzversprechen ab. Ebenfalls werben sie mit einer äußerst transparenten Kosten- und Leistungsdarstellung. Durch die digitalen Angebote sind eine ortsunabhängige Beratung und Betreuung möglich. Zusätzlich können viele Daten über den persönlichen Gesundheitszustand oder eine vorliegende Krankheit in einem geschützten persönlichen Datenfeld eingetragen werden, wodurch die Integration solcher Self-Service-Optionen stark zur Prozessbeschleunigung beiträgt. Die Kundensegmente von Oscar und Clover liegen sowohl im B2B- als auch im B2C- und B2B2C-Bereich. Neben der eigenen Verbindung zu den Versicherten werden Ärzte, Krankenhäuser, Pfleger und weitere Gesundheitsdienstleister einbezogen. Als Versicherungskunden werden vor allem digital affine Menschen mit Gesundheitsbewusstsein angesprochen, die für finanzielle und medizinische Vorteile bereit sind, ihre Daten an den Versicherer zu geben. Da Clover zum Medicare-Advantage-Programm der USA gehört, stehen die Leistungen nur darin einbezogenen Personen offen. Im Jahr 2017 lag die Versichertenzahl von Oscar bei etwa 135.000, Clover zählte rund 25.000 Versicherte. Als Kommunikations- und Vertriebskanäle werden diverse Social Media, Apps, Chatfunktionen und die Homepages genutzt. Weiterhin wird den Kunden der Kontakt über (Video-) Telefonie oder E-Mail angeboten, und in Blogs werden sie zudem regelmäßig mit Informationen versorgt. Auch in der Kundenbeziehung bietet dieses Geschäftsmodell einen weiten Spielraum. So ist von automatisierten Angeboten und Dienstleistungen über Selbstbedienungen bis hin zur persönlichen und auch individuell persönlichen Unterstützung, also mit immer gleichbleibendem Ansprechpartner, alles möglich. Primäre Einnahmequelle sind die Versicherungsprämien vonseiten der Kunden. Werden zusätzlich Kooperationen mit Ärzten oder anderen Gesundheitsdienstleistern vereinbart, ergeben sich weitere Einnahmen. So bezahlen etwa Dienstleister einen Preis dafür, in das Netzwerk einzutreten oder den Kunden in bestimmten Fällen vorgeschlagen zu werden. Die Schlüsselaktivität ist bei beiden Unternehmen die Bereitstellung von Versicherungsschutz, die Datenanalyse und die Pflege des Netzwerks. Die Mitglieder dieses Netzwerks, Ärzte, Krankenhäusern, Apotheken, Krankenschwestern, Pfleger und weitere Gesundheitsdienstleister, stellen die Schlüsselpartner der Unternehmen dar. Schlüsselressourcen sind die Kundenstammdaten und die Gesundheitsdaten der Versicherten. Auf Basis der gesammelten Daten aus den geschaffenen Netzwerkstrukturen und der effizienten digitalen Prozesse kann ein ganzheitliches Angebot an Smart Services und damit ein umfassendes Wertangebot zur Verfügung gestellt werden.  

 

Spannungsfeld Datennutzung und Datenschutz

Wie gezeigt wurde, kann das Sammeln und die Nutzung von Daten in der Lebenswelt Gesundheit erhebliche Auswirkungen entfalten. So kann nicht nur die Gesundheit des Individuums verbessert, sondern auch eine Optimierung des gesamten Gesundheitswesens vorangetrieben werden. Systeme, die auf Basis von Daten Krankheiten in all ihren Parametern erfassen, künstliche Intelligenzen, die diese auswerten, und Assistenzsysteme, die Ärzte in ihrer täglichen Arbeit unterstützen, gehören zu den großen Chancen, die die Datennutzung mit sich bringt. Dem gegenüber steht der berechtigte und notwendige Datenschutz, der im Gesundheitswesen auch spezifisch geregelt ist. In Art. 4 Nr. 15 der EU-DSGVO sind Gesundheitsdaten konkret berücksichtigt und abgegrenzt: „Gesundheitsdaten [sind] personenbezogene Daten, die sich auf die körperliche oder geistige Gesundheit einer natürlichen Person, einschließlich der Erbringung von Gesundheitsdienstleistungen, beziehen und aus denen Informationen über deren Gesundheitszustand hervorgehen“ (Verordnung des Europäischen Parlaments und des Rates 2016/679, Art. 4 Nr. 15). Nach § 22 des Bundesdatenschutzgesetzes (BDSG) und der EU-DSGVO gehören Gesundheitsdaten zur besonderen Kategorie personenbezogener Daten. Danach gilt für alle Gesundheitsdaten eine besondere Schutzbedürftigkeit. In diesem Zusammenhang besteht ein grundsätzliches Verbot der Verarbeitung von Gesundheitsdaten, das nur unter der Voraussetzung des Art. 9, 2a-j EU-DSGVO etwas aufgeweicht wird. Das Verarbeitungsverbot gilt demnach nicht, wenn die betroffene Person für einen festgelegten Zweck zustimmt, dass ihre Daten genutzt und verwertet werden. Neben weiteren Erlaubnistatbeständen beziehen sich die Absätze h und i direkt auf Gesundheitsdaten. In Art. 9, 2h EU-DSGVO (Verordnung des Europäischen Parlaments und des Rates 2016/679) heißt es: Die Verarbeitung ist für Zwecke der Gesundheitsvorsorge oder der Arbeitsmedizin, für die Beurteilung der Arbeitsfähigkeit des Beschäftigten, für die medizinische Diagnostik, die Versorgung oder Behandlung im Gesundheits- oder Sozialbereich oder für die Verwaltung von Systemen und Diensten im Gesundheits- oder Sozialbereich auf der Grundlage des Unionsrechts oder des Rechts eines Mitgliedstaats oder aufgrund eines Vertrags mit einem Angehörigen eines Gesundheitsberufs und vorbehaltlich der in Absatz 3 genannten Bedingungen und Garantien erforderlich. Und in Art. 9, 2i EU-DSGVO (Verordnung des Europäischen Parlaments und des Rates 2016/679 2018) steht: Die Verarbeitung ist aus Gründen des öffentlichen Interesses im Bereich der öffentlichen Gesundheit, wie dem Schutz vor schwerwiegenden grenzüberschreitenden Gesundheitsgefahren oder zur Gewährleistung hoher Qualitäts- und Sicherheitsstandards bei der Gesundheitsversorgung und bei Arzneimitteln und Medizinprodukten, auf der Grundlage des Unionsrechts oder des Rechts eines Mitgliedstaats, das angemessene und spezifische Maßnahmen zur Wahrung der Rechte und Frei-heiten der betroffenen Person, insbesondere des Berufsgeheimnisses, vorsieht, erforderlich. Das hohe Niveau des Datenschutzes von Gesundheitsdaten macht die Durchführung einer Datenschutz-Folgeabschätzung notwendig, was zu einem erhöhten Aufwand in Einrichtungen des Gesundheitswesens führt und die Datennutzung erheblich erschwert. Für das Individuum hat der ausgeprägte Datenschutz den Schutz vor Missbrauch zum Ziel. Dazu gehört nicht nur der Schutz vor Hackerangriffen auf Gesundheitsdaten, die inzwischen häufig vorkommen. Auch die Weitergabe an Unternehmen, die die Gesundheitsdaten für verschiedene Zwecke verwenden können, wird kritisch gesehen. Die Sorge vor einer Datenweitergabe und vor Missbrauch ist bei den Bürgern jedoch deutlich geringer, wenn es um den Arzt geht, der die Daten verarbeitet, speichert und weitergibt. Laut der Studie „Zukunft der Gesundheitsversorgung“ der pronovaBKK empfinden es 77 % der Befragten als Vorteil, wenn Daten über Diagnosen, Behandlungen, Medikamente, Allergien oder ähnliches zentral gespeichert sind und sich Haus- und Fachärzte jederzeit einen umfassenden Überblick über den Gesundheitszustand eines Patienten verschaffen können. Auch das Durchführen von Video- oder Onlinebehandlungen sowie per Telefon würden 56 % der Befragten begrüßen. Dies lässt sich damit begründen, dass die eigene Gesundheit für den Bürger ein sehr wertvolles Gut ist und bei besserer Hilfe, beispielsweise weil der Arzt einen guten Überblick über den Gesundheitszustand bekommt, die Risiken schwächer bewertet werden. Ebenso kann davon ausgegangen werden, dass eine Verbesserung der medizinischen Leistung im Interesse aller ist. So beschneidet der starke Datenschutz die Chance und damit den großen Mehrwert, der beispielsweise durch das Fortschreiten der Forschung auf Basis großer Datenmengen erreicht werden kann. Die Forschung und damit das Wissen in der Medizin, die Qualität der Behandlung und letztlich die Gesundheit des Einzelnen werden damit nachhaltig gestört. Dies gilt zumindest in Deutschland und Europa. Die datenbasierte Forschung auch und gerade im Gesundheitswesen wird beispielsweise in den USA und in China stärker vorangetrieben, was letztlich auch zum komparativen Nachteil von Bürgern und Unternehmen hierzulande führen kann. Es entsteht daher ein Spannungsfeld, das es nicht nur rechtlich, sondern auch politisch und vor allem im Dialog mit den Bürgern zu lösen gilt. Hierbei muss ein Abwägen zwischen dem Missbrauchsrisiko und der Datennutzung und -auswertung zur Verbesserung der Medizin erfolgen, wobei der Wille und die Wünsche der Bürger im Vordergrund stehen müssen. Der Datenschutz hat in diesem Zusammenhang eine wichtige Funktion, sollte aber möglichst nicht die Potenziale beschneiden, die neue technologische Möglichkeiten heute bieten. Für viele Anwendungen lassen sich die Hürden des Datenschutzes vermutlich durch ausdrückliche Einwilligungserklärungen der Betroffenen zur Datenerhebung, -speicherung, -analyse und -weitergabe überwinden. In Betracht kommen dabei auch ‚Datenspenden‘ an Forschungseinrichtungen o. ä. Das gilt aber nicht für jede Situation. Beispielsweise ist die Voraussetzung zur Einwilligung bei einem Unfall, um gesundheitsrelevante Daten an einen Arzt oder ein Krankenhaus zu übermitteln, damit schneller eine adäquate Hilfe bestimmt und organisiert werden kann, vielfach nicht zweckmäßig oder unerfüllbar. Allzu restriktive Datenschutzbestimmungen sind etwa in einer solchen Situation nicht hilfreich und sind vor allem nicht im Interesse derjenigen, die mit den Regelungen eigentlich geschützt werden sollen.  

 

Rolle der Versicherer

Die Potenziale, die aufgrund der Menge an Daten und neuen Technologien in der Lebenswelt Gesundheit erwachsen, sind vielseitig und bringen viele Chancen, auch für die Versicherer. Wie im Abschnitt «Digitale Krankenversicherer am Beispiel Oscar und Clover» gezeigt wurde, liefern Daten die Grundlage zur Entwicklung neuer kundenorientierter Geschäftsmodelle. Dadurch werden allerdings auch ein Zutritt immer neuer Marktteilnehmer und die Bildung von Netzwerken (Ökosystemen) im Gesundheitssektor begünstigt, was die eigene Positionierung eines traditionellen Versicherers in diesem dynamischen Marktumfeld unabdingbar macht. Im Folgenden wird mit Blick auf das Gesundheitsthema auf traditionelle Krankenversicherer fokussiert. Sie werden heute unzweifelhaft gezwungen, sich die neuen technologischen Möglichkeiten und eine moderne Datenbasis zunutze zu machen, um ihre Aufgabe zu erfüllen, eine bestmögliche Gesundheitsversorgung für ihre Kunden hervorzubringen sowie auch ihre eigene Marktposition zu verteidigen und zu stärken. Dafür sind auch im digitalen Umfeld der Kontakt und der Zugang zum Kunden deutlich zu verbessern und dem Kunden gleichzeitig die relevanten Nutzenversprechen anzubieten. Umgekehrt ergibt sich ein Risikopotenzial, das darin liegt und sich konkretisiert, wenn Entwicklungen verkannt und sich daraus ergebende Chancen nicht genutzt werden. Die Ausgangslage der Versicherer unter den neuen Entwicklungen ist als grundsätzlich gut einzuschätzen. Ihr Geschäftsmodell basiert seit jeher auf den Daten der Kunden und deren gesundheitlicher Situation. Zudem genießen sie beim Thema (Gesundheits-)Daten ein hohes Vertrauen, was gerade in der sich digitalisierenden Datenwelt von hoher Relevanz ist. Herausforderungen der Versicherer bestehen jedoch in der Reaktions- und Innovationsgeschwindigkeit bei der Nutzung neuer Technologien und damit auch der Befriedigung der konkreten Kundenwünsche. Gerade in der inzwischen sehr dynamischen Lebenswelt Gesundheit ist eine hohe Reaktionsgeschwindigkeit essenziell, um stets die bestmögliche Versorgung zu bieten. Insbesondere von Versicherungsunternehmen sind jedoch auch ethische und moralische Aspekte in besonderem Maße zu berücksichtigen: So muss geprüft werden, ob Personen, die weniger auf ihre Gesundheit achten, zukünftig etwa bei der Versicherungsprämie benachteiligt werden und inwieweit dies gesellschaftspolitisch vertretbar ist. Ebenfalls sollte der Druck auf die potenziellen Kunden und den Bestand an Versicherten geprüft werden, der mit einem indirekten Zwang einhergeht, die eigenen Daten zur Gesundheit und Lebensweise preiszugeben. Dass umgekehrt mit einer möglichst umfangreichen Datenbasis allerdings im Endeffekt die allgemeine Gesundheit durch Förderung einer gesunden Lebensweise steigt, Diagnose und Therapie verbessert werden können, die Kosten für die Versicherer und Versicherten auf breiter Front sinken sowie Ärzte und das gesamte Gesundheitssystem entlastet werden, ist im gesellschaftlichen Diskurs ebenfalls zu berücksichtigen. In diesem Spannungsfeld müssen die Versicherer und die gesamte Versicherungswirtschaft ihren Weg finden. Schwierig wird dabei die Grenzziehung bei der Datenerhebung, -auswertung und -nutzung zwischen einerseits verhaltensgeprägten Gesundheitsdaten, die der Bürger selbst beeinflussen kann (z. B. durch seine Ernährung, Sport, Schlaf oder den Konsum von bzw. Verzicht auf Alkohol, Zigaretten und Drogen) und für die ihm daher auch eine Verantwortung zugeschrieben werden kann, und andererseits schicksalhaften Gesundheitsdaten (z. B. genetische Disposition). Die weitere Entwicklung kann bei den Krankenversicherern eine grundlegende Änderung des Geschäftsmodells mit sich bringen. Hierbei ist nicht nur an die Möglichkeiten gedacht, Prämienrabatte für bestimmte Lebensweisen zu geben oder Anreize für Präventionsmaßnahmen zu setzen, um mit den damit sinkenden Behandlungskosten die Policen insgesamt günstiger anbieten zu können. Die aktuelle Marktsituation bietet vielmehr auch Ansätze für die Versicherer, sich in den entstehenden Ökosystemen Gesundheit als Orchestrator oder Zulieferer zu positionieren. Auf diese Weise können Kooperationspotenziale genutzt und die Zusammenarbeit mit Ärzten, Krankenhäusern, Pflegern und anderen Gesundheitsdienstleistern gestärkt werden. Möglicherweise haben dabei andere, schon digitaler aufgestellte Unternehmen und Branchen aufgrund einer ausgeprägteren Technologieaffinität, schlankeren Prozessen und einer höheren Agilität und Flexibilität derzeit einige Wettbewerbsvorteile. Umso wichtiger ist es für die Versicherer, sich auf ihre Kompetenzen zu konzentrieren und sich eine passende Rolle zu suchen. Gerade in der Lebenswelt Gesundheit ist die Rolle des ‚Enablers‘ für den Versicherer gut vorstellbar: Der Kundenzugang und das hohe Kundenvertrauen könnten genutzt werden, um sich stärker als eine Art vermittelnder Akteur zwischen den Parteien Patient, Arzt, Krankenhaus und Pflegedienstleister zu positionieren und somit für das Gesamtsystem die Schlüsselrolle als Orchestrator eines Netzwerks einzunehmen. Die Daten, die dadurch zusätzlich generiert werden können, sind eine wertvolle Ressource. Mit dieser Möglichkeit geht allerdings auch eine sehr große Verantwortung einher. Wenn alle Daten zentral bei einem Versicherer zusammenlaufen, ist er damit in einem hohen Maß im gesamten Ökosystem für die Datensicherheit der Kunden verantwortlich. Das vorher aufgeworfene Paradoxon, die Übersensibilisierung der Datensicherheit einerseits und der Wunsch nach besseren Gesundheitsleistungen andererseits, muss in dieser Rolle auch maßgeblich von den Versicherern gelöst werden. In Betracht kommt für ein Versicherungsunternehmen natürlich auch die Rolle des Zulieferers in einem Ökosystem Gesundheit. Hier stellt sich die Frage, welche Kernkompetenzen darin eingebracht werden können. Typischerweise wird es sich dabei um die Risikotragung und die Finanzierung von Gesundheitsleistungen handeln. Eine gute Ausgangsposition haben die Versicherer auch mit ihren historischen Daten über die Gesundheit, Krankheitsverläufe und Behandlungsdaten ihrer Versicherten, die sie einbringen könnten – wobei natürlich der Datenschutz abermals eine zentrale Rolle spielt. Fallweise kommen weitere Kompetenzen infrage, wie z. B. die Kundenberatung und -betreuung, sowie die Übernahme von Backoffice-Funktionen und -Prozessen (Kalkulationsaufgaben, Abrechnungsleistungen, Datenverwaltung).  

 

Zur einfacheren Lesbarkeit wurden die Quellenverweise entfernt.

Fred Wagner, Theresa Jost in: Die Big Data-Debatte; Springer, 2019

https://link.springer.com/chapter/10.1007/978-3-658-27258-6_2

http://creativecommons.org/licenses/by/4.0/deed.de

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

Ausbildung Krisenstab

Wir sorgen dafür, dass Ihr Krisenstab so fit wie möglich wird, um Krisensituationen systematisch und gut vorbereitet zu bewältigen.

  • Rolle des Krisenstabs innerhalb der Organisation und als Kern des Krisenmanagements
  • Aufgaben des Krisenstabs vor, während und nach einer Krise
  • Arbeitsprozesse in der Krisenbewältigung
  • Krisenstabsübungen

Angebot anfordern

Aufbau Krisenmanagement

Wir unterstützen Sie mit Erfahrung und Best Practice bei der Erarbeitung des Krisenmanagementsystems.

  • Erarbeitung und Review Ihres Krisenmanagementkonzeptes und -handbuches
  • Bereitstellung von Arbeitsinstrumenten des Krisenstabes



Angebot anfordern

Virtueller Arbeitsraum für Krisenstäbe

Für den Fall, dass Ihr Krisenstab auch funktionieren soll, wenn eine physische Zusammenarbeit nicht möglich ist:

  • Bereitstellung einer virtuellen Arbeitsumgebung für den Krisenstab
  • Training in der Handhabung

Angebot anfordern

Stresstest Krisenbewältigung

Der Stresstest zeigt Ihnen auf, wo Ihr Krisenstab steht und wie schlagkräftig Ihre Arbeitsprozesse in der Krisenbewältigung sind.

 

Dieser Text ist unsichtbar

Angebot anfordern

 

Unverbindliche Anfrage

 

Natürlich 100% vertraulich, kostenfrei und unverbindlich!

Hinweis zur Verwendung von Cookies
Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Sie können die Verwendung von Cookies annehmen oder ablehnen. Weitere Informationen hierzu erhalten Sie in unserer Datenschutzerklärung