Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Gehirn-Computer-Schnittstellen auf dem Weg vom Medizinlabor in die Anwendungspraxis – Teil 2

Angriffsszenarien

Wege, um Angriffe auf die Vertraulichkeit, Verfügbarkeit, Belastbarkeit und Integrität von Gehirn-Computer-Schnittstellen zu verüben, gibt es genügend. So ist es denkbar, dass der Angreifer bereits den Stimulus beeinflusst, der beim Opfer bestimmte neuronale Signalmuster hervorruft. Während der Aufnahme kann er neuronale Signale stören oder die aufgenommenen Daten verfälschen. Ein Eindringling kann ebenfalls die Verarbeitung der Rohdaten beim Messen der Gehirnaktivitäten oder ihre Klassifizierung manipulieren. Kontrolliert ein Angreifer etwa den Output der Klassifizierung, übernimmt er das mit der Gehirn-Computer-Schnittstelle gesteuerte Gerät: Ein Patient könnte z. B. die Gewalt über die Bewegungsrichtung und Geschwindigkeit seines Rollstuhls verlieren, den er via Gehirn-Computer-Schnittstelle bedient. Auch mithilfe einer Schadsoftware lassen sich Geräte, die ein Patient mit einer aktiven Gehirn-Computer-Schnittstellen steuert, übernehmen.

a) Angriffsziele und -folgen

Die konkreten Spielarten hypothetischer Angriffs- und Schadensszenarien hängen entscheidend vom technischen Design der jeweiligen Gehirn-Computer-Schnittstelle ab – z. B. davon, ob sie „nur“ Gehirnaktivitäten messen und aufnehmen, auch stimulieren, oder ob sie ein Gerät, z. B. eine Prothese, bedienen kann.

Aktive Gehirn-Computer-Schnittstellen und die mit ihnen vernetzten Prothesen erweisen sich als besonders vulnerables Angriffsziel. Übernimmt ein Angreifer z. B. die Kontrolle über eine Armprothese, kann er dem Opfer sowie Dritten erhebliche Schäden zufügen. Im Falle einer stimulierenden Gehirn-Computer-Schnittstelle kann ein Angreifer sogar lebensbedrohliche Folgen auslösen, wenn Neurostimulatoren dem Nutzer elektrische Impulse versetzen.

Generell gilt: Je mehr Funktionen eine Gehirn-Computer-Schnittstelle in sich vereint, desto reichhaltiger ist das Portfolio der denkbaren Angriffsszenarien. Während unbefugte Dritte bei aktiven Angriffen in die Funktion der Gehirn-Computer-Schnittstelle eingreifen, tasten passive Angriffe die Vertraulichkeit an, um private Informationen der Nutzer zu erspähen. Dabei können Angreifer zielgerichtet bestimmte Personen anvisieren oder eine bekannte Sicherheitslücke ausnutzen, um betroffene Gehirn-Computer-Schnittstellen „blind“ zu attackieren (sog. targeted und blind bzw. mass oder opportunistic attacks).

Sollten Schnittstellen es dem Nutzer in Zukunft etwa ermöglichen, nicht nur einen externen Computer zu bedienen, sondern darüber hinaus gleichsam telepathisch mit anderen Personen zu kommunizieren oder kognitive Fähigkeiten, wie das Erinnerungsvermögen, zu verbessern, eröffnen sich zahlreiche weitere Ansatzpunkte für Beeinträchtigungen.

aa) Angriffe auf die Vertraulichkeit

Ein zentraler Angriffspunkt einer Gehirn-Computer-Schnittstelle ist der Neurochip, der die Messdaten verarbeitet sowie mit anderen Computern interagiert und kommuniziert. Er bündelt in der Regel sensible Daten, die Informationen über den Gesundheitszustand des Patienten an das Tageslicht spülen oder Rückschlüsse auf die Identität des Nutzers zulassen.

Der Angreifer kann den Nutzer einer aktiven Schnittstelle auch Stimuli aussetzen, um aus den resultierenden Gehirnaktivitäten Schlüsse auf private Informationen zu ziehen. So haben Forscher in einem Experiment mithilfe frei verkäuflicher EEG-Headsets vierstellige Geheimzahlen (PINs) in Erfahrung gebracht. Künftig können Angreifer auf diese Weise womöglich Informationen über die politische oder religiöse Ausrichtung, Erinnerungen oder emotionale Reaktionen extrahieren sowie Lügen detektieren – es entstünde eine „Brain Spyware“. Das macht Daten, die Gehirn-Computer-Schnittstellen zutage fördern, für viele Anwendungen attraktiv – bis hin zu Maßnahmen der Terrorismusbekämpfung oder Strafermittlung.

Die Informationen, die ein Angreifer erlangt, lassen sich auf vielfältige Weise missbrauchen, insbesondere monetarisieren. Gesundheitsbezogene Informationen kann der Angreifer bspw. verwenden, um den Nutzer bzw. Patienten zu erpressen oder um sie im Darknet feilzubieten. Je nach Art der Informationen können sie für einen Identitätsdiebstahl oder Krankenversicherungsbetrug bzw. -missbrauch zum Einsatz kommen. Zudem lassen sich z. B. umfangreiche Aktivitätenprofile der betroffenen Person erstellen.

Nicht zuletzt könnte der Angreifer in „Lauschangriffen“ die Kommunikation zwischen verschiedenen Komponenten der Gehirn-Computer-Schnittstelle „abhören“ und aufzeichnen. Denkbar ist es bspw., Menschen unbefugt zu scannen, um festzustellen, ob sie Implantate in sich tragen und welches Modell sie nutzen. Dadurch lassen sich Rückschlüsse auf den Gesundheitszustand einer Person ziehen oder passgenaue Angriffsszenarien entwickeln. Hat ein Angreifer etwa die Modell- oder Seriennummer des Geräts erspäht und bereits bekannte Sicherheitslücken ausfindig gemacht, kann er weitere (auch aktive) Angriffe auf die Gehirn-Computer-Schnittstelle leichter durchführen.

bb) Angriffe auf die Verfügbarkeit und Belastbarkeit

Angriffe auf die Verfügbarkeit eines Systems beeinträchtigen die Funktionsfähigkeit einer Gehirn-Computer-Schnittstelle. Die Neuroprothese eines beinamputierten Menschen funktioniert dann beim Gehen nicht mehr, der Nutzer stürzt und verletzt sich; eine stimulierende Schnittstelle kann einen Epilepsieanfall nicht mehr verhindern oder abmildern. Ein Angreifer kann bspw. die Gehirn-Computer-Schnittstelle mit massenhaften Anfragen überlasten (sog. Denial-of-Service[DoS]-Angriffe), um sie gezielt unter der Last der Anfragen kollabieren zu lassen. Dann kann sie legitime Anfragen und Prozesse nicht mehr durchführen. DoS-Angriffe können ebenfalls die Belastbarkeit einer Gehirn-Computer-Schnittstelle strapazieren: Das Gerät ist dann nicht hinreichend robust, um Gefahrenlagen zu bewältigen; insbesondere kann es die notwendige Leistungsfähigkeit nicht länger aufrechterhalten oder zügig wiederherstellen.

cc) Angriffe auf die Integrität

Die wohl schwerwiegendsten Attacken auf Gehirn-Computer-Schnittstellen sind solche, die auf ihre Integrität zielen: Ein Angreifer manipuliert in diesem Fall die Informationen bzw. die Kommunikation mit anderen Geräten oder beeinträchtigt die Funktionsfähigkeit des Systems insgesamt. So lassen sich Geräteeinstellungen, Befehle oder Daten verändern sowie von Angreifern manipulierte Updates injizieren, um die Steuerung einer Prothese zu übernehmen (Hijacking bzw. Brainjacking) oder ein fehlerhaftes Feedback an die Schnittstelle zu übermitteln. Besonders brenzlig wird es, wenn Angreifer in neurologische Abläufe eingreifen und dadurch Schmerzen, Emotionen oder einen Verlust der Impulskontrolle herbeiführen, die empfindliche Schäden nach sich ziehen. In ferner Zukunft könnte es gar möglich sein, dass ein Angreifer die Gedanken eines anderen Menschen beeinflusst und ihn so zu bestimmten Handlungen verleitet.

b) Angriffsvektoren und häufige Schwachstellen

Besonders groß sind Angriffsflächen für Cyberattacken, wenn Geräte drahtlos vernetzt sind. Viele medizinische Implantate sind zwingend auf eine drahtlose Verbindung angewiesen, weil sie im Körper eingepflanzt und nicht effektiv auf anderen Wegen ansteuerbar sind.

Um die Informationen, die ein Implantat erhebt, speichern und analysieren zu können (z. B. um das Implantat auf seine Funktionsfähigkeit hin zu überprüfen oder den Therapieerfolg zu überwachen), interagiert die Schnittstelle mit einem PC oder Smartphone. Veraltete Software, insbesondere nicht mehr aktuelle Betriebssysteme, können dann als Einfallstor dienen, um Geräte zu attackieren. Zahlreiche Medizinprodukte senden Daten an einen Home-Monitor, der diese sammelt und drahtlos in ein Repositorium hochlädt, sodass der behandelnde Arzt diese auf einer Webseite einsehen kann. Bei Deep Brain Stimulation kommt das Gerät, das die Abgabe des elektrischen Pulses zur Stimulierung regelt, im Brustbereich zum Einsatz und kommuniziert mit den Mikroelektroden im Gehirn, die neuronale Aktivitäten messen. Übertragen Medizinprodukte Daten unverschlüsselt, wie etwa einige implantierte Kardioverter-Defibrillatoren, können Unbefugte sie mit einer Funkausrüstung mitlesen.

Wenn Gehirn-Computer-Schnittstellen perspektivisch Daten drahtlos mit einem Smartphone über eine App austauschen, potenziert sich das Risiko. Denn nicht nur von der Schnittstelle selbst gehen dann Gefahren aus, sondern auch von dem mit ihr verbundenen Gerät, z. B. einem Smartphone.

Rechtsrahmen für Gehirn-Computer-Schnittstellen

Die berechtigte Sorge vor Cyberangriffen auf Medizinprodukte ruft allerorten Regierungen und Behörden auf den Plan, effektive und handhabbare Regelungen und Anforderungen für die Cybersicherheit von Medizinprodukten zu entwickeln.

Auf den ersten Blick drängt sich das Strafrecht als Abschreckungswaffe par excellence auf, um Cyberangriffen entgegenzuwirken. In praxi entpuppt es sich jedoch als vergleichsweise stumpfes Schwert. Da Angriffe für die Cybersicherheit örtlich entkoppelt erfolgen können, entziehen sich (international operierende oder sich gekonnt verschleiernde) Akteure bislang typischerweise erfolgreich dem Zugriff der Strafverfolgungsbehörden: Sie agieren meist von Orten aus, in denen sie keine Strafverfolgung fürchten müssen, oder unter der Obhut eines Staates. Bei Gefahren für hochrangige Rechtsgüter wie Leben, Körper, Gesundheit und mentale Integrität, genügt die repressive Konzeption des Strafrechts ohnedies nicht als Schutzinstrument. Es sind zwingend auch präventive Ansätze und Strategien geboten: Wirksame Schutzmaßnahmen müssen Angreifern den Zugriff von vornherein unmöglich machen oder zumindest wesentlich erschweren.

Verfassungsrechtliche Schutzgüter

Ein Regelungskonzept gegen Cyberangriffe muss sich bruchfrei in den verfassungsrechtlichen Rahmen einbetten, den das Grundgesetz zieht. Dieses schützt den Einzelnen gegen den Zugriff Dritter auf seine Gehirn-Computer-Schnittstellen in unterschiedlichen grundrechtlichen Tatbeständen.

Betroffene Grundrechte

a) Schutz der Privatsphäre: personenbezogene Daten und IT-Systeme (Art. 7 und Art. 8 GRCh, Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG); Telekommunikationsgeheimnis (Art. 10 Abs. 1 GG)

Erbeuten Cyberangriffe Informationen zum (neurologischen oder psychischen) Gesundheitszustand oder zu emotionalen Reaktionen, legt das intimste Bereiche der Privatheit des Nutzers offen und tangiert dadurch die informationelle Selbstbestimmung. Diese verbürgt jedem Grundrechtsträger das Recht, grundsätzlich selbst zu bestimmen, ob und innerhalb welcher Grenzen er persönliche Lebenssachverhalte offenbart (Art. 2 Abs. 1 GG i. V. m. Art. 1 Abs. 1 GG bzw. Art. 7 und 8 GRCh und Art. 8 EMRK). Die grundrechtliche Wertung wirkt auch in privatrechtliche Beziehungen hinein. Ihr Schutzgehalt versagt es Dritten, die Persönlichkeit der betroffenen Person zu registrieren, zu katalogisieren und ein umfassendes Persönlichkeitsprofil zu erstellen.

Das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme (sog. IT-Grundrecht) gewährt einer anderen Komponente des Persönlichkeitsrechts besonderen grundrechtlichen Schutz: Es richtet seinen Schutzradius nicht nur auf einzelne Daten aus, sondern bewahrt das gesamte System davor, dass Unbefugte eindringen und es modifizieren; es schützt sowohl die Unversehrtheit der Daten als auch die Funktionsweise des Systems. Soweit ein IT-System Kommunikationsinhalte an Dritte überträgt, tritt ergänzend das Telekommunikationsgeheimnis als Schutzrecht hinzu: Es verbürgt die Vertraulichkeit der Inhalte und Umstände individueller Kommunikationsvorgänge, solange sie aufgrund des Übertragungsvorgangs erhöhten Zugriffsgefahren ausgesetzt sind.

b) Angriffe auf die körperliche und „mentale“ Integrität

Fügt ein Cyberangriff den Nutzern einer Schnittstelle Schmerzen zu oder verursacht er Schäden im Gehirn, greift dies in die körperliche Integrität und ggf. das Recht auf Leben (Art. 2 Abs. 2 S. 1 GG) ein – ebenso, wenn ein Angreifer auf ein Neuroimplantat einwirkt, auf das ein Patient angewiesen ist.

Manipulationen, welche die „mentale Integrität“ betreffen, lassen sich schwerer in das grundrechtliche Raster einordnen. Sie beeinflussen Gehirnaktivitäten und rufen emotionale Zustände oder sonstige Reaktionen hervor. Auch das Verhalten, die Persönlichkeit oder Identität können sie verändern. Betrachtet man solche Steuerungen der Gehirnaktivitäten rein neurowissenschaftlich, handelt es sich um einen Eingriff in körperliche Vorgänge (Art. 2 Abs. 2 S. 1 GG). Berührt eine Gehirnmanipulation die Grundlage menschlicher Selbstwahrnehmung sowie die Konstituierung des Ichs, erschöpft sie sich nicht in einem körperlichen Eingriff. Sie kann einerseits die Menschenwürde und andererseits das allgemeine Persönlichkeitsrecht (Art. 2 Abs. 1 GG i. V. m. Art. 1 Abs. 1 GG) berühren.

c) Autonomie und Handlungsfreiheit

Wer die Kontrolle über seine Gehirn-Computer-Schnittstelle und ggf. über eine hierdurch gesteuerte Prothese verliert, büßt mehr ein als nur seine Daten und körperliche Integrität. Im Extremfall geht er seiner Fähigkeit verlustig, Entscheidungen im Einklang mit seinen Wünschen und Absichten zu treffen und diese selbstbestimmt in die Tat umzusetzen.

Die Kategorie „Autonomie“ ist der deutschen Grundrechtsdogmatik zwar nicht als solche vertraut. Die allgemeine Handlungsfreiheit (Art. 2 Abs. 1 GG) und das allgemeine Persönlichkeitsrecht (Art. 2 Abs. 1 GG i. V. m. Art. 1 Abs. 1 GG), das den Geltungsanspruch des Individuums in der sozialen Welt schützt, decken allerdings zentrale Aspekte der menschlichen Autonomie ab. Dies gilt insbesondere für solche Konstellationen, in denen die Gehirn-Computer-Schnittstelle medizinisch notwendig bzw. rehabilitativ ist, der Patient also nur mit ihrer Hilfe überhaupt in der Lage ist, sein Leben selbstbestimmt zu führen. Bei Schnittstellen, die motorische Fähigkeiten wiederherstellen, läuft der Patient bspw. Gefahr, seine Bewegungsfreiheit einzubüßen.

d) Eigentum

Schaltet ein Angreifer eine Gehirn-Computer-Schnittstelle aus oder zerstört ihre Funktionsfähigkeit, beeinträchtigt das ihren Nutzer in seinem Eigentumsrecht (Art. 14 Abs. 1 GG). Das Gleiche gilt, wenn Cyberangriffe die Gehirn-Computer-Schnittstelle mit Anfragen überlasten, bis sie ihre Funktionen nicht mehr erfüllen kann. Auch in diesen Fällen entzieht der Angreifer dem Eigentümer die Nutzungsmöglichkeit.

Reichweite der Schutzpflicht

Das vielschichtige Gewährleistungspotpourri der Grundrechte vermittelt dem Einzelnen nicht nur ein Abwehrrecht gegen staatliche Zugriffe, sondern konstituiert auch eine staatliche Schutzpflicht gegen das Wirken Privater: Kraft der objektivrechtlichen Dimension der Grundrechte ist der Staat verpflichtet, sich „schützend und fördernd“ vor sie zu stellen. Das gilt für die Integrität und Vertraulichkeit von IT-Systemen in besonderer Weise: Der Staat kann diese nur dann angemessen gewährleisten, wenn er dem Schutzgehalt auch gegenüber Privaten zur Wirksamkeit verhilft.

Seinem Ausgestaltungsauftrag ist der Gesetzgeber im Ansatz bspw. durch die Strafvorschriften für unbefugtes Ausspähen (§ 202a StGB) und Abfangen von Daten (§ 202b StGB) sowie durch die Tatbestände der Datenveränderung (§ 303a StGB) und Computersabotage (§ 303b StGB) nachgekommen. Mit Blick auf die elementaren Risiken, die von Angriffen auf Gehirn-Computer-Schnittstellen ausgehen, ist die Rechtsordnung jedoch auch aufgerufen, hohe Anforderungen an die Cybersicherheit zu stellen, um dystopische „Brainhacks“ möglichst zu verhindern, oder wenigstens zu erschweren bzw. schnellstmöglich zu unterbinden. Das Datenschutz- und IT-Sicherheitsrecht bis hin zu den Vorgaben im Medizinprodukterecht sind Ausdruck dieses Schutzauftrags.

Die staatliche Schutzpflicht ist aber nicht grenzenlos. Sie stößt an ihre Schranken, wenn sich Nutzer einer Gehirn-Computer-Schnittstelle eigenverantwortlich selbst gefährden, um die eigene Leistungsfähigkeit zu optimieren (sog. Neuroenhancement). Die Freiheitsrechte (und damit die Schutzpflicht des Staates) sind nicht als ein aufgedrängtes Schutzgut konzipiert, das den Einzelnen vor sich selbst schützt: Der Staat darf sie dem Einzelnen nicht ohne Weiteres aufnötigen, soweit die Selbstgefährdung nicht zugleich die Allgemeinheit intensiv beeinträchtigt, z. B. weil sie dem Gemeinwesen hohe Gesundheitskosten aufbürdet. Dem Einzelnen bleibt es deshalb im Grundsatz unbenommen, sich selbst durch Neuroenhancement zu gefährden oder zu schädigen sowie in Einwirkungen einzuwilligen. Das Recht, Neuroenhancement zu betreiben, ist Teil des Schutzgehalts der allgemeinen Handlungsfreiheit.

Umgekehrt darf das Gemeinwesen seine Hilfe dem Einzelnen nicht ohne Weiteres deshalb vorenthalten, weil er sich zum Zwecke der Selbstoptimierung selbst gefährdet hat. Wer sich selbst in Gefahr gebracht hat, den darf der Staat nicht gleichsam fallen lassen und ihn seinem Schicksal überlassen. So greift die staatliche Schutzpflicht auch für denjenigen, der Drogen konsumiert oder sich einer nicht medizinisch indizierten Schönheitsoperation unterzogen hat. Die Schutzpflicht endet erst, wenn der sich selbst Gefährdende wider besseres Wissen handelt und auf die Hilfe anderer spekuliert.

Als Ausdruck seiner Schutzpflicht ist der Staat im Ergebnis gehalten, bei nichtmedizinischen Neurotechnologieprodukten, welche die Gesundheit beeinträchtigen können, durch Regulierung für ein hinreichendes Maß an IT-Sicherheit zu sorgen. Wenn der Einzelne die Risiken seiner Selbstgefährdung durch sog. „Do-it-yourself“-Produkte, die Privatpersonen zusammenbasteln und anwenden, zu spät erkennt und sich von den Folgen befreien möchte, hat der Staat ihm ein Hilfsangebot zu machen.

Einfachrechtliche Anforderungen

Ein spezifisches einfachgesetzliches Rechtsregime für Gehirn-Computer-Schnittstellen hat der Gesetzgeber bislang nicht entfaltet. Das Datenschutzrecht (1.), das Medizinprodukterecht (2.) als auch allgemeine Vorschriften des IT-Sicherheitsrechts (3.) stecken jedoch einen groben normativen Rahmen ab.

Das Datenschutzrecht als allgemeiner IT-sicherheitsrechtlicher Überbau

a) Verarbeitung personenbezogener Daten

Gehirnsignale, die Gehirn-Computer-Schnittstellen aufnehmen, machen eine Person identifizierbar. Als personenbezogene Daten (Art. 4 Nr. 1 DSGVO) unterliegen sie dem Regelungsanspruch der DSGVO. Sie gehören zudem einer besonderen Sensibilitätskategorie des Datenschutzrechts an. Denn sie geben typischerweise Auskunft über die körperliche und geistige Gesundheit einer natürlichen Person und sind damit Gesundheitsdaten (Art. 4 Nr. 15 DSGVO), die den besonders hohen Rechtfertigungshürden des Art. 9 Abs. 1 DSGVO unterliegen. So werten manche Apps oder Spiele, die mit Gehirn-Computer-Schnittstellen interagieren, bspw. Informationen zum Stresspegel aus und schließen hieraus auf die (psychische) Gesundheit des Nutzers. Selbst bei Geräten, die nicht im medizinischen Bereich zum Einsatz kommen, können neurologische Daten ggf. Informationen über den gegenwärtigen oder künftigen körperlichen oder psychischen Gesundheitszustand des Nutzers preisgeben. Darüber hinaus lassen sich Gehirnaktivitätsmuster als physiologische Merkmale einsetzen, um Personen automatisiert zu identifizieren und zu authentifizieren. Auch die Verarbeitung solcher biometrischer Daten (Art. 4 Nr. 14 DSGVO) muss sich an Art. 9 Abs. 1 DSGVO messen lassen.

b) Datensicherheit

Der Regelungsanspruch der DSGVO erschöpft sich keineswegs in datenschutzrechtlichen Geboten. Sie formuliert vielmehr auch Anforderungen an die Datensicherheit: Der Verantwortliche muss (ebenso wie der etwaige Auftragsverarbeiter) geeignete technische und organisatorische Maßnahmen treffen, um ein dem Risiko angemessenes Sicherheitsschutzniveau zu gewährleisten (Art. 32 Abs. 1 DSGVO). Er hat insbesondere die Vertraulichkeit, Integrität, Verfügbarkeit und Belastbarkeit der datenverarbeitenden Systeme sicherzustellen (Art. 32 Abs. 1 Hs. 2 lit. b). Nach einem Zwischenfall muss der Verantwortliche ferner in der Lage sein, die Verfügbarkeit der Daten rasch wiederherzustellen (lit. c). Er muss (ähnlich der Datenschutzfolgenabschätzung nach Art. 35 DSGVO) ein Konzept zum Datensicherheitsmanagement erarbeiten. Dieses Schutzkonzept hat er im Anschluss regelmäßig zu überprüfen (lit. d). Das einzuhaltende Schutzniveau muss sich an dem Risiko ausrichten, das sich mit der Verarbeitung verbindet.

Da Gehirn-Computer-Schnittstellen in der Regel hochsensible biometrische und Gesundheitsdaten verarbeiten, geht von ihnen selbst dann ein hohes Risiko aus, wenn die Wahrscheinlichkeit eines Angriffs gering ist. Sie müssen daher höchsten Ansprüchen genügen, um Zugriffe möglichst zu vermeiden. Die zu ergreifenden Maßnahmen müssen dem Stand der Technik entsprechen, d. h. auf gesicherten Erkenntnissen der Wissenschaft und Technik beruhen, die sich in der Praxis bewährt haben. Seine Anforderungen entwickeln sich im Gleichschritt mit technologischen Innovationen dynamisch fort. Einen ersten Konkretisierungsversuch wagen etwa die ISO 27000-Normenreihe sowie das IT-Grundschutz-Kompendium des BSI.

aa) Verschlüsselung

Eine Basismaßnahme, um sicherzustellen, dass eine Gehirn-Computer-Schnittstelle mit anderen Geräten vertraulich kommuniziert, ist deren Verschlüsselung: Daten sind während der Übertragung („in motion“) und im ruhenden Zustand („at rest“) mit einer geeigneten Verschlüsselungsmethode zu schützen (Art. 32 Abs. 1 lit. a DSGVO).

bb) Authentifikationserfordernis und Zugriffsverwaltung

Um einen unbefugten Fremdzugriff zu verhindern, sollte das System den Zugriff auf eine Gehirn-Computer-Schnittstelle nur nach vorheriger Authentifikation ermöglichen. Eine Benutzerzugriffsverwaltung sollte den Berechtigten (restriktiv) Privilegien und Befugnisse einräumen.

Während bei EEG-Headsets häufig eine individuelle Nutzername-Passwort-Kombination ausreicht, ist bei Neuroimplantaten und Neurostimulatoren eine Zwei-Faktor-Authentifizierung geboten. Wer seinen Rollstuhl per Gehirn-Computer-Schnittstelle lenkt, sollte sich nicht einfach via Bluetooth „koppeln“ können, sondern diesen z. B. durch seine Gehirnwellen in Verbindung mit einer Smartphone-App ansteuern können.

cc) Angriffserkennung

Um die Gefahren zu minimieren, die von dem Gerät ausgehen, das mit der Schnittstelle verbunden ist, sollten Anbieter die Gehirn-Computer-Schnittstelle mit einer Detektions-Software ausstatten. Auf diese Weise lassen sich untypische Aktivitäten oder Schadsoftware erkennen. Hilfreich ist es zudem, alle Aktivitäten und Zugriffe auf die Gehirn-Computer-Schnittstelle in einer Logdatei festzuhalten und diese regelmäßig auf Unregelmäßigkeiten zu überprüfen. Insbesondere sicherheitsrelevante Ereignisse sind zu protokollieren. DoS-Angriffe kann die Gehirn-Computer-Schnittstelle bspw. bewältigen, indem sie als Gegenmaßnahme Anfragen filtert bzw. zurückstellt und ihre Kernfunktionen (das Aufnehmen und Auswerten von Gehirnsignalen) priorisiert.

dd) Security by Design

Die Gehirn-Computer-Schnittstelle sollte sich bei ihren Datenzugriffen entsprechend dem Gebot der Datenminimierung (Art. 5 Abs. 1 lit. c DSGVO) auf die notwendigen Informationen und Verarbeitungsschritte beschränken. Das verkleinert die Angriffsfläche. Bspw. kann die Gehirn-Computer-Schnittstelle neuronale Signale, die für die spezifische Aufgabe erforderlich sind, selbst vorverarbeiten, bevor sie bspw. auf IT-Systeme Dritter übertragen werden (sog. Edge Computing). Rohdaten oder Daten, die nicht explizit für die jeweilige Aufgabe erforderlich sind, muss sie dann nicht übermitteln oder speichern (und sie dadurch Sicherheitsrisiken exponieren). Kraft ihres technischen Zuschnitts („by Design“) sollte die Gehirn-Computer-Schnittstelle so weit wie möglich vermeiden, personenbezogene Daten zu übermitteln: IP-Adressen oder die Modell- bzw. Device-ID sollte das Gerät standardmäßig entfernen, bevor es Daten an eine Plattform übermittelt.

ee) Defense in Depth und Vorfallsmanagement

IT-Sicherheit ist kein Produkt, sondern ein Prozess: Softwaresysteme sind dynamisch und verändern sich stetig. Hacker finden zudem immer neue Schlupfwege in vermeintlich sichere Systeme. Durch technischen Datenschutz allein wird es daher nicht gelingen, Angriffe auf vernetzte Geräte zuverlässig abzuwehren. Kein IT-System genießt überdies absoluten Schutz. Eine gute Sicherheitsarchitektur besteht daher aus vielen, stetig weiterzuentwickelnden Komponenten und Schichten, die einen hinreichenden Schutz sicherstellen (Defense in Depth).

Einem Angreifer genügt bereits eine Schwachstelle. Eine effektive Verteidigungsstrategie muss daher rundum schützen. Die Schutzmaßnahmen sollten auch aus diesem Grund nicht nur unmittelbar an der Schnittstelle selbst, sondern ggf. auch an den mit ihr verbundenen Geräten ansetzen.

Eine entscheidende Rolle bei dem Schutzmaßnahmenpaket kommt dem Vorfallsmanagement zu. Insbesondere Sicherheitsupdates tragen dazu bei, Sicherheitslücken so schnell wie möglich zu erkennen und zu beheben. Ein besonderes Augenmerk sollte dem verwendeten Open-Source-Code und Programmbibliotheken gelten, die Schwachstellen enthalten könnten bzw. unter Umständen einer Aktualisierung bedürfen. Regelmäßige Penetrationstests und Red-Team-Einsätze helfen, die Sicherheitsmaßnahmen zu überprüfen und zu bewerten (vgl. Art. 32 Abs. 1 Hs. 2 lit. d DSGVO).

Ist das Kind der IT-Sicherheit erst einmal gleichsam in den Brunnen gefallen, ist es also zu einem Sicherheitsvorfall gekommen, der Unbefugten Zugriff auf die personenbezogenen Daten eröffnet hat, muss der Verantwortliche dies der Aufsichtsbehörde (Art. 33 Abs. 1 DSGVO, § 65 BDSG) sowie der betroffenen Person (Art. 34 Abs. 1 DSGVO, § 66 BDSG) melden. Er sollte zudem ein Vorfalls- und Notfall-Management einrichten, das darauf gerichtet ist, die Schwachstelle zu untersuchen und zu beheben, um im Ernstfall rasch auf Vorkommnisse reagieren zu können (Art. 32 Abs. 1 Hs. 2 lit. c DSGVO).

c) Adressat der Pflichten

Am zuverlässigsten kann der Hersteller des Produkts ein hohes Sicherheitsniveau der Gehirn-Computer-Schnittstelle verbürgen. Die sicherheitsrechtlichen Pflichten der Art. 32 ff. DSGVO treffen allerdings nicht den Hersteller eines Produkts, sondern alleine den datenschutzrechtlich Verantwortlichen, also denjenigen, der tatsächlich oder rechtlich über die Zwecke und Mittel der Datenverarbeitung entscheidet (Art. 4 Nr. 7 DSGVO).

Verantwortlicher im datenschutzrechtlichen Sinn ist der Hersteller nur dann, wenn er für die Schnittstelle eine App oder eine Cloud vorhält, die Daten auf die Server des Anbieters hochlädt und dort z. B. analysiert, sodass er die relevanten personenbezogenen Daten verarbeitet. Seine Pflichten aus Art. 32 ff. DSGVO erstrecken sich in diesem Fall aber nur auf den Verarbeitungsvorgang selbst, nicht auf die Herstellungseigenschaften des Produkts, insbesondere die technischen Eigenschaften der Schnittstelle. Diese sind nicht Gegenstand des datenschutzrechtlichen Pflichtenradars. Das Regulierungsportfolio der DSGVO hat an dieser wichtigen Stelle eine Lücke: Denjenigen, der die Weichenstellungen für die Gehirn-Computer-Schnittstelle trifft, adressiert sie grundsätzlich nicht. Effektiv anonymisieren, pseudonymisieren sowie verschlüsseln kann aber nur derjenige, dem dafür überhaupt die technischen Möglichkeiten zur Verfügung stehen. Ein App-Anbieter muss seine Software als Verantwortlicher mithin so gestalten, dass sie Datensicherheit gewährleistet, selbst wenn er keinen unmittelbaren Einfluss auf die eingesetzte Hardware hat. Im Bereich der „Do-it-yourself“Produkte und Analysetools entscheidet dagegen der Nutzer als Verantwortlicher typischerweise selbst, welche Daten seine Gehirn-Computer-Schnittstelle erhebt und verarbeitet.

Medizinprodukterecht

Kommen Gehirn-Computer-Schnittstellen im Gesundheitswesen zum Einsatz, zieht die Medizinprodukte-Verordnung (MPVO) ergänzende normative Leitplanken ein, die Sicherheitsanforderungen etablieren. Seit dem 26. Mai 2021 ist sie in der gesamten EU unmittelbar anwendbar.

a) Gehirn-Computer-Schnittstellen als Medizinprodukte

Die MPVO erstreckt sich grundsätzlich auf Produkte, die für Menschen bestimmt sind und einen spezifischen medizinischen Zweck erfüllen: Sie sollen Krankheiten oder Behinderungen diagnostizieren, überwachen, behandeln oder lindern (Art. 2 Nr. 1 MPVO).

Sofern eine Gehirn-Computer-Schnittstelle eine medizinische Zweckbestimmung aufweist, fällt sie daher typischerweise in den Anwendungsbereich der Verordnung. Diese Voraussetzungen erfüllen etwa dauerhaft implantierte Deep-Brain-Stimulatoren oder andere Neuroimplantate, die Parkinson-Tremores oder Epilepsie behandeln sollen. Auch EEG-Headsets mit medizinischer Zweckbestimmung sind Medizinprodukte. Die dazugehörige Software ist Teil des Produkts, da sie dieses steuert und dessen Anwendungen beeinflusst. Ein eigenständiges Medizinprodukt ist Software demgegenüber nur dann, wenn sie Informationen zu Entscheidungen für diagnostische oder therapeutische Zwecke liefert oder physiologische Prozesse kontrolliert. Dies gilt bspw. für Apps, welche die Funktionen und Anwendungsmöglichkeiten der Gehirn-Computer-Schnittstelle erweitern. Apps oder Anwendungen, die Daten lediglich speichern, archivieren, kommunizieren oder anzeigen, erfasst die MPVO hingegen nicht.

aa) Medizinische Zweckbestimmung

Ob ein Produkt eine medizinische Zweckbestimmung aufweist, bestimmt sich (anders als man auf den ersten Blick vermuten könnte) nicht danach, welchen Zweck die Verbraucher einer Gehirn-Computer-Schnittstelle im Rahmen ihres Konsumverhaltens unterlegen. Entscheidend ist allein die Zweckbestimmung des Herstellers („dem Hersteller zufolge“).

Es verwundert deshalb nicht, dass viele Hersteller ihre EEG-Headsets unter ausdrücklichem Ausschluss einer medizinischen Zweckbestimmung verkaufen. Solche Freizeit- bzw. Verbraucherprodukte, die u. a. dazu dienen, Konzentration oder Stress zu überwachen, sind keine Medizinprodukte i. S. der MPVO. Diese „Wellness“-Sparte von EEG-Headsets, mit denen Nutzer ihre Gehirnaktivitäten (i. S. des „Quantified Self“) ohne medizinische Indikation selbst überwachen, dient der allgemeinen Gesundheitsförderung, die sich auf Lifestyle-Optimierung und kleinere Befindlichkeitsstörungen bezieht.

bb) Produkte ohne medizinische Zweckbestimmung

Auf Gehirn-Computer-Schnittstellen ohne medizinische Zweckbestimmung erstreckt sich die MPVO ausnahmsweise dann, wenn diese das Gehirn (nichtinvasiv) transkraniell (also durch die Schädeldecke hindurch) stimulieren (Art. 1 Abs. 2 MPVO i. V. m. Anhang XVI Nr. 6 MPVO). Damit will der Unionsgesetzgeber den Risiken begegnen, die von einer solchen besonderen Art der Stimulation ausgehen, und Produkte, die manchmal zu medizinischen Zwecken und manchmal für Enhancement zur Anwendung kommen, im Ergebnis den gleichen Anforderungen unterwerfen. Bei ihnen legt es die MPVO also bewusst nicht in die Hand der Hersteller, durch eigene Zweckbestimmung darüber zu befinden, ob die strengen Vorschriften des Rechts der Medizinprodukte zur Anwendung kommen.

Mit Blick auf Produkte, die sich derzeit noch im Forschungsstadium befinden, zeigen sich indes die ersten normativen Lücken der MPVO. So möchte Neuralink ein multifunktionales Neuroimplantat anbieten, das nicht nur neuronale Aktivitäten aufnehmen, sondern auch Neuronen-Cluster stimulieren kann. Solche (futuristischen) Neuroimplantate kämen weder zwingend zu medizinischen Zwecken zum Einsatz noch nähmen sie eine transkranielle (sondern eine intrakranielle, innerhalb des Gehirns erfolgende) Stimulierung des Gehirns vor. Der Normgeber hatte scheinbar nur die (nichtmedizinischen) Stimulierungen durch die Schädeldecke im Blick, nicht aber die invasivere Stimulierung innerhalb des Schädels. Da die Liste in Anhang XVI Ausnahmecharakter hat, lässt sie sich auch nicht durch teleologische Extension um die risikoreichere intrakranielle Stimulierung erweitern.

Anhang XVI Nr. 2 MPVO erstreckt das Regelungsregime der MPVO zwar auch auf solche Produkte, „die dazu bestimmt sind, durch chirurgisch-invasive Verfahren zum Zwecke der Modifizierung der Anatomie […] in den menschlichen Körper eingeführt zu werden“. Implantierte Mikroelektroden, wie sie z. B. Neuralink anvisiert, verändern die Gehirnanatomie oder -struktur jedoch nicht – abgesehen von neuroplastischen Veränderungen bei der Implantation und „Bedienung“ der Schnittstelle, die es erfordert, dass der Nutzer wiederholt bestimmte neuronale Signalmuster erzeugt. Sie sollen Gehirnfunktionen oder -aktivitäten vielmehr messen, um z. B. Computer oder Smartphones „mit Gedanken“ zu steuern.

Spätestens wenn der Markt nichtmedizinischer Neuroimplantate in den nächsten Jahrzehnten breite Teile der Bevölkerung erreicht, sind der nationale und der europäische Normgeber dringend dazu aufgerufen, die regulatorische Lücke zu schließen und die normative Architektur auf kommende technologische Innovationen auszurichten.

b) Allgemeine Anforderungen der MPVO an die IT-Sicherheit von Medizinprodukten und unverbindliche Leitlinien

Anders als etwa Arzneimittel unterliegen Medizinprodukte keiner allgemeinen Zulassungspflicht als Sicherheitsmaßnahme. Die Hersteller sind vielmehr in eigener Verantwortung gehalten, die einschlägigen Sicherheits- und Leistungsanforderungen zu erfüllen. Dazu gehören auch Anforderungen an die IT-Sicherheit der Systeme (Art. 5 Abs. 1, Abs. 2 i. V. m. Anhang I Nr. 1 und Nr. 17 MPVO). Die Verordnung trägt ihnen aber auf, ein Konformitätsverfahren (Art. 52 MPVO) durchzuführen, um sicherzustellen, dass die Medizinprodukte den Sicherheits-, Leistungs- und sonstigen rechtlichen Anforderungen entsprechen. In dessen Rahmen hat ggf. auch eine klinische Bewertung (Art. 61 MPVO) zu erfolgen. Bei dem Konformitätsverfahren wirken sog. Benannte Stellen mit, die von staatlichen Stellen akkreditiert und vom Hersteller beauftragt sein müssen. Sie führen Audits durch und bewerten das implementierte Qualitätsmanagementsystem, insbesondere dessen Umsetzung und die technische Dokumentation. Bei Implantaten ist zudem die Koordinierungsgruppe Medizinprodukte zu beteiligen („Scrutiny Verfahren“, Art. 54 MPVO).

Für die Besonderheiten vernetzter Geräte ist das Medizinprodukterecht indes noch nicht vollständig gewappnet: Die Sicherheits- und Leistungsanforderungen für Medizinprodukte beziehen sich vor allem auf die Produktsicherheit (Safety) – nicht (unmittelbar) auf die Sicherheit des Geräts als IT-System (Security). Dieser Missstand ist ein Relikt aus jener Zeit, als Medizinprodukte über kaum bis keine Softwarekomponenten verfügten und nicht vernetzt waren.

Anforderungen an die Cybersicherheit für Medizinprodukte mit digitaler Komponente gibt die MPVO lediglich durch allgemeine Bestimmungen vor: Neben der Wiederholbarkeit, Zuverlässigkeit und Leistung (Anhang I Nr. 17.1. MPVO) nach Maßgabe der bestimmungsgemäßen Verwendung des Produkts muss der Produzent es „entsprechend dem Stand der Technik entwickelt und hergestellt“ haben. Dabei sind „die Grundsätze des Software-Lebenszyklus, des Risikomanagements einschließlich der Informationssicherheit, der Verifizierung und der Validierung zu berücksichtigen“ (Anhang I Nr. 17.2. MPVO). Der Stand der Technik schließt hinreichend sichere Schutzmaßnahmen gegen Sicherheitsangriffe auf sensible Bausteine ein.

Konkretere Leitlinien zu der Frage, wie ein Hersteller die Anforderungen des Anhangs I der MPVO an Cybersicherheit erfüllen kann, gibt die Guidance on Cybersecurity for Medical Devices der Koordinierungsgruppe Medizinprodukte vor. Sie empfiehlt u. a. Mindestanforderungen zur Gewährleistung der IT-Sicherheit – mit einem klaren Augenmerk auf Cybersicherheitsrisiken, die sich auf die Patientensicherheit auswirken können. Rechtsverbindlich sind diese Leitlinien indes nicht. Sie fungieren vielmehr als Auslegungshilfe für die allgemein gehaltenen Sicherheitsanforderungen der MPVO.

Die Leitlinie gibt den Herstellern von Medizinprodukten insbesondere vor, eine Defense-in-Depth-Strategie zu entwerfen, die den gesamten Produktlebenszyklus abdeckt: Sie soll u. a. Maßnahmen zum sicheren Design und Einsatz, zur Überprüfung und Validierung, zum Sicherheitsmanagement sowie Spezifikationen der Sicherheitsanforderungen enthalten.

Der Anhang der Guidance hält eine Liste mit Maßnahmen und Sicherheitsfunktionen vor, die IT-Sicherheit gewährleisten sollen, z. B. Verschlüsselung, persönliche Authentifizierung, automatisches Abmelden, Hardening („Härten“, also Eliminieren nicht benötigter Funktionen, um die Angriffsfläche zu verkleinern) und Programme, die vor Schadsoftware schützen oder diese erkennen.

Darüber hinaus weist die Guidance aus gutem Grund an, Zugriffsrechte restriktiv zu vergeben und sichere Authentifizierungsmöglichkeiten vorzuhalten. So offensichtlich dies klingt, ist es in der bisherigen Praxis doch keine Selbstverständlichkeit. Manche auf dem Markt vertriebenen Medizinprodukte verfügen über keine oder eine unsichere Methode der Authentifizierung, z. B. Standardpasswörter oder im Klartext auf dem Gerät gespeicherte Passwörter. Es kann außerdem sinnvoll sein, den Zugriff auf ein vernetztes Medizinprodukt auf eine spezifische Raumdistanz zu beschränken, um Fernzugriffe auszuschließen. Alternativ zu einer Internetverbindung ist es etwa möglich, die Gehirn-Computer-Schnittstelle z. B. via Bluetooth mit einem anderen System zu koppeln, um die Sicherheit zu erhöhen.

Zudem gibt die Guidance den Herstellern auf, im Rahmen eines Verfahrens zum Sicherheitsrisikomanagement das Risiko (insbesondere vorhersehbare Schwachstellen) zu evaluieren und mögliche Maßnahmen zu dessen Kontrolle und ggf. verbleibenden Restrisiken in Betracht zu ziehen. Denn dann fällt es den Herstellern im „Ernstfall“ leichter, einem geregelten Verfahren zu folgen, bei dem Zuständigkeiten und Abläufe vorab geklärt sind. Um langfristige Sicherheit zu gewährleisten, haben Hersteller ihre Medizinprodukte zudem fortlaufend zu testen.

c) Pflichten nach Inverkehrbringen

Viele Sicherheitslücken gängiger IT-Systeme treten erst nach einiger Zeit in Erscheinung; fortwährend entstehen bzw. zeigen sich neue Angriffsvektoren. Der Hersteller muss daher den gesamten Lebenszyklus des Medizinprodukts, insbesondere der Softwarekomponenten, auch im Blick behalten, nachdem er es in den Verkehr gebracht hat, um das Restrisiko zu begrenzen. Für stark softwaregesteuerte und ggf. lernfähige Systeme, wie Gehirn-Computer-Schnittstellen, ist dies mit Blick auf die vielen Angriffsvektoren und -szenarien unentbehrlich. Die Hersteller müssen ihre Medizinprodukte überwachen, im Ernstfall die zuständigen Behörden informieren und Präventiv- oder Korrekturmaßnahmen ergreifen (Art. 10 Abs. 12 UAbs. 1, Art. 83 Abs. 4 MPVO). Im Einzelfall können sie auch dazu angehalten sein, ein fehlerhaftes Produkt vom Markt zu nehmen oder zurückzurufen (Art. 95 Abs. 1 MPVO).

aa) Schwerwiegendes Vorkommnis

Im Falle sog. schwerwiegender Vorkommnisse muss der Hersteller Sicherheitskorrekturmaßnahmen im Feld vornehmen, um Schäden abzuwenden und Risiken für Patienten zu verringern (Art. 2 Nr. 68, Art. 83 Abs. 4 MPVO). Dafür kann er bspw. Sicherheitsupdates aufspielen bzw. zur Verfügung stellen. Bei schwerwiegenden Vorkommnissen, die auf Sicherheitslücken der IT-Sicherheit beruhen, ist das BSI zu beteiligen (§ 85 Abs. 5 Nr. 1 Medizinprodukte-Durchführungsgesetz). Darüber hinaus treffen den Hersteller – ähnlich wie den datenschutzrechtlich Verantwortlichen (Art. 33 und 34 DSGVO) – Meldepflichten gegenüber den zuständigen Behörden (sog. Vigilanz, Art. 87 MPVO).

Ein „schwerwiegendes Vorkommnis“ ist eingetreten, wenn eine Fehlfunktion oder Verschlechterung des Medizinprodukts zur Folge haben kann, dass eine Person stirbt, sich ihr Gesundheitszustand vorübergehend oder dauerhaft schwerwiegend verschlechtert oder dass eine schwerwiegende Gefahr für die öffentliche Gesundheit eintritt (Art. 2 Nr. 65 MPVO). Nicht schwerwiegend sind demgegenüber Sicherheitslücken, die es ermöglichen, die Kommunikation eines Medizinprodukts mit einem anderen Gerät abzuhören oder auf dem Medizinprodukt gespeicherte Daten auszuspähen oder zu exportieren. Dies gilt gleichfalls für Konstellationen, in denen die Gesundheit des Patienten nur geringfügig, z. B. durch eine verspätete Behandlung oder langsamere Ausführung, beeinträchtigt ist.

Für Gehirn-Computer-Schnittstellen sind schwerwiegende Vorkommnisse deshalb a priori nur bei Varianten denkbar, die das Gehirn exzessiv stimulieren und schwer schädigen können. Sind dagegen nur leichtere Manipulationen ohne tödliche oder schwerwiegende gesundheitliche Folgen zu gewärtigen, entsteht selbst dann keine Vigilanz-Pflicht, wenn der Patient selbst im Einzelfall die Konsequenzen – vom Vertrauensverlust und Ängsten bis zu leichten Schäden und Schmerzen – als gravierend empfindet.

bb) Einfaches Vorkommnis

Auch bei „einfachen“ Vorkommnissen, die unter der Schwelle des Art. 2 Nr. 65 MPVO bleiben, ist der Hersteller nicht von seiner Verantwortung entbunden, für ein Mindestmaß an Sicherheit zu sorgen. Er bleibt verpflichtet, die Konformität des Produkts im Störungsfall (wieder)herzustellen und Korrekturmaßnahmen vorzunehmen (Art. 10 Abs. 12; Art 83 Abs. 4 MPVO). Er muss die Ursache eines potenziellen oder vorhandenen Konformitätsmangels (oder einer sonstigen unerwünschten Situation, vgl. Art. 2 Nr. 67 MPVO) beseitigen.

Aufsichtsrechtliche Maßnahmen ergreifen die zuständigen Behörden in solchen Fällen nur, wenn Medizinprodukte mutmaßlich ein unvertretbares Risiko auslösen oder aus anderen Gründen nicht rechtskonform sind (Art. 94 MPVO). Dann bewerten sie das Produkt in Hinblick auf die Anforderungen der MPVO und fordern den Hersteller z. B. zu Korrekturmaßnahmen auf. Allerdings muss hierfür ein unvertretbares Gesundheits- und Sicherheitsrisiko für Patienten, Anwender oder andere Personen eintreten (vgl. Art. 95 Abs. 1 MPVO). Insbesondere Schwachstellen, die die Vertraulichkeit von Daten betreffen, erreichen diese kritische Schwelle regelmäßig nicht.

d) Sicherheit durch Datenbanken und Register?

Zu dem Pflichtenheft der Überwachung und Vigilanz gesellt sich im unionsrechtlichen Regulierungsregime eine europäische Datenbank für Medizinprodukte (Eudamed, Art. 33 MPVO; aa) und ein Implantateregister hinzu (§ 1 Abs. 2 Nr. 4 IRegG; bb).

aa) Eudamed

Eudamed hält Informationen über alle Medizinprodukte vor. Die Datenbank ist u. a. mit dem elektronischen System für Vigilanz und für die Überwachung nach dem Inverkehrbringen verknüpft (Art. 33 Abs. 2 lit. f i. V. m. Art. 92 MPVO). Sie speichert u. a. Vigilanz- und klinische Prüfungsdaten sowie wie Informationen über die Hersteller. Ihre Daten sind aber nicht öffentlich zugänglich: Nur die EU-Kommission und die Mitgliedstaaten dürfen auf sie zugreifen (Art. 33 Abs. 5 MMPVO), um auf Sicherheitsrisiken rasch reagieren zu können.

bb) Implantateregister

Anders als Eudamed erfasst das Implantateregister auch Informationen über Patienten mit spezifischen Implantattypen, u. a. Cochleaimplantate und Neurostimulatoren (§ 2 Nr. 1 i. V. m. Anlage IRegG). Der Unionsgesetzgeber will dadurch Implantatrisiken abwehren sowie die Gesundheit und Sicherheit der Patienten schützen (§ 1 Abs. 2 Nr. 1 IRegG). Deshalb muss die Gesundheitseinrichtung, die für die implantatbezogene Maßnahme verantwortlich zeichnet, in Zukunft u. a. technisch-organisatorische Daten zum Versorgungsprozess, implantatrelevante Befunde sowie individuelle Parameter zum Implantat melden (§ 16 Abs. 1 IRegG). Darunter fallen etwa sicherheitsbezogene Änderungen eines Implantats oder Sicherheitsupdates (§ 2 Nr. 4 IRegG). Mithilfe des Registers können verantwortliche Gesundheitseinrichtungen und Hersteller Patienten ausfindig machen, die unsichere Geräte nutzen, und sicherstellen, dass sie verfügbare Updates aufspielen (§ 4 Abs. 4, § 29 Abs. 1 Nr. 1, Nr. 3 lit. c IRegG).

Ob sich das neue Implantateregister als geeignetes Instrument entpuppt, um Reaktionen auf schwerwiegende Sicherheitslücken in Implantaten zu koordinieren und die Gefahren für Patienten abzuwehren, steht derzeit aber noch in den Sternen. Als Crux könnten sich zwei Aspekte erweisen: Bislang ist es Patienten zum einen verwehrt, selbst Probleme mit ihren Implantaten zu melden; weder sie noch ihre Ärzte haben Zugang zu den Daten des Registers. Zum anderen beschränkt sich der Schutz – ähnlich wie die Überwachung nach Inverkehrbringen und die Vigilanz – auf die Gesundheit und (körperliche) Sicherheit der Patienten. Wenn Sicherheitslücken „nur“ eine Einsicht in Daten, die das Implantat erhebt oder verarbeitet, ermöglichen, knüpft sich daran keine Meldepflicht des Herstellers. Dies ist allenfalls dann der Fall, wenn der Hersteller oder die verantwortliche Gesundheitseinrichtung zugleich datenschutzrechtliche Verantwortliche sind (Art. 33, 34 DSGVO).

Mario Martini, Carolin Kemper: Cybersicherheit von Gehirn-Computer-Schnittstellen; International Cybersecurity Law Review; 2022

https://doi.org/10.1365/s43439-022-00046-x

http://creativecommons.org/licenses/by/4.0/deed.de

Zur einfacheren Lesbarkeit wurden die Quellenverweise und Fussnoten entfernt


Digitale Daten und Big Data – Teil 2

3.5             Die sozio-technischen Dimensionen von Big Data

Mauro et al. haben mit Blick auf die allgemeine Literatur zu Big Data den Versuch einer Synthese von Definitionen unternommen. Die Autoren legen ihrer Betrachtung einen ganzen Korpus an Literatur aus Industrie und Wissenschaft zu Grunde. Die finale Definition von Big Data von Mauro et al. liest sich mithin ähnlich der bereits besprochenen Beschreibungsdimensionen: “Big Data is the Information asset characterised by such a High Volume, Velocity and Variety to require specific Technology and Analytical Methods for its transformation into Value [sic]”.

Die vorliegende Arbeit fragt insbesondere nach dem Einfluss der digitalen Datenbestände auf soziales Handeln und Gesellschaft. Charakterisierungen der digitalen Datenbestände für eine weiter gefasste Betrachtung der soziotechnischen Voraussetzungen und Konsequenzen des Umgangs mit Daten werden also dann besonders relevant, wenn es nicht mehr um die Fragen nach dem Was und Womit geht, sondern vor allem, wenn in sozialen Zusammenhängen das Wie und auch Warum der Datenerzeugung, -speicherung und -auswertung in den Vordergrund gestellt wird. Hierauf deutet die Bezugnahme von Mauro et al. auf Begriffe wie Asset und Value bereits hin. Es erfolgt hinsichtlich des Verarbeitungszusammenhangs der digitalen Datenbestände hier entsprechend eine Erweiterung der Betrachtung auf den Menschen in seiner Rolle als Daten- erzeuger, -betrachter und -verwerter, so dass die sozialen Bedingungen und/oder Konsequenzen digitaler Datensammlung und -verwertung in den Fokus geraten. So stellt bspw. das einflussreiche, jedoch eher populärwissenschaftlich gehaltene Werk von Mayer-Schönberger und Cukier insbesondere auf diesen Zusammenhang ab: “Big data refers to things one can do at a large scale that cannot be done at a smaller one, to extract new insights or create new forms of value, in ways that change markets, organizations, the relationship between citizens and governments, and more”. Jegliche Beiträge, die den Schwerpunkt aus einer sozio-technischen Anwendersicht auf Big Data legen, gehen also meist davon aus, dass die Daten im Rahmen von Big Data über die zuvor beschriebenen Eigenschaften verfügen. Sie halten sich mithin selten mit definitorischen Grenzziehungen auf oder streifen diese nur kurz, um dann zu thematisieren, wie der menschliche Umgang mit den Daten charakterisiert werden kann; insbesondere welche epistemische Qualität und welchen Nutzen die Daten für ihn haben und welche Konsequenzen hieraus für Individuum und Gesellschaft erwachsen. Diese sozio-technischen Fragen lassen sich daher in den als konsequentiell-evaluativen Dimensionen Veracity und Value von Big Data verorten, die laut Ylijoki und Porras in 23 % bzw. 27 % aller von ihnen untersuchten Definitionen adressiert werden und nachfolgend besprochen werden. Dabei muss insbesondere auch die Charakterisierung der beiden Dimensionen als konsequentiell-evaluativ herausgearbeitet werden. Diese bezieht sich auf die Variabilität der Einschätzung der Ausprägung der zugrunde liegenden Dimensionen. Das bedeutet, dass es Big Data gibt, die diese Charakteristika und erwarteten Potentiale besitzen, dies jedoch nicht zwingend für alle großen digitalen Datenbestände der Fall sein muss.

3.5.1        Die Richtigkeit digitaler Daten

Die Richtigkeit (Veracity) digitaler Daten betrifft die epistemische Qualität der Daten, bezieht sich also auf Erkenntnis und Wissen. Man kann Veracity auch mit Wahrhaftigkeit übersetzen, da jedoch nachfolgend gesondert auf die speziellen Wesensmerkmale Wahrhaftigkeit und Objektivität eingegangen wird, ist hier zunächst der Oberbegriff der Richtigkeit vorzuziehen. Dieser zielt nicht auf eine moralische Qualität ab, sondern auf den qualitativen Wirklichkeitsbezug der Daten. Die Richtigkeit betrifft mithin sowohl (1) die Informationsqualität realitätstreuer Abbildung der Daten sowie (2) das Wissen, das in den Daten steckt bzw. aus ihnen gezogen wird. Bevor also gesichertes Wissen auf Grundlage von Big Data entsteht, müssen weitere Voraussetzungen und notwendige Bedingungen bezüglich der Datenqualität erfüllt sein, die nachfolgend diskutiert werden. Für boyd und Crawford ist es nämlich insbesondere die zugesprochene Richtigkeit der digitalen Daten, die einen Mythos von Big Data nährt: “The widespread belief that large data sets offer a higher form of intelligence and knowledge that can generate insights that were previously impossible, with the aura of truth, objectivity, and accuracy”. Hier werden bereits die zentralen Aspekte genannt, die zur Richtigkeit der Daten zählen und nachfolgend erörtert werden. Hierzu gehören die Genauigkeit sowie die Wahrhaftigkeit und Objektivität der digitalen Daten, die einen vermeintlichen Wissensgewinn erst möglich machen.

Die Genauigkeit digitaler Daten (Accuracy)

Die Genauigkeit von digitalen Daten wird oft als eines ihrer zentralen Charakteristika hervorgehoben. Genauigkeit meint die Wiedergabequalität der Beschreibung von Zuständen durch Daten oder wie Cai und Zhu definieren: “Data representation (or value) well reflects the true state of the source information”. Auch wenn in dieser Definition von Genauigkeit bereits der Wahrheitsbegriff enthalten ist und somit anscheinend vorweggenommen wird, ist er hier lediglich als Bedingung im Sinne einer Reliabilität der Daten zu verstehen. Wie mit Blick auf die nachfolgend besprochene Dimension der Wahrhaftigkeit und Objektivität zu diskutieren ist, können jedoch auch subjektive und unwahre Zustandsbeschreibungen reliabel in ein konsistentes Datenformat überführt werden. Deshalb ist zu ergänzen, dass die codierte Information dahingehend ambiguitätsfrei sein muss, als dass der Übersetzungsvorgang in das digitale Format störungsfrei vonstattengeht und zu vollständigen mangelfreien Daten führt. Eine einmal programmierte Maschine führt Befehle prinzipiell immer auf die gleiche Art und Weise aus und produziert somit zumindest in der Theorie Ergebnisse gleichbleibender Qualität. Dennoch können Datensätze trotz weitreichender Automatisierung ihrer Generierung zufällige sowie systematische Integritätsverletzungen beinhalten, unvollständig sein sowie Daten ganz unterschiedlicher Codierungsqualität und Güte beinhalten. Die Gründe für diese Fehlerhaftigkeit und hieraus resultierende Dirty Data sind dabei mannigfaltig und können nicht nur technischen Ursprungs sein, sondern haben vor allem auch menschliche Ursachen, auf die sogleich eingegangen wird.

Die Wahrhaftigkeit und Objektivität digitaler Daten (Truth and Objectivity) Aufbauend auf der Genauigkeit der Daten, die insbesondere auf Reliabilität und hierauf fußender Belastbarkeit des technischen Übersetzungsvorgangs als Prozess abstellt, wird der Anspruch formuliert, dass die Daten als Produkt dieses Prozesses vor allem auch objektiv und wahrhaftig sind. Ihr Anspruch ist es, Merkmale und Eigenschaften von Wirklichkeit transparent zu machen. Dabei zielen beide Begriffe auf dasselbe ab und bauen untrennbar aufeinander auf: Digitale Daten sollen in ihrer Qualität repräsentativ für eine vermeintlich tatsächliche Realität und in ihrem wahrheitsgetreuen Wirklichkeitsabbild nicht durch äußere Einflüsse verzerrt sein. Es stellt sich mithin die Frage nach der Validität der Daten; also ob diese auch tatsächlich dasjenige repräsentieren, was sie mit Blick auf ihre Bedeutungszuschreibung repräsentieren sollen.

Dabei werden entsprechende Verzerrungen auch als Bias bezeichnet und können vielfältiger Natur sein. Am Ende veranlasst und beeinflusst immer menschliche Entscheidung den Übersetzungs- und Produktionsprozess von digitalen Daten, weshalb die Daten womöglich nicht das wiedergeben, was sie wiedergeben sollen. So können Daten auf der einen Seite bereits mit einem Bias produziert werden, bspw. wenn Klassifikationen fehlerhaft sind, da Codierentscheidungen subjektiv geprägt sind. Richardson, Schultz und Crawford  greifen diesbezüglich auch den zuvor angesprochenen Begriff Dirty Data auf, wenn sie die in den USA verbreitete Praxis des Predictive Policing kritisieren. Im Rahmen dieses Beispiels wird die Problematik subjektiv verzerrter Daten deutlich, die Ansprüche an Objektivität und Wahrhaftigkeit verletzen:

These policing practices and policies shape the environment and the methodology by which data is created, which raises the risk of creating inaccurate, skewed, or systemically biased data (‘dirty data’). If predictive policing systems are informed by such data, they cannot escape the legacies of the unlawful or biased policing practices that they are built on.

Auf der anderen Seite können Daten nicht geeignet sein, die spezifischen Fragen zu klären, für deren Beantwortung sie herangezogen werden. So sind Bevölkerungsstichproben auf Grundlage sogenannter Sozialer Online-Netzwerke biased, da sie nicht repräsentativ für die Gesamtbevölkerung sind.

Unabhängig davon, wie der Bias zustande gekommen ist, führen entsprechende Validitätsverletzungen und Verzerrungen der Daten dazu, dass Objektivitäts- und Wahrheitsannahmen häufig nicht haltbar sind. Objektivität und Wahrhaftigkeit sowie auch die Genauigkeit der Daten sind im Rahmen von Big Data also zunächst einmal in vielen Definitionen als Ansprüche formuliert, die jedoch wie dokumentiert nicht immer eingelöst werden bzw. einfach einzulösen sind. Es ist eben wie von boyd und Crawford angesprochen nur der Anspruch der genannten epistemischen Bedingungen, die Big Data anhaftet. Es zeigt sich allerdings, dass eine qualitative Varianz auf einem Kontinuum zwischen genau und ungenau, objektiv und nicht objektiv sowie wahr und unwahr bestehen kann. Dabei kann die Verletzung der Validität von Daten bzw. das beobachtete Ausmaß der Verzerrung nicht immer zweifelsfrei erkannt und festgestellt werden und ist mithin diskussionswürdig. Entsprechend kommt Messick auch zu dem Schluss: “Validity judgments are value judgments”. Es bleibt an dieser Stelle jedoch zunächst einmal festzustellen, dass Validitätseinschätzungen bezüglich Genauigkeit, Objektivität und Wahrhaftigkeit digitaler Daten variabel sind.

Der Wissensgewinn aus digitalen Daten (Knowledge)

Unter der Voraussetzung, dass die Bedingungen der Genauigkeit sowie Wahrhaftigkeit und Objektivität digitaler Daten zu einem hohen Grad gewährleistet sind, können digitale Daten als Abbild beobachteter Tatsachen Fakten bereitstellen, die zu neuen Erkenntnissen und einem Wissensgewinn führen. Nachfolgend beschäftigt sich Abschnitt 4.1 daher ausführlich mit dem Wissensbegriff und der Wahrheit als zentralem Kriterium dieses Wissens. An dieser Stelle soll zunächst lediglich die Bedeutung des Wissensbegriffs im Rahmen der sozio-technischen Beschreibung von Big Data erörtert werden.

Wissen auf Grundlage von Big Data ist die elementare Voraussetzung einer weitergehenden Verwertung und Nutzung dieser. Dabei soll die Datensammlung und -auswertung nicht nur neues Wissen produzieren, sie kann natürlich auch bereits bestehendes Wissen in Form digitaler Daten speichern. Die Erwartung ist jedoch darauf ausgerichtet, dass durch die binär codierten Sequenzen von Zustandsbeschreibungen Unterscheidungen getroffen werden können, aus denen Menschen (und eben auch Maschinen) Einsichten generieren und etwas lernen können. Gewonnene Erkenntnis über Zustände und Mechanismen beeinflusst in der Folge Anschlusshandlungen, bspw., wenn Wissen zu treffende Entscheidungen anleitet.

Es ist zu diskutieren, inwieweit eine Verletzung der Bedingungen der Genauigkeit und Objektivität der Daten zwingend dazu führt, dass keine oder geminderte Erkenntnis aus digitalen Daten gezogen werden kann. Ausschlaggebend hierfür sind dann jedoch primär der jeweilige Grad der Verletzung und der Kontext, in dem das Wissen konkrete Konsequenzen zeitigt. Im Vergleich mit den Ergebnissen eines Temperatursensors, der auf wenige Grad Celsius die ungefähre tatsächliche Temperatur wiedergibt, sind die Daten einer stehen gebliebenen Uhr nutzlos, selbst wenn sie zweimal am Tag richtig geht. Ist die Genauigkeit des Temperatursensors jedoch entscheidend, bspw. bei der Herstellung von temperatursensiblen Produkten, dann ist eine hohe Genauigkeit dennoch zentral. Eine finale Diskussion dieser Problematik ist also nur mit Blick auf die Erfordernisse des Verwertungszusammenhangs digitaler Daten zu entscheiden und kann hier nicht abschließend getroffen werden. Wichtig ist jedoch, dass die Genauigkeit der Daten prinzipiell technisch möglich ist bzw. sein sollte und mit Blick auf die Richtigkeit der digitalen Daten definitorisch vorausgesetzt wird. Wie deutlich geworden ist, hängen die Wahrhaftigkeit sowie die Objektivität jedoch vor allem von der zu messenden Entität ab, ihrer konstruierten menierung auf Seiten der Messenden sowie den getroffenen Operationalisierungs- und Messentscheidungen im Rahmen der Überführung realweltlicher Phänomene in Daten.

Gerade mit Blick auf die Ubiquität digitaler Datenerzeugung ukeiten ihrer Auswertung ist nun also diejenige Erkenntnis von Interesse, die erst aus den digitalen Daten gewonnen werden kann. Dabei ist es zunächst unerheblich, ob die Daten gezielt erzeugt werden oder ganz nebenbei anfallen. Während die Qualität der Daten und der hieraus gewonnenen Erkenntnisse also durchaus auf einem Kontinuum eingeordnet werden können, soll an dieser Stelle zunächst die zentrale Bedeutung der Dimension des Wissensgewinns im Rahmen der Definition großer digitaler Datenbestände hervorgehoben werden. Eine detaillierte Diskussion der Qualität und sozialen Bedeutung dieses Wissens, insbesondere auf Grundlage von Big Data, wird nachfolgend in Kapitel 4 geleistet.

Die Qualität der Daten aus epistemischer Perspektive, sprich ihre Erforderlichkeiten und Konsequenzen mit Blick auf mögliche Erkenntnis, hat eine zentrale Bedeutung im Entstehungs- und Verwertungskontext von Big Data. Während die zuvor thematisierten Wesensmerkmale eine vermeintliche Grundvoraussetzung für den Wissensgewinn sind, ist der Wissens- gewinn wiederum die Vorbedingung für den aus den Daten gezogenen Nutzen und somit ein notwendiges Bindeglied zwischen Ausmaß der Datensammlung und -verwertung und den hiermit verbundenen positiven Konsequenzen für Individuum oder Gesellschaft. Der nun nachfolgend besprochene Nutzen digitaler Daten hängt maßgeblich von der Qualität und der Reichweite dieses generierten Wissens ab.

3.5.2        Der Nutzen digitaler Daten

Die Unmengen von digitalen Daten werden selbstverständlich nicht zum Selbst- zweck erzeugt und gespeichert. Zwar fallen wie gezeigt viele Daten ganz nebenbei beim Betrieb von Computertechnik und Sensoren an. Die Entschei- dung über Speicherung und Verarbeitung wird jedoch bewusst getroffen. Denn auch wenn Rechenkapazität und Speicherplatz über die Zeit immer preisgünsti- ger werden, verursachen Entstehung, Speicherung und Verarbeitung von Daten hohe Kosten mit Blick auf Speichermedien, Prozessoren, Serverinfrastruktur und den beim Betrieb anfallenden Stromverbrauch. Diese Kosten werden nur in Kauf genommen, wenn ihnen gegenüber auch ein erwarteter Nutzen (Value) steht.

Die Dimension des Nutzens ist nun eng mit der Wahrhaftigkeit und dem in den Daten enthaltenen Wissen verknüpft und baut unmittelbar auf ihr auf. Der aus den Daten gewonnene Nutzen stellt auf einen generierten Mehrwert ab, der auf Grundlage der Daten geschaffen wird. Diese Nutzenerwartung ist dabei immer mit Bezug auf das menschliche Individuum oder die Gesellschaft und somit als explizit sozio-technische Dimension zu verstehen. Die Zweckgebundenheit von Datensammlung und -verarbeitung ist dabei an vielen Stellen in den vor- hergehenden Abschnitten bereits durchgeklungen, soll an dieser Stelle jedoch noch einmal differenziert betrachtet werden. Denn Nutzen kann hier durchaus in seinem doppeldeutigen Gebrauch verstanden werden.

Zum einen können Daten verwendet werden: Sie sind dann mit Blick auf ihren oft als ‚Öl des 21. Jahrhunderts‘ beschriebenen Charakter ein nicht-dinglicher Energieträger, der ‚genutzt‘ oder ‚einer Nutzung oder Verwertung zugeführt‘ wer- den kann; gleich eines Schmierstoffes, der datenverarbeitende Anwendungen am Laufen hält. Gleichzeitig entspringt mit Blick auf den Erkenntnisgewinn aus die- ser Nutzung ein Nutzen im Sinne von Gewinn oder Profit, so wie auch Öl einen Marktpreis hat und als Produktionsmittel für mit Gewinnabsicht produzierte Güter und Dienstleistungen verwendet wird. Dieser Nutzen ist dann vor allem, jedoch nicht allein als Nutzen im Rahmen einer ökonomischen Verwertungslogik zu sehen.

Der Zuschnitt nur auf ökonomischen Nutzen ist hier also zu eng gefasst. Ein Nutzen kann sich ferner auch in anderen sozialen Kontexten wie Poli- tik, Wissenschaft und Zivilgesellschaft manifestieren und ist hier vor allem mit Begriffen wie bspw. Open Data verbunden, womit kostenfreie öffentlich zugängliche Datensätze, auf die jeder frei zugreifen kann, gemeint sind und deren Nutzen vielfältigerer Natur sein kann. Gleichwohl der konkrete Nutzen vor allem im jeweiligen Entstehungs- und Verwertungskontext betrachtet werden muss, lässt sich mit Blick auf die allgemeine gesellschaftliche Durchdringung von informationstechnischen Anwendungen der Datenverwertung insbesondere mit Blick auf deren öffentliche Thematisierung zwischen einem Nutzen unterscheiden, der sich auf einer gesellschaftlich höhergelagerten Ebene realisiert, und einem Nutzen, der sich für das Individuum ergibt.

Individueller Nutzen digitaler Datensammlung und -verwertung

Aus der Sicht des Individuums in der digitalen Gesellschaft sind mit Blick auf die Bewertung des großen Ausmaßes digitaler Datensammlung und -verwertung zunächst insbesondere Konsequenzen für die eigene Person relevant, da Big Data auch seine unmittelbare Lebenswelt betrifft. Geht es um eine generelle Bewertung von Big Data, haben bedingt durch die Zweckgebundenheit digitaler Datensammlung und -verwertung mithin Einschätzungen zum persönlichen Nutzen einen zentralen Einfluss: Jedes Individuum trifft hier für sich im Rahmen einer laufenden Kosten-Nutzen-Kalkulation eine Abwägung, ob und inwieweit es von Big Data profitiert. Das gilt zwar ganz allgemein für die weitreichende Datensammlung, wird jedoch vor allem in Situationen relevant, in denen eine Entscheidung getroffen werden muss, eigene persönliche Daten preiszugeben. Insbesondere hier stellt sich die Frage, warum Daten gesammelt und ausgewertet werden sollten: Was habe ich davon, wenn Online-Angebote umfassende Daten erheben und speichern und ich im Internet laufend der Aufzeichnung und Auswertung meiner Nutzungsdaten zustimmen muss? Warum sollte ich der Uhr an meinem Handgelenk erlauben, laufend meinen Puls zu messen? Entscheidend für diesbezüglich getroffene Entscheidungen ist, dass man sich etwas hiervon verspricht. Etwa, wenn man bei Online-Angeboten auf die eigenen Präferenzen abgestimmte Produktangebote und Vorschläge für Videos oder Musikstücke erhält, die einem gefallen könnten. Oder wenn man aus der Erhebung der eigenen Vitalparameter etwas über den eigenen Gesundheitszustand erfährt und man bspw. sieht, dass das Ausdauertraining auch tatsächlich zu einer Leistungssteigerung führt. Dabei knüpft der vermeintliche Nutzen auch und insbesondere an die zuvor beschriebene Leistungsfähigkeit der Daten hinsichtlich eines Erkenntnisgewinns an:

Where the question of the value of data for those who generate it is addressed, this value is typically understood as residing in the aura of neutrality and objectivity that numbers convey, and their role in a will to (quantified) truth.

Der Abwägungsprozess bezüglich des Ausmaßes individuellen Nutzens speist sich dabei im Rahmen der Kosten-Nutzen-Kalkulation aus diversen Nutzener- fahrungen und -erwartungen, die sich aus den unterschiedlich gelagerten Ver- wertungskontexten digitaler Daten ergeben können. Dies ist etwa der Fall, wenn es Sicherheitsbedenken bei der Preisgabe persönlicher Daten im Rahmen von digitaler Mediennutzung gibt, deren Zusammenhang in der Privacy-Forschung untersucht wird.

Gesellschaftlicher Nutzen aus digitaler Datensammlung und -verwertung

Jenseits eines individuell realisierten Nutzens durch Big Data werden durchaus auch Erwartungen formuliert, die darauf abzielen, wie Big Data für die Gesell- schaft von Nutzen sein können und sollen. Big Data müssen hierbei fernab jedes Technikoptimismus oder -pessimismus zunächst einmal als ein Werk- zeug betrachtet werden, das sowohl Schäden verursachen oder Nutzen bringen kann. So können Schäden, die aus einer weitreichenden Datensammlung von Gesundheitsdaten entstehen, etwa wenn diese Daten in falsche Hände geraten, den individuellen und vor allem auch gesellschaftlichen Vorteilen gegenüberge- stellt werden. Es ist positiv zu bewerten, sollten aus der zentralen Speicherung und Auswertung von Daten zu Krankheiten und deren Behandlung neue Thera- piemöglichkeiten entstehen, von denen ich und viele andere profitieren, weil sich Gesundheit verbessert und sich Kosten vermeiden lassen.

Natürlich muss ein Nutzen, der nicht vom Individuum realisiert wird, nicht auch automatisch auf gesamtgesellschaftlicher Ebene eintreten. Zwischen der Mikro- und der Makro-Ebene gibt es unzählige weitere mögliche Profiteure mit individuellen Sonderinteressen, die sich auf der Meso-Ebene ansiedeln lassen. Die Nutzenerwartung an die großen digitalen Datenbestände kann hier wie folgt beschrieben werden: Right now big data is enabling organizations to move away from intuitive- to data- based decision making. Ultimately, enterprises will use big data because it creates value by solving new problems, as well as solving existing problems faster or chea- per, or providing a better and richer understanding of those problems.

Zu den angesprochenen Organisationen gehören bspw. Hacker sowie Datenakti- vist*innen oder gleich ganze gesellschaftliche Felder wie die Forschung, der Journalismus, die Wirtschaft sowie staatliche Institutionen. Doch selbst wenn diese einzelnen Gruppen und Einheiten partikulare Interessen verfolgen, so sind sie gesellschaftlichen (Teil-)Systemen zuzuordnen, die innerhalb der Gesellschaft wichtige Funktionen übernehmen und gesellschaftlichen Wandel bewirken und hier etwaigen Nutzen für die Gesellschaft erbringen oder auch nicht.

Für eine übergeordnete gesellschaftliche Wahrnehmung von digitalen Daten kann an dieser Stelle daher mit Blick auf Nutzenerwartungen nicht kleinteilig unterschieden werden. Es mag je nach individueller Bewertung und eigenem Vorwissen und Erfahrung auf unzählige einzelne Bereiche abgestellt werden, in denen Nutzen durch Big Data gesehen wird oder eben auch nicht. Darüber hinaus sollte es jedoch zu einer allgemeinen Gesamtbewertung beim beobachten- den Individuum kommen, die auf einer Einschätzung zum Nutzen von Big Data für die Gesamtgesellschaft beruht, deren Teil man ist. In Abhängigkeit von vie- len individuell zu treffenden Einschätzungen wird der generelle Nutzen von Big Data sowohl für das Selbst als auch für die Gesellschaft bewertet. Unbenommen möglicher noch feinteilig differenzierter Zwischenstufen der Nutzeneinschätzung, die jedoch theoretisch und empirisch erst einmal zu beschreiben wären. Es ist zunächst zu prüfen, inwieweit sich individuelle und gesellschaftliche Nutzenüber- zeugungen analysieren lassen. Dies lässt dann immerhin auch die Möglichkeit zu, zu untersuchen, ob beide Einschätzungen zusammen- oder auseinanderfallen, was mit Blick auf die Abwägung von Schadens- und Nutzenbewertung eine relevante Frage ist.

3.6      Die Bedeutung von Big Data im Zusammenhang mit Algorithmen, Künstlicher Intelligenz und maschinellem Lernen

An dieser Stelle muss nun zudem kurz auf technische Anwendungskontexte im Zusammenhang mit den großen digitalen Datenmengen abgestellt werden, um deutlich zu machen, wie Big Data sich zu unmittelbar angrenzenden Techni- ken wie Algorithmen oder Anwendungen Künstlicher Intelligenz (KI) verhalten, die Datenverarbeitung und -auswertung in den vorliegenden Ausmaßen erst ermöglichen.

Algorithmen sind hier das Bindeglied zwischen der Hardware und den digi- talen Daten, denn „elektronische Datenverarbeitung beruht auf Algorithmen“. Ein Algorithmus definiert sich nach Kraemer et al. wie folgt: “An algorithm is, roughly speaking, a finite sequence of well-defined instructions that describe in sufficiently great detail how to solve a problem”. Die Computerhardware wird nicht zuletzt auch Rechner genannt, aufgrund der programmiersprachlichen Formulierung von Algorithmen als Entscheidungsregeln, die häufig in Gestalt von mathematischen Formeln festgelegt sind. Die digitalen Daten werden den Algorithmen als Eingabe zugeführt oder entstehen als Ausgabe algorithmischer Verarbeitung. Dabei ist das besondere an den Algorithmen, dass sie wie die IuK fortlaufend eingesetzt werden können. Als einprogrammiertes System von Rechenvorschriften können Rechenprobleme nun mit Hilfe von IuK automatisiert gelöst werden. Dabei stehen die Algorithmen nicht nur in einem Verwertungszusammenhang mit digitalen Daten, auch mit ihnen verbundene Problematiken erinnern an die zuvor aufgeworfenen Schwierigkeiten menschlicher Fehlbarkeit und subjektiver Einflüsse im Rahmen ihres Einsatzes:

Zwar genießen Algorithmen oftmals den Nimbus der Objektivität, weil sie unper- sönlich sind und quantitative Daten verarbeiten, doch diese kalkulativen Praktiken selbst sind keineswegs neutrale Verdatungsformen des Sozialen. Algorithmen ste- hen in einem unauflöslichen Zusammenhang mit sozialen Formen der Zuschreibung von Wertigkeit, und in diesem Sinne produzieren und repräsentieren sie das, was für relevant oder wertvoll gehalten werden soll.

Algorithmen werden folglich dort für das Wahrnehmungsmuster digitaler Daten relevant, wo sie die in den Daten verbundenen Problemlagen noch verschär- fen oder gar dazu eingesetzt werden sollen, einmal identifizierte Probleme abzumildern oder gar zu beseitigen. Wenn in den Daten Verzerrungen oder Unge- nauigkeiten vorliegen, ihr Wirklichkeitsabbild fraglich ist oder aber, wenn eine andere Gewichtung der Daten gewünscht ist, dann sollen die Rechenvorschriften der Algorithmen zur Datenverarbeitung eben angepasst werden. Ihr Verhältnis zu den digitalen Datenbeständen ist somit an dieser Stelle verdeutlicht. Es wird jedoch im vorliegenden Forschungszusammenhang zwecks begrifflicher Klarheit und der vorrangigen Fokussierung auf ganz allgemeine Datensammlung und – verwertung nicht weiter ausgeführt und explizit unter dem Label Algorithmus angesprochen. Weiterhin sind Algorithmen jedoch auch unverzichtbarer Teil des Entstehungs- und Verwertungszusammenhangs digitaler Daten, wenn es um den Fall von Anwendungen der KI geht, bei denen die Folgen von Rechenvorschrif- ten eine elementare Rolle spielen. Auch hier soll nicht mit dem eher allgemeinen Begriff Algorithmus operiert werden, sondern auf die wesentlichen Charakte- ristika der KI abgestellt werden, die nachfolgend erläutert und zu Big Data in Beziehung gesetzt werden.

Künstliche Intelligenz und maschinelles Lernen

Im Rahmen der Diskussion um die Digitalisierung der Gesellschaft erfährt der- zeit auch der Begriff der KI wieder eine Renaissance. Ein Phänomen, das nach heutigem Stand in seinen zentralen Anwendungen wie Machine Learning (ML) vor allem auf die Verfügbarkeit der großen digitalen Datenbestände angewiesen und daher unmittelbar mit Big Data verbunden ist. Beginnend mit der Darthmouth Conference im Jahr 1956 wurde an der Entwicklung von Computer- systemen gearbeitet, die intelligente Eigenschaften besitzen. Obwohl es keine allgemeingültige Begriffsbestimmung, sondern viele unterschiedliche Definitionen von ‚natürlicher‘ Intelligenz gibt, wie sie bei Mensch und Tier zu beobachten ist, entstehen derzeit weltweit Forschungsprogramme, die besagte KI entwickeln und ihren gesellschaftlichen Einsatz vorantreiben. So stellte auch die Bundesregierung Deutschlands im Sommer 2018 Eckpunkte für eine zu entwickelnde nationale KI-Strategie vor, die im November 2018 verabschiedet und der Öffentlichkeit präsentiert wurde.

Ganz allgemein stellt KI darauf ab, dass Maschinen intelligente Fähigkei- ten demonstrieren, die man sonst nur im Rahmen natürlicher Intelligenz bei Menschen beobachtet und die sich u. a. in mathematischem, sprachlichem oder räumlichem Denken, Merkfähigkeit, Wahrnehmung, Auffassungsgabe und Verar- beitungsgeschwindigkeit äußern. Dabei ist der Begriff KI dahingehend zunächst einmal irreführend, da er falsche Vorstellungen davon vermittelt, welche konkreten Anwendungen sich unter dem allgemein gehaltenen Label derzeit versammeln. Häufig geht es bei KI um Computerprogramme des maschinellen Lernens, die mit Hilfe von Algorithmen Muster in den großen digitalen Datenbeständen erkennen sowie Objekte und Personen identifizieren und zuordnen.

Nicht nur, dass viele KI-Systeme und insbesondere ML-Anwendungen auf Big Data angewiesen sind, um zu lernen, die Mustererkennung und Vorhersagen zu verbessern. KI kann potentiell auch dafür eingesetzt werden, die anfallenden Datenbestände zu be- und verarbeiten. So führt O’Leary aus, dass KI mit Blick auf die Entstehungsgeschwindigkeit der digitalen Daten schnellere und umfassendere Entscheidungen treffen kann als der Mensch, und führt als Bei- spiel den Einsatz von High-Frequency-Tradingsystemen an der Börse an. Hier werden unzählige laufend eingehende Informationen in Sekundenbruchteilen von Computerprogrammen gesichtet und bewertet, um Kauf- oder Verkaufsentschei- dungen zu treffen. Laut Glantz und Kissell entfällt mittlerweile der Großteil der börslichen Handelsaktivität (85 % im Jahr 2012) auf die unter dem Stichwort Algorithmic Trading zusammengefassten Computersysteme, von denen etliche KI-basiert sind.

Insbesondere aufgrund der angeführten Unstrukturiertheit vieler großer Daten- bestände verbinden sich mit KI Hoffnungen auf einen vereinfachten Umgang mit den angesprochenen Herausforderungen bei der Verarbeitung und Auswertung von Big Data. Da maschinelles Lernen in der Lage ist, große Datenmengen verhältnismäßig schnell und zuverlässig zu verarbeiten und hierin Muster zu erkennen, erlauben diese Programme einen vermeintlich einfacheren Zugang zu großen unstrukturierten Datensätzen.

Die Mustererkennung ist hier vor allem im Zusammenhang mit dem nach- folgend zu besprechenden Wissen zu bewerten. Erst durch Big-Data-Analytics ergibt sich ein Erkenntnisgewinn aus den zunächst einmal unzugänglichen und somit wertlosen Daten. Denn ohne diese maschinelle Hilfe könnte kein Mensch die großen digitalen Datenbestände bearbeiten und ein Verständnis hieraus gewinnen, weshalb sich insbesondere Fragen nach dem vermeintlichen Erkenntnisgewinn und einem hieraus gezogenen Nutzen der Analyse von Big Data durch KI ergeben.

Aus den beispielhaften Ausführungen wird deutlich, dass öffentliche Erwar- tungen bestehen, in deren Rahmen sich Big Data und Musterkennung gegenseitig befruchten und gemeinsam gewinnbringend genutzt werden können. So ist es für Katz nicht überraschend, dass das erneute Aufblühen der an KI gerichteten Erwartungen eng mit dem Aufkommen von Big Data im Rahmen einer ökonomischen Verwertungslogik verbunden ist und von den Unternehmen aktiv befördert wird:

Corporations have helped manufacture an ‘AI revolution’ in which AI stands for a confused mix of terms—such as ‘big data,’ ‘machine learning,’ or ‘deep learning’— whose common denominator is the use of expensive computing power to analyze massive centralized data.

Eine Befragung von Kersting und Meyer unter KI-Forschern aus Wissenschaft und Industrie kommt zwar zu dem Ergebnis, dass KI und Big Data miteinander in Bezug stehen, dass sie jedoch zumindest von Expertenseite auf keinen Falls als deckungsgleich oder miteinander konvergierend erachtet werden. Ihre Verbindung wird jedoch auch hier dadurch deutlich, dass die KI und hier genauer die angesprochenen ML-Anwendungen als eine Zugangsmöglichkeit zu den Daten, vor dem Hintergrund der technischen Herausforderungen ihres Entstehungs-, insbesondere jedoch ihres Verwertungskontextes, gesehen werden. KI ist weithin auch als eine „Methode der Erkenntnisgewinnung“ zu betrachten, die auf digitale Daten zurückgreift, Muster in ihnen erkennt und so das aus ihnen destillierbare Wissen zugänglich macht. Folglich werden unlängst immer mehr Innovationen aus dem Feld der KI für die Verwendung in den unterschiedlichsten Gesellschaftsbereichen angedacht oder bereits eingeführt. Daher stellt auch der letztendliche Forschungszusammen- hang zu einem Glauben an Big Data nachfolgend vor allem auf den Einsatz von datenverarbeitenden KI-Anwendungen ab. Insbesondere mit Blick auf die zuvor angesprochenen Verheißungen von Erkenntnis- und Nutzen- gewinnen erfährt Big Data in Verbindung mit KI-Anwendungen derzeit also eine hohe gesellschaftliche Aufmerksamkeit. Wichtig ist hier also der Bezug zwischen digitalen Daten und Wissen sowie dessen Bedeutung im Zusammenhang mit der gesellschaftlichen Ordnung und Verwertung von Wissen, der nun nachfolgend genauer herausgearbeitet wird.

Marco Lünich: Digitale Daten und Big Data. In: Der Glaube an Big Data. Springer VS, Wiesbaden; 2022

https://doi.org/10.1007/978-3-658-36368-0_3

http://creativecommons.org/licenses/by/4.0/deed.de

Zur einfacheren Lesbarkeit wurden die Quellenverweise und Fussnoten entfernt.


© Swiss Infosec AG 2026