Datenschutz

04/2021 Fachbeitrag IT-Sicherheit

 

Sichere Softwareentwicklung bei zugleich geringer Time-to-market

Software wird heutzutage in hohem Tempo entwickelt. Neue Features werden hinzugefügt, Benutzerfreundlichkeit, Performance und Sicherheit laufend verbessert. Das hinzugewonnene Tempo ist massgeblich DevOps-Praktiken und Werkzeugen zu verdanken, mit denen Software-Aktualisierungs- und Ausrollzyklen enorm verkürzt werden konnten. Bereits in der DevOps Pipeline ist entwickelte Software jedoch Sicherheitsrisiken ausgesetzt, wie jüngst der SolarWinds-Angriff eindrücklich demonstriert hat[1]. Angreifer waren in der Lage, eine Backdoor in die von SolarWinds entwickelte Software Orion einzuschleusen, womit sie Zugriff zu Systemen vieler Orion-Kunden erlangten. Abhängig vom betroffenen System kam es zu gravierenden Folgeschritten wie der Etablierung permanenter Zugänge und lateralen Bewegungen innerhalb der Umgebung des betroffenen Kunden.

 

DevSecOps-Ansatz als Allheilmittel?

Um Bedrohungen bei der Entwicklung von Software zu begegnen, müssen Sicherheitsthemen im DevOps-Zyklus berücksichtigt werden.

Abbildung DevSecOps Software Lifecycle
Abbildung: DevSecOps Software Lifecycle
Quelle: DoD Enterprise DevSecOps Reference Design, Version 1.0, 12 August 2019

In jeder Phase des abgebildeten DevSecOps Lifecycles sind sicherheitsrelevante Überprüfungen oder Aspekte möglich.

  1. Plan: Angriffsmöglichkeiten werden identifiziert und das Design der Software entsprechend angepasst.
  2. Develop: Die Software wird entwickelt. Dabei sind auf Sicherheit sensibilisierte Entwickler, die Best Practices befolgen, entscheidend. Eine IDE (Integrated Development Environment) mit integrierter statischer Codeanalyse gibt Entwicklern ausserdem prompte Feedbacks, z.B. nicht initialisierte Variablen, unbereinigter Input und unbehandelte Exceptions.
  3. Build: Der Code wird kompiliert. Davor wird er einer weiteren Qualitätsprüfung unterzogen, welche neben oben genannten Überprüfungen auch das Aufspüren von Malware beinhalten kann.
  4. Test: Neben Unit- und Integrationstests, die die Funktionalität prüfen, lässt sich die Software auch automatisiert auf Schwachstellen prüfen. Es lässt sich ausserdem ein Penetrationstest durchführen, bei dem eine manuellere und tiefere Untersuchung vorgenommen wird.
  5. Release: Die Software wird paketiert und signiert, um weitere Manipulationen zu verunmöglichen und einen Beweis liefern zu können, dass sie vom Hersteller stammt.
  6. Deliver: Die Software gelangt auf sicherem Wege zum Kunden.
  7. Deploy: Die Software wird schrittweise ausgerollt. Üblicherweise zuerst in einer Entwicklungs-, dann eine Test- und schlussendlich eine produktive Umgebung. In vorproduktiven Umgebungen kann die Software auf Anomalien und Malware untersucht werden. Beim Überführen in die produktive Umgebung müssen die Software und umliegende Komponenten sicher konfiguriert werden. Da heutzutage Infrastruktur als Code formuliert ist, z.B. als AWS CloudFormation Templates, Kubernetes Manifests, etc., lassen sich solche Konfigurationen zu einem grossen Teil statisch und automatisiert testen.
  8. Operate: Im Betrieb kann ein umfassender Audit durchgeführt werden, der die Software im Kontext der Umgebung überprüft und dabei auch nicht technische Aspekte wie Organisation, Prozesse, Richtlinien sowie Dokumentationen untersucht.
  9. Monitor: Logfiles der Software und der Umgebung werden laufend gesammelt und ausgewertet.
  10. Feedback: Aufgrund der Beobachtungen, möglicherweise auch aufgrund von tatsächlichen Angriffen, werden Schwachstellen in der Software identifiziert und fliessen in eine nächste Plan-Phase ein, woraufhin der ganze Zyklus von vorne beginnt.

Der SolarWinds-Angriff hat allerdings gezeigt, dass selbst alle oben genannten Massnahmen unzureichend sein können.

 

Was fehlte ist eine sichere Entwicklungsumgebung

Seit FireEye's Enthüllung[1] am 13. Dezember 2020 haben weitere Untersuchungen[2],[3],[4],[5] bestätigt, dass der Angriff in der Build-Phase geschah.

Abbildung Grober Ablauf des SolarWinds Angriffs
Abbildung: Grober Ablauf des SolarWinds-Angriffs

Die Angreifer waren in der Lage, eine Backdoor in SolarWinds.Orion.Core.BusinessLayer.dll einzuschleusen, genannt SUNBURST. In der Quelldatei InventoryManager.cs konnten sie insbesondere Code einbetten, der BusinessLayer.dll zur Ausführung brachte. Das Einschleusen dieses Codes geschah automatisiert durch die separate Malware SUNSPOT. SUNSPOT untersuchte laufende Prozesse, um herauszufinden, wann die Orion-Software gerade kompiliert wurde. Sobald dies der Fall war, ersetzte sie InventoryManager.cs durch die modifizierte Version. Diese wurde daraufhin vom regulären Kompilierungsprozess in das finale Produkt eingebaut. SUNBURST war so geschrieben, dass statische und dynamische Code-Analysen die Backdoor nur schwer, wenn überhaupt, erkannt hätten. Der Angriff demonstriert damit eindrücklich, dass Massnahmen wie Secure Coding, SAST & DAST (static/dynamic application security testing), Release Signing und Sandboxing, selbst zusammen, unzureichend sein können. Die Build-Umgebung selbst muss auch ausreichend geschützt sein. Langfristig könnten reproduzierbare Builds eine Lösung darstellen[6]. Diese fördern zudem die Transparenz von Quellcode und ermöglichen es, auch von Herstellern absichtlich eingebaute Backdoors aufzudecken.

 

[1] https://www.fireeye.com/blog/threat-research/2020/12/evasive-attacker-leverages-solarwinds-supply-chain-compromises-with-sunburst-backdoor.html

[2] https://www.crowdstrike.com/blog/sunspot-malware-technical-analysis/

[3] https://news.sophos.com/en-us/2020/12/21/how-sunburst-malware-does-defense-evasion/

[4] https://www.microsoft.com/security/blog/2020/12/18/analyzing-solorigate-the-compromised-dll-file-that-started-a-sophisticated-cyberattack-and-how-microsoft-defender-helps-protect/

[5] https://blog.reversinglabs.com/blog/sunburst-the-next-level-of-stealth

[6] https://www.linuxfoundation.org/en/blog/preventing-supply-chain-attacks-like-solarwinds/

 

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Etablierung sicherer Softwareentwicklungsprozesse, als auch bei der Durchführung von Penetrationstests und generellen Security Audits.

 

Fachteam IT-Sicherheit; 30.03.2021

Kontakt: +41 41 984 12 12, infosec@infosec.ch

 

IT-Sicherheit

 

IT-Sicherheit


Mehr als Technik

Gewährleistete Vertraulichkeit, Verfügbarkeit und Integrität: Schützen Sie Ihre Informationen, Systeme und Netzwerke mit durchdachter IT-Sicherheit..

Kontaktieren Sie uns und erfahren Sie in einem unverbindlichen Beratungsgespräch, was unsere IT-Sicherheitsspezialisten für Sie tun können: +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

04/2021 Fachbeitrag Beratung Swiss Infosec AG

 

Informationen stellen seit jeher einen wichtigen Wert in Unternehmungen dar. Datenverlust oder unerwünschte Preisgabe von Geschäftsgeheimnissen soll verhindert werden, das reibungslose Funktionieren von informationsverarbeitenden Systemen soll sichergestellt sein. Dies sind nur zwei von vielen weiteren Beispielen für Anforderungen, welche Unternehmungen an den Schutz ihrer Informationen haben sollten. Wie alle anderen Unternehmenswerte (z.B. Produktionsanlagen, Mitarbeitende, Innovationen) sind also auch Informationen vor Gefahren und Bedrohungen zu schützen, damit wirtschaftliche Schäden vermieden und Risiken minimiert werden können.

Mit dem Trend zur Digitalisierung kommt die Unternehmungsleitung gar nicht mehr darum herum, sich nicht um Informationssicherheit zu kümmern, sondern diese aktiv – idealerweise systematisch – in ihrer Organisation zu etablieren.

Dabei gestaltet sich die Suche nach Best Practices/empfohlenen Vorgehensweisen erfreulich einfach: in der internationalen Norm ISO/IEC 27001 sind die Anforderungen für Einführung, Betrieb, Aufrechterhaltung und fortlaufende Verbesserung eines dokumentierten Informationssicherheits-Managementsystems (kurz: ISMS) niedergeschrieben.

Bei ISO 27001 handelt es sich um eine zertifizierbare Norm, was aber nicht bedeutet, dass eine Zertifizierung unbedingt ins Auge gefasst werden muss. Ein ISMS unterstützt bei Identifikation, Bewertung und Behandlung von Informationssicherheitsrisiken und kann somit auch ausschliesslich zum Schutz wertvoller Unternehmenswerte (in diesem Falle Informationen) eingesetzt werden.

Besteht für die Unternehmen seitens ihrer Stakeholder (Kunden, Behörden, Partner) keine Anforderung, Informationssicherheit systematisch zu managen, lassen sich trotzdem gute Gründe finden, weshalb der Unternehmenswert INFORMATIONEN nach ISO 27001 geschützt werden soll:

  • Beim Managen der Informationssicherheit nach ISO 27001 wird ein ganzheitlicher und international standardisierter Ansatz angewendet.
  • Durch Aufbau, Betrieb und Weiterentwicklung eines ISMS gewinnt die Unternehmung transparente und optimierte Strukturen, Prozesse und Verfahren, welche Kosteneinsparungen und Aufwandsreduktionen möglich machen. Die ISO 27001-Norm macht hierzu sehr gute und einfach umsetzbare Vorgaben.
  • Die Erfüllung rechtlicher Anforderungen wird durch die vorgegebene Systematik erleichtert, indem die für die Unternehmung geltenden Gesetze identifiziert und mittels entsprechender Dokumentation transparent gemacht werden.
  • Strukturierte Sicherheitsprozesse fördern unternehmensweit einheitliche Sichtweisen für eine standardisierte und abgestimmte Informationssicherheit.
  • Abgrenzungen sind geregelt und Aufgaben, Kompetenzen und Verantwortlichkeiten definiert.
  • Das ISMS ermöglicht jederzeit den Überblick und die Kontrolle der Informationen.
  • Geschäftskritische Prozesse werden eruiert, womit sich die erforderliche Verfügbarkeit von Informationen und deren IT-Ressourcen feststellen und gegebenenfalls anpassen lässt.
  • Die fortlaufende Weiterentwicklung einer Unternehmung findet dank ISMS automatisch Eingang in die Informationssicherheit.

Dabei steht immer die übergeordnete Zielsetzung im Fokus, dass Informationen aufgrund identifizierter Risiken angemessen mit den zur Verfügung stehenden Mitteln geschützt werden sollen.

Ein ISMS nach ISO 27001 lässt sich äusserst pragmatisch aufbauen, betreiben und weiterentwickeln: für die wichtigsten Sicherheitsprozesse werden kurze und klar verständliche Vorgaben definiert und die entsprechenden Zielgruppen für ihre Aufgaben im ISMS mittels kontinuierlicher Information, Ausbildung und Sensibilisierung befähigt. Kann das ISMS zusätzlich über eine gängige Kollaborationsplattform betrieben werden, steht der Einfachheit nichts mehr im Weg – vorbei sind die Zeiten endloser Papierdokumentation in Managementsystemen.

Eine Anlehnung an die Methodik und die Anforderungen der ISO-Norm 27001 macht in jedem Fall Sinn, auch ohne abschliessende Zertifizierung: die Unternehmen setzen damit auf international anerkannte Methoden und Standards und erreichen in vielen Bereichen eine Umsetzung gemäss aktuellem Stand der Technik.

 

Gerne unterstützen wir Sie bei allen Fragen rund um Informationssicherheit, ISMS und der ISO-Norm 27001.  

Swiss Infosec AG; 24.03.2021

Kontakt: +41 41 984 12 12, infosec@infosec.ch

 

Informationssicherheit

 

Informationssicherheit


Weil Ihre Daten und Informationen es wert sind

Mit Informationssicherheit und einem Information Security Management System (ISMS) schützen Sie Ihre Informationen und Daten optimal und beweisen auch gegen aussen Verantwortungsbewusstsein.

Kontaktieren Sie uns, die erfahrenen Spezialisten für Informationssicherheit und ISMS! Wir beraten Sie gerne und unverbindlich: +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

04/2021

 

Das Bücherregal im Hintergrund hat Einfluss darauf, ob Du den Job bekommst

Die Datenjournalist:innen des Bayerischen Rundfunk haben zusammen mit Report München eine algorithmenbasierte Bewerbungssoftware eines Münchener Startups getestet – und zeigen die Schwächen des Systems. Die Idee des Startups Retorio: Eine Software soll anhand eines kurzen Videos über die Job-Bewerbung urteilen und dabei besonders objektiv und fair sein. Laut der Firma sollen Stimme, Sprache, Gestik und Mimik analysiert und ein verhaltensbasiertes Persönlichkeitsprofil erstellt werden. Soweit die Theorie.

Die Datenanalyse des Bayerischen Rundfunks zeigte, dass man den Bewerbungserfolg in diesem System mit Veränderungen von Äußerlichkeiten beeinflussen konnte. Hierzu führten die Journalist:innen verschiedene Experimente mit der Software von Retorio durch.

 

Mehrere hundert Testvideos produziert

Für die Tests engagieren die Reporter:innen eine Schauspielerin. Mit ihr nehmen sie Videos auf, mit der sie die Versprechen des Herstellers überprüfen werden. Dabei wird immer der gleiche Text vorgetragen, in der gleichen Tonlage und Geschwindigkeit, doch mal trägt die Schauspielerin keine Brille, mal eine Brille und mal ein Kopftuch. Mit Brille schätzt das System sie weniger gewissenhaft ein, mit Kopftuch offener. Die Ergebnisse unterscheiden sich deutlich. Als Gegenprobe produzieren sie Videos, in denen die Schauspielerin im gleichbleibenden Outfit vorträgt, hierbei bleiben die Ergebnisse laut BR „weitgehend stabil“.

Das Unternehmen Retorio sagt dazu gegenüber dem BR:

„Wie in einem normalen Bewerbungsgespräch auch, fließen solche Faktoren ebenso in die Bewertung mit ein. Das alles erfolgt ohne Nachfrage, ohne irgendeinen Druck, wie er etwa in einer Gesprächssituation entstehen kann.“

Das Unternehmen hat die Software nach eigenen Angaben mit dem so genannten Big-5-Model trainiert. 2.500 Menschen haben demnach 12.000 Videos angeschaut und diese nach den Kriterien „Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus“ bewertet.

 

Äußeres und der Hintergrund beeinflussen die Ergebnisse

In einem weiteren Versuch mit zehn „Bewerbungskandidat:innen“ wird jeweils ein Faktor verändert. So wird zum Beispiel der Hintergrund ausgetauscht oder die Tonspur. Bei einem Video montieren die BR-Journalist:innen ein Bild im Bilderrahmen ins Video. Das verändert die Ergebnisse: Die Person wird unter anderem als offener und gewissenhafter beurteilt. Noch stärker wirkt ein hineinmontiertes Bücherregal auf diese Werte. Bei einem Bewerber mit einem Bücherregal im Hintergrund wurde dieser plötzlich nicht mehr als „zurückhaltend“ sondern als „lebhaft“ vom System eingestuft.

Bei einer Veränderung der Tonspur hingegen blieben die Werte nahezu unverändert. Veränderungen brachten auch eine simple Korrektur der Helligkeit eines Videos oder der Einsatz eines Sepia-Filters. Allerdings unterschieden sich die Ergebnisse von Bewerber zu Bewerber. Insgesamt produzierten die Journalist:innen mehrere hundert Videos, um die KI zu testen. Der Bayerische Rundfunk konnte die Ergebnisse allerdings nicht gezielt manipulieren:

Sich zum Beispiel absichtlich in ein helles Zimmer zu setzen und damit extrovertierter eingestuft zu werden, funktioniert nicht. Bei den Proband*innen haben wir jeweils mehrere Helligkeits- bzw. Sättigungs-Stufen ausprobiert. Ebenso wie beim Hintergrund sind auch bei den Helligkeitsveränderungen die Abweichungen nicht systematisch, sondern können sich bei den verschiedenen Testpersonen ganz unterschiedlich auswirken.

In jedem Fall lassen die Ergebnisse den Einsatz eines solchen Systems bei der Personalauswahl ungeeignet erscheinen.

 

Netzpolitik.org; Markus Reuter; 19.02.2021

https://netzpolitik.org/2021/algorithmen-fuer-bewerbungen-das-buecherregal-im-hintergrund-hat-einfluss-darauf-ob-du-den-job-bekommst/

http://creativecommons.org/licenses/by-nc-sa/4.0/

 

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.  

Swiss Infosec AG; 24.03.2021

Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

04/2021

 

1 Einleitung

Mittlerweile gibt es eine breite Fülle von Sensoren und Aktoren im persönlichen Lebensumfeld. Diese sind sowohl in tragbare als auch raumbezogene (ambiente) Systeme integriert und ermöglichen neue gesundheitsbezogene Dienste. Derartige technische Systeme arbeiten häufig als eingebettete Systeme kontinuierlich automatisiert und ohne menschliche Interaktion im Hintergrund – beispielsweise zur Vermessung körperlicher Aktivität oder zur Erkennung von medizinischen Notfallsituationen. Gleichzeitig gestatten neuartige Dialogschnittstellen zunehmend auch technisch weniger erfahrenen Anwenderinnen und Anwendern geführte Interaktionen mit technischen Systemen (Chatbot-Ansatz) und ermöglichen ebenfalls neue Dienste, z. B. die Unterstützung kognitiver Leistungen durch kontextabhängige Präsentation von Informationen oder die vorklinische Diagnoseunterstützung bei Patientinnen und Patienten. Hierbei kommen vermehrt Methoden der Künstlichen Intelligenz zum Einsatz, sodass zunehmend von intelligenten Maschinen gesprochen wird. Die beschriebenen intelligenten Maschinen stellen neue Akteure auf dem Gebiet der Gesundheitsdienstleistungen und der Versorgungsmedizin dar. Die Zusammenarbeit dieser neuen Akteure miteinander und mit den bereits in die multidisziplinäre Arbeit im Gesundheitswesen Eingebundenen führt zu Veränderungen. Die Medizin und die Gesundheitsversorgung unterlagen und unterliegen, nicht zuletzt durch den Einfluss von neuer Technik, einer beständigen Veränderung. So haben Technologien wie das Mikroskop, das Elektrokardiogramm und Untersuchungen mit Röntgenstrahlen und Ultraschall das Spektrum der medizinischen Diagnostik erweitert. Die automatisierte Analyse von EKG-Signalen ist längst Routine und entbindet den Arzt von aufwendigen Routinetätigkeiten. Aktuell setzt die zunehmend routinemäßige Verwendung von Genom- und Proteomanalysen diese Entwicklung fort. Neben den genannten Werkzeugen zur Unterstützung der Diagnostik existieren therapeutische Werkzeuge, wie z. B. Herzschrittmacher, Hörgeräte, Cochlea-Implantate und Operationsroboter, die das Spektrum des Machbaren in der Medizin deutlich erweitern und, im Falle der Implantate, zu einem Teil des Körpers werden. Die neuen Werkzeuge kompensieren funktionelle Defizite (z. B. Herzschrittmacher) und erweitern die sensorischen (z. B. Röntgendiagnostik), kognitiven (z. B. EKG-Analyse) und motorischen (z. B. Operationsrobotik) Fähigkeiten. Wie die kontinuierlich zunehmenden Möglichkeiten des Zusammenwirkens immer ubiquitärer existierender und zunehmend allwissender und intelligenter erscheinenden und teilweise autonom agierender Werkzeuge die Gesundheitsversorgung und Medizin in der Gegenwart verändern und in der Zukunft tief greifend beeinflussen werden, ist kaum absehbar. Zur Erörterung dieser Thematik stellt dieser Beitrag zunächst mehrere aktuelle Beispiele aus den Bereichen Rehabilitation, Pflege und klinische Medizin vor und zeigt jeweils Möglichkeiten und Herausforderungen des Zusammenwirkens solcher Assistenzsysteme im Kontext der sozio-technischen Systeme auf, in die sie eingebettet sind. Der Beitrag gibt zunächst einen Überblick über die mit Sensoren messbaren, gesundheitsrelevanten Parameter sowie gängige Anwendungsszenarien im Bereich der nicht-klinischen und klinischen Versorgung. Beginnend mit der Anwendung in der Diagnostik, über die therapeutische und kombinierte Nutzung hin zu wissensbasierten Systemen spannt sich der Bogen der Szenarien. An konkreten Beispielen zeigt der Beitrag die neuen Formen des Zusammenwirkens von Menschen mit den neuen Technologien sowie daraus resultierende Veränderungen auf. Der Beitrag schließt mit einer zusammenfassenden Diskussion dieser Aspekte und gibt einen Ausblick auf entstehende Möglichkeiten und Risiken des Zusammenwirkens künstlicher und menschlicher Intelligenz in der Medizin.

 

2 Körpernahe und raumbezogene Sensoren

Innerhalb der letzten Dekade ist der Absatz tragbarer Geräte (Wearables) stark angestiegen (Schätzung: 2 Mio. in 2018), und insbesondere innerhalb der letzten fünf Jahre kommen immer mehr günstige Geräte (Consumer-Markt) auf den Markt, die nicht nur einfache Aktivitätsmessungen (z. B. Schrittzählungen) durchführen können, sondern zunehmend auch medizinische Parameter wie z. B. die Herzfrequenz dauerhaft und ohne zusätzliche Elektrodengurte erfassen können. Wenig untersucht ist bisher die Nachhaltigkeit der Nutzung solcher Geräte, die zurzeit häufig im Wellnessbereich eingesetzt werden. Hermsen et al. (2017) berichten von einer Studie mit 711 Teilnehmenden, die mit Aktivitätstrackern der Marke FitBit ausgestattet wurden (Hermsen et al. 2017). Nach 320 Tagen nutzten nur noch 16 % der Teilnehmenden das tragbare Gerät. Häufig lassen sich solche tragbaren Systeme an Smartphones anschließen, so dass mit diesen oder nach der Übertragung der Daten auf Server auch große Datenmengen mit komplexen Algorithmen schnell zu verarbeiten sind. Moderne Smartphones sind ubiquitär verbreitet und verfügen in der Regel über mehr als 20 bereits integrierte Sensoren zur Positionsbestimmung, Bewegungserfassung, Bilderfassung usw. Gleichzeitig sind Speicherkapazität und Rechenleistung so hoch, dass es praktisch keine Einschränkungen in der Nutzbarkeit für die Auswertung von Daten gibt. Die mobile Internetnutzung lag 2018 in Deutschland bei 68 % und nimmt stetig zu. Im Jahr 2018 waren in nur einem App-Store bereits mehr als 100.000 Apps in den Bereichen Gesundheit und Wellness verfügbar. Sensorsysteme lassen sich grob anhand ihrer Mobilität unterscheiden in mobile Systeme und raumbezogene, stationäre (ambiente) Systeme. Die mobilen Sensoren gliedern sich weiter in implantierte und nicht implantierte Systeme. Letztere werden weiter unterteilt in Sensoren, die direkten Kontakt zum Körper (primär der Haut) benötigen, und körpernah, z. B. in einer Tasche getragene (z. B. Smartphones). Mittels integrierter oder an tragbare Geräte angeschlossener Elektroden lassen sich Größen wie elektrische Signale des Herzens (EKG) oder der Hautleitwert erfassen. Weiterhin können die Temperatur, die Wärmekonvektion, die Körperwandbewegungen (Ballisto-/ Seismokardiografie), akustische Signale und auch chemische/biochemische Größen erfasst werden (Beispiel: kontinuierliche Blutzuckermessung mit einem semi-invasiven Sensorsystem). Im weitesten Sinne gehören zu den mobilen Sensorgeräten auch die zunehmend verbreiteten Geräte der professionellen Labordiagnostik (mobile point-of-care Messgeräte und Kits), die von Laborparametern (z. B. Hämoglobin, Entzündungsparameter, Leberwerte, Elektrolyte, Nierenfunktionswerte, etc.) bis hin zu genetischen Tests vielfältig eingesetzt werden können. Raumbezogene Sensoren erlauben vor allem die Erfassung von Raumnutzung und Bewegung von Personen innerhalb von einzelnen Räumen, Wohnungen, Gebäuden und Städten, aber auch Fahrzeugen. Zudem können vernetzte raumbezogene Sensoren vielfältige gesundheitsrelevante Parameter erfassen, wie z. B. das EKG über in Sitzgelegenheiten integrierte Sensorik oder die Herzfrequenz über optische Sensoren. Im Folgenden zeigen wir mehrere Anwendungsbeispiele auf, wie tragbare und raumbezogene Sensoren gesundheitsrelevante Größen erfassen und durch intelligente Verarbeitung der Daten zur Lösung gesundheitlicher bzw. medizinischer Probleme beitragen können.  

 

2.1 Anwendungsbeispiel: Bewegungserfassung in der medizinischen Forschung

Eines der am längsten etablierten Anwendungsfelder von Sensoren im Bereich der medizinischen Forschung ist die objektive Erfassung von Körperbewegungen. Dies reicht von einfachen tragbaren Schrittzählern, welche nur aggregierte Daten liefern können, über multisensorische tragbare Geräte, welche detaillierte Gang- und Bewegungsanalysen erlauben, bis hin zu stationären Multikamerasystemen in Ganglaboren. So breit wie die technischen Ansätze sind auch die untersuchten Fragestellungen. Mit den weit verbreiteten, mittlerweile auch in Smart Watches und Phones integrierten Beschleunigungssensoren lassen sich Schrittzahlen erfassen und der aktive Energieverbrauch der untersuchten Person schätzen. Durch den Einsatz mehrerer, synchronisierter Sensorgeräte mit Gyroskopen zur Erfassung der Winkelbeschleunigung ist die Vermessung von Gelenkbewegungen unter Alltagsbedingungen, z. B. bei der Arbeit oder beim Sport, möglich. In der Studie Partial Knee Clinics wiesen Calliess et al. mit einem Multisensoransatz nach, dass Unterschiede im Bewegungsablauf bei Patienten mit unterschiedlichen Knieendoprothesen vor allem beim Treppabsteigen auftreten. Außerdem ließen sich Ermüdungseffekte messen. Solche Messungen sind unter stationären Laborbedingungen nicht durchführbar. Ein wesentlicher Vorteil sensorgestützter Bewegungsmessungen liegt in deren Objektivität im Gegensatz zu der weit verbreiteten Methode der Befragung (Recall-Fragebögen) zur individuellen Bewegungsaktivität. Die eigene Aktivität wird häufig überschätzt. Aus diesem Grund setzen epidemiologische Studien schon seit geraumer Zeit Sensorgeräte ein, so z. B. bereits im National Health and Nutrition Examination Survey 2005/2006 und der UK Biobank Studie mit 100.000 ProbandInnen. Die Verfügbarkeit solch umfangreicher Daten zur Alltagsaktivität lassen nun Untersuchungen zu Assoziationen mit weiteren, z. B. genetischen Daten zu. Eigene Untersuchungen haben gezeigt, dass sich unter Verwendung eines Clusterverfahrens mit ausschließlich sensorisch erfassten Bewegungsdaten Bewegungstypen identifizieren lassen, die signifikante Unterschiede in metabolischen Parametern bzw. Risikofaktoren bezgl. Sturzgefährdung aufweisen. Die bisherigen Beispiele zeigen, wie technische diagnostische Systeme in den Lebensalltag vordringen und auch gerade deshalb neuartige und diagnostisch relevante Informationen liefern können. Diagnostik bleibt nicht begrenzt auf Institutionen wie Krankenhäuser und Arztpraxen. Bürgerinnen und Bürger nutzen Systeme aus dem erweiterten Gesundheitsmarkt zunächst für Komfortfunktionen oder zur Selbstvermessung mit dem Ziel der Selbstverbesserung im Bereich der körperlichen Fitness. Die automatisierten Auswertungen nutzen sie zur Steuerung ihres Trainings oder zur Veränderung ihrer Lebensweise hin zu mehr Aktivität. Die Systeme unterstützen dies mit entsprechender Motivation unter anderem durch spielerische Elemente, wie das Erreichen von gesteckten Zielen oder den Vergleich mit anderen Personen über soziale Netzwerke. Die technischen Systeme erlangen in dieser Anwendung einen Status, der mit dem eines persönlichen Trainers und Begleiters vergleichbar ist. Zunehmend intelligentere Algorithmen erlauben sehr individuelle Steuerung des Verhaltens von Personen. Der Wert der gesammelten Informationen für die medizinische Versorgung ist noch nicht konkret abschätzbar. Interessant und wichtig wäre eine automatisierte frühzeitige Erkennung von gesundheitsrelevanten Situationen, die nur mit der Hilfe medizinischer ExpertInnen zu bewältigen sind. Ein Austausch der vorliegenden Daten mit diesen sollte dann einfach möglich sein und den ExpertInnen sollten sich die Daten, die für die vorliegende Situation relevant erscheinen, in einer einfach zu interpretierenden Form präsentieren. Durch die anlassbezogene individuelle Konfiguration vorhandener technischer Geräte und die Ergänzung um weitere diagnostisch notwendige Komponenten entsteht eine diagnostisch wirksame Lebensumgebung. Das Zusammenwirken der technischen Systeme mit ihren NutzerInnen und medizinischen ExpertInnen führt zu völlig neuartigen Formen der Versorgung. Erst wenn die von den PatientInnen gesammelten Daten mit ihren gesundheitlichen Informationen und Daten von weiteren diagnostischen Tests zusammengeführt und mit der Unterstützung von Expertensystemen den ExpertInnen zur Auswertung und Bewertung vorliegen, lässt sich die technische Lebensumgebung ideal für die Erfassung der Gesundheit instrumentalisieren oder gestalten.

 

2.2 Anwendungsbeispiel: TeleReha

Neben der bisher aufgezeigten Verwendung in der Diagnostik lassen die neuen technischen Systeme auch einen Einsatz in der Therapie zu. Ein Anwendungsfeld ist die motorische Rehabilitation von Patienten mit muskulo-skelettalen Erkrankungen. Die Möglichkeiten der technischen Unterstützung reichen in diesem Bereich von der für Hilfestellung PatientInnen und TherapeutInnen z. B. bei der Auswahl von Eigenübungen durch Kataloge, die intelligente Suchen gestatten, über die Motivation und Anleitung der PatientInnen bei der Durchführung der verordneten Übungen bis hin zu Robotern, die mobilitätseingeschränkte PatientInnen über präzise Trainingsbelastungen bei der Wiedererlernung von Bewegungsabläufen helfen. Das Projekt AGT-Reha (AGT = Assistierende Gesundheits-Technologien) hat in den letzten Jahren gezeigt, dass über die Ausstattung von PatientInnen in ihrer Häuslichkeit mit entsprechenden Hard-Software-Systemen eine bessere Kontrolle der selbstständigen Übungsausführung möglich ist. Die TeilnehmerInnen in den freiwilligen Studien verwenden ein Computersystem mit einer Tiefenkamera, das die Durchführung von physiotherapeutischen Eigenübungen erkennen kann. Das technisch angeleitete Training sowie die automatisierte Bewertung und Rückmeldung von Quantität und Qualität der Übungsausführung durch den Computer gestattet es den Trainierenden, alle die für sie therapeutisch wirksamen Übungen genauer durchzuführen und so Fehlbelastungen zu vermeiden. Die Trainierenden berichten, dass das geführte Training mit dem System hilfreich sei, keine Übungen zu vergessen und die Übungen korrekt und vollständig auszuführen. Die Rückmeldung der Trainingserfolge an die betreuenden TherapeutInnen empfinden die TeilnehmerInnen als eine zusätzliche Motivation, und sie gibt ihnen das sichere Gefühl, während ihrer heimischen Übungen betreut zu sein. Die Nachsorge mit AGT-Reha ist zeitlich flexibel und in den eigenen Räumlichkeiten durchzuführen, wodurch AGT-Reha einigen PatientInnen die wichtige, regelmäßige poststationäre Rehabilitation erst ermöglicht. Die therapeutischen Systeme, für die AGT-Reha nur ein Beispiel ist, erlauben neben der oben beschriebenen neuartigen Diagnostik neue Formen der Versorgung. Durch ihr Zusammenwirken von PatientInnen und TherapeutInnen erweitern und ergänzen sie das ansonsten unmittelbare Verhältnis der menschlichen Akteure. Sie erweitern die Fürsorge der Therapeuten als deren teletherapeutische Augen und Arme und geben auch dadurch den Trainierenden ein gutes Gefühl des Umsorgtseins. Die weitgehend automatisierte Kontrolle der Qualität und Quantität des Trainings soll zu regelmäßigeren und korrekteren Trainings führen, was die Wirksamkeit erhöhen sollte. Gleichzeitig ermöglichen sie TherapeutInnen durch die Asynchronität, neue, flexiblere Arbeitszeitmodelle. Die automatisierte Kontrolle des Trainings entbindet die TherapeutInnen von Routineanteilen ihrer Arbeit und ermöglicht ihnen eine Konzentration auf die Aspekte, die eine erhöhte Wirksamkeit versprechen. Die gesammelten Informationen über die tatsächliche Durchführung der Trainings gestatten neue, objektivere Einsichten in die Wirklichkeit der selbstständigen häuslichen Therapie. Ein Risiko der Verwendung ist das tiefe Eindringen der Systeme in die Privatsphäre der NutzerInnen. AGT-Reha interpretiert beispielsweise Videoaufnahmen der NutzerInnen in ihrer privaten Wohnumgebung. Zudem sammelt es objektive Informationen über die Adhärenz der NutzerInnen. Auch wenn AGT-Reha die Bilder nicht aufzeichnet und sie somit die Wohnung der NutzerInnen nie verlassen, ist ein Missbrauch derartiger Systeme leicht vorstellbar. Dieser würde das für die Behandlung essenzielle Vertrauensverhältnis zwischen TherapeutIn und PatientIn nachhaltig beeinträchtigen. Ebenfalls ist leicht eine Nutzung der Informationen über Trainingsqualität und -quantität vorstellbar, die den PatientInnen zum Nachteil gereichen könnte. So ließen sich die Verordnung weiterer Therapien oder die Kostenerstattung von den Informationen abhängig machen.  

 

2.3 Anwendungsbeispiel: Kombination von Modalitäten

Während AGT-Reha ein abgegrenztes System ist, das PatientInnen in ihr privates Umfeld bringen, kann die häusliche Umgebung selbst, wie oben angeführt, als diagnostischer und therapeutischer Raum dienen. Sind Wohnungen mit ambienten Sensoren ausgestattet, lassen diese sich mit weiteren Systemen (u. a. Aktoren) kombinieren, um je nach Anwendungsfall z. B. diagnostische Informationen zu erheben, algorithmisch auszuwerten und ggf. auch Entscheidungen zu treffen. Ein Beispiel für die Verwendung verschiedener Modalitäten in realen Lebensumgebungen ist die Erkennung von Sturzereignissen in Wohnungen. In Wohnungen von insgesamt 28 sturzgefährdeten älteren Personen installierte Kamerasysteme und Mikrofone erfassten für jeweils acht Wochen im Rahmen der Arbeiten zum Forschungsverbund Gestaltung altersgerechter Lebenswelten die Aktivitäten der Personen. Gleichzeitig zeichneten tragbare Sensorgeräte die Bewegungen der ProbandInnen auf. Mit spezifisch dafür entwickelten Algorithmen fusionierte ein in der Wohnung installiertes Computersystem die Sensordaten, wertete diese autonom aus und traf die Entscheidung, ob ein Sturzereignis vorliegt oder nicht. Dieses Beispiel zeigt, wie sich die persönliche Lebensumgebung zu einem aktiven Begleiter und Akteur der Gesundheitsversorgung wandelt. Gerade im Bereich der Notfallerkennung bei solchen seltenen, häufig spät erkannten Ereignissen, die schwerwiegende Konsequenzen für die Betroffenen haben können, bietet sich die Nutzung maschineller Intelligenz an. Durch eingebaute Sensorik, Aktorik und eingebettete Systeme entwickelt sich die Wohnung selbst zu einem Akteur im Gesundheitswesen. Sie kann zum Beispiel die Veränderung der Gesundheit ihrer BewohnerInnen erkennen, ihnen geeignete Gegenmaßnahmen vorschlagen, Unterstützungsdienste anbieten und vermitteln, den Besuch einer/s MedizinerIn empfehlen und auf Wunsch die Daten, die zu der Einschätzung führten, zusammenstellen und übermitteln. In einer Notlage kann die intelligente Wohnung diese erkennen, Hilfe herbeirufen und den herbeieilenden Helfenden die Wohnungstür öffnen.  

 

2.4 Anwendungsbeispiel: Einfach zu nutzende wissensbasierte Systeme

Ein weiteres Feld, auf dem technische Entitäten die Schnittstelle zwischen Mensch und Gesundheitswesen verändern, sind dialogbasierte Applikationen, die den AnwenderInnen einen einfachen Zugang zu medizinischem Wissen ermöglichen, das für sie in ihrem aktuellen Kontext relevant ist. Als prominentes Beispiel ist hier die Smartphone-App Ada zu nennen, die ihre NutzerInnen in einem textbasierten Dialog interaktiv zu Symptomen befragt, die Anzahl möglicher Erkrankungen eingrenzt und aus den Antworten die Wahrscheinlichkeiten möglicher Erkrankungen berechnet. Im Hintergrund arbeitet ein von ExpertInnen erstelltes und laufend gepflegtes wissensbasiertes System. Neben dem verfügbaren medizinischen Wissen fließen auch Rückmeldungen der AnwenderInnen hinsichtlich der Korrektheit der Beurteilung mit ein. Ein Zitat aus der Beschreibung der App durch den Hersteller im Internet: „Ada wurde von mehr als 100 Ärzten und Wissenschaftlern entwickelt und kennt bereits über tausend Krankheiten mit mehreren Milliarden Symptomkombinationen – von einer einfachen Erkältung bis hin zu seltenen Erkrankungen.“. Diese Art von Anwendungen, die AnwenderInnen eine Art Selbstbedienung und Selbstversorgung im medizinischen Kontext ermöglichen, stehen für eine neue Form der Gesundheitsversorgung. Schon seit einigen Jahren nimmt der Anteil der Patienten zu, die sich vor einem Arztbesuch im Internet über mögliche Erkrankungen informieren. Im Vergleich zu dieser Form der Vorbereitung auf (oder Entscheidung über) einen Arztbesuch versprechen intelligente Anwendungen wie Ada eine deutlich realistischere Einschätzung des aktuellen Gesundheitszustands und somit eine noch zielgenauere, rechtzeitige Versorgung. Idealerweise entlasten derartige intelligente Systeme MedizinerInnen wie PatientInnen, indem sie unnötige Arztbesuche vermeiden helfen und somit eine effizientere und passgenauere Versorgung der PatientInnen ermöglichen, die des Beistands einer/s MedizinerIn bedürfen. Das wissensbasierte System, auf dem die Applikation beruht, bietet darüber hinaus mit AdaDX eine explizit für medizinische ExpertInnen entwickelte Schnittstelle. Ronicke et al. (2019) berichten über den Einsatz für die Diagnostik von seltenen Erkrankungen, die häufig übersehen und daher häufig erst spät therapiert werden. Die Autoren argumentieren, dass es ca. 7000 seltene Erkrankungen gibt, die auch von ExpertInnen mit allen Symptomkombinationen nur schwer zu erfassen sind. Die Applikation analysiert die Falldaten und bietet den MedizinerInnen eine Diagnoseunterstützung, indem sie zum einen die Passgenauigkeit der Daten auf verschiedene Erkrankungen berechnet, und zum anderen deren Wahrscheinlichkeiten. Die maschinelle Intelligenz bietet hier eine kognitive Unterstützung in einer sehr wissens- und datenintensiven Umgebung. Die Versorgung von PatientInnen findet häufig unter einem enormen Zeit- und Kostendruck statt, der dazu führt, das gerade seltene Erkrankungen zu spät erkannt werden. Die finale Entscheidung über die Diagnose bleibt bei der Ärztin bzw. dem Arzt, vor allem in Bezug auf die therapeutischen Konsequenzen im Einzelfall. Hier agieren Mensch und Maschine synergistisch. Die MedizinerInnen nehmen eine wesentliche vermittelnde Rolle zwischen den PatientInnen auf der einen Seite und den menschlichen wie maschinellen Experten, Entscheidern und Handlungsträgern auf der anderen Seite ein. Im Projekt MoCAB (Mobile Care Backup) übernimmt eine maschinelle Intelligenz in ganz ähnlicher Weise eine beratende und unterstützende Rolle für die Angehörigen von pflegebedürftigen Personen. Hier arbeitet ein Smartphone- basiertes Dialogsystem (Chat-Bot) mit pflegenden Angehörigen, um deren spezifischen Informations- und Unterstützungsbedarf zu erfassen. Ein Algorithmus entscheidet dann darüber, welche spezifischen Informationen Angehörige in einer bestimmten Situation benötigen und stellt ihnen die entsprechenden Wissensmodule bereit. Solche Systeme können dazu beitragen, Wissenslücken zu schließen und Barrieren zwischen ExpertInnen und Laien abzubauen.

 

3 Zusammenfassung und Ausblick

Mehrere Beispiele aus dem Bereich körpernaher und ambienter medizintechnischer Systeme haben die Möglichkeiten und Herausforderungen des Zusammenwirkens lebender und nicht lebender Entitäten im Bereich der Gesundheitsversorgung und Medizin verdeutlicht. Der Einsatz der technischen Systeme erfolgt zunehmend auch außerhalb des unmittelbaren medizinischen Umfelds und unabhängig von vorhandenen oder vermuteten medizinischen Problemen. Sie dringen damit zunehmend in das private Umfeld von Bürgerinnen und Bürgern vor und ermöglichen neue Formen der Gesundheitsversorgung. Die ermöglichte vergrößerte Fähigkeit zur Selbstvorsorge und Selbstversorgung und die zielgerichtete Inanspruchnahme von Gesundheitsdienstleistungen hat das Potenzial, das Gesundheitswesen in Zukunft effektiver und effizienter zu machen. Patientinnen und Patienten erhalten durch ihr Zusammenwirken mit der Technologie eine größere Verantwortung und eine bessere und informierte Mitbestimmung über ihren Gesundheitszustand.  

 

3.1 Ethische Fragen

Neben den vielversprechenden positiven Möglichkeiten der aufkommenden Technologien entstehen neben den neuen Formen der Gesundheitsversorgung auch ethisch fragwürdige Anreize und Anwendungen der zunächst wertneutralen Technologie. Informationen über den Gesundheitszustand gehören zu den privatesten und damit schützenswertesten Informationen über ein Individuum. Die erfassten Daten über das Verhalten einer Person lassen darüber hinaus tiefe Einblicke in das Privatleben zu. Diese lassen sich im Sinne der PatientInnen zur Verbesserung des Gesundheitszustands nutzen, aber auch missbräuchliche Nutzungen sind vorstellbar. In weniger freien Gesellschaften lassen sich diese Informationen vergleichsweise einfach zur Kontrolle von Bürgerinnen und Bürgern einsetzen. Selbst mit den vorgesehenen Nutzungen der Technologie ergeben sich ethische Fragestellungen hinsichtlich der Einschränkung des technisch Machbaren. Einige der neuen Technologien bieten auch für gesunde Menschen Nutzungsmöglichkeiten. Im Hinblick auf die Selbstverbesserung oder Selbstoptimierung entstehen hier ähnliche Fragestellungen, wie sie im Kontext der Verbesserung der körperlichen und geistigen Leistungsfähigkeit mit Medikamenten (Doping) existieren. Ein entstehendes Risiko ist, dass die Technologie die Normen, die ein Individuum erfüllen kann, sollte oder müsste verschiebt und damit die gesellschaftliche Erwartung und der Druck auf das Individuum steigt. Diese Normierung steht konträr zur grundsätzlich bewahrenswerten Individualität und Autonomie. Hier ist ein gesellschaftlicher Diskurs über die akzeptablen Grenzen des Machbaren notwendig.  

 

3.2 Veränderung des Zusammenwirkens in der Medizin

Dort wo intelligente Systeme zum Einsatz kommen, werden sie die Rollen der Menschen, die mit ihnen direkt oder indirekt zusammenwirken, verändern. Sie vertiefen und erweitern die objektiven Informationen über die PatientInnen und ermöglichen ihnen durch automatisierte und individualisierte Rückmeldung sowie durch unmittelbaren Dialog ein besseres Verständnis ihrer Gesundheit und machen sie somit zu informierteren Beteiligten im Gesundheitswesen, die Gesundheitsdienstleistungen präziser abrufen können. Für die MedizinerInnen bedeutet dies idealerweise eine Erleichterung ihrer Arbeit. Der Gesundheitszustand der informierten PatientInnen, über die technische Systeme viele Informationen gesammelt, verdichtet und bewertet haben, lässt sich einfacher, zielgerichteter und hoffentlich schneller diagnostizieren. Technische Systeme können die MedizinerInnen wiederum bei dieser Wissensarbeit unterstützen, beispielsweise indem sie kontextbezogen Wissen zur Verfügung stellen und auf das mögliche Vorliegen seltener Erkrankungen hinweisen. Eine weitere Fragestellung, die sich aus der Konstruktion der technischen Systeme und ihrer Entscheidungsfindung ergibt, ist die Frage der Nachvollziehbarkeit dieser Entscheidungen. Die exakte Funktion einiger Systeme, die beispielsweise in der bildbasierten Diagnose von Hautkrebs bessere Ergebnisse als menschliche Experten erzielen, lässt sich kaum nachvollziehen. Die Entscheidungsfindung stellt somit eine Blackbox dar. Hier wird die Frage zu klären sein, ob wir uns damit zufriedengeben, dass die Ergebnisse der Blackbox besser sind, oder ob es sinnvoll ist zu verlangen, dass jede Entscheidung im Detail von einem Menschen verstanden wird. Das sogenannte responsible data science geht in diese Richtung. Andererseits lässt sich argumentieren, dass ExpertInnen für Laien ebenfalls eine Blackbox darstellten und ihm oder ihr ihre Entscheidungsgrundlage oft auch kaum erklären können. Schließlich spielt das Bauchgefühl, das auf langjähriger Erfahrung und kaum explizierbarem Wissen beruht, auch bei Entscheidungen von ExpertInnen eine Rolle. Bei der aktuellen technischen Entwicklung ist absehbar, dass in bestimmten Bereichen der Medizin computerbasierte intelligente Systeme eine Diagnose zuverlässiger stellen als die Mehrzahl der MedizinerInnen. In dieser Situation ist die Frage zu stellen, ob es nicht unmoralisch ist, wenn diese MedizinerInnen ohne technische Unterstützung eine Diagnose stellen.

 

Michael Marschollek, Klaus-Hendrik Wolf; Zusammenwirken von natürlicher und künstlicher Intelligenz; Springer 2021

Zur einfacheren Lesbarkeit wurden die meisten Quellenverweise entfernt.

https://link.springer.com/chapter/10.1007/978-3-658-30882-7_7

http://creativecommons.org/licenses/by/4.0/deed.de

 

 

Informationssicherheit

 

Informationssicherheit


Weil Ihre Daten und Informationen es wert sind

Mit Informationssicherheit und einem Information Security Management System (ISMS) schützen Sie Ihre Informationen und Daten optimal und beweisen auch gegen aussen Verantwortungsbewusstsein.

Kontaktieren Sie uns, die erfahrenen Spezialisten für Informationssicherheit und ISMS! Wir beraten Sie gerne und unverbindlich: +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

04/2021

 

In der Unternehmenswelt ist die Digitalisierung weit vorangeschritten. Mit dem Begriff „Big Data“ zeichnet sich eine neue Stufe der digitalen Entwicklung ab. In vielen Unternehmensbereichen bestehen bereits umfangreiche Erfahrungen im Umgang mit großen Datenmengen, im Personalwesen wurde das Thema bislang aber offenbar eher zurückhaltender angegangen. Dies könnte unter anderem an dem konservativ ausgelegten Arbeitnehmerschutz in der Schweiz liegen oder auch daran, dass die Thematik im Bereich des Human Resource Managements (HRM) nur ein geringeres Nutzenpotenzial aufweist. Die Auswirkungen und Anwendungen von Big Data in den Personalabteilungen Schweizer Unternehmen sind aktuell wenig bis gar nicht erforscht. Vor diesem Hintergrund werden in einem ersten Schritt der Untersuchung zunächst der Status quo zur Thematik in der Literatur aufgezeigt. Anschließend werden die Ergebnisse der eigenen empirischen Untersuchung zur Big-Data-Praxis Schweizer Unternehmen vorgestellt. Die gewonnenen Erkenntnisse dienen als aktuelle Standortbestimmung und helfen dabei, einen Blick in die Zukunft der Big-Data-Anwendung im HRM zu werfen.

Die theoretisch-konzeptionelle Analyse bildet die Grundlage für die Formulierung der Leitthesen für die empirische Untersuchung. Die Bestandsaufnahme der Literatur orientiert sich an folgenden Orientierungsfragen:

  • Ist Big Data überhaupt ein relevanter Trend für das HRM in Schweizer Unternehmen?
  • Welche Anwendungsoptionen gibt es bereits und welche sind für die Zukunft noch zu erwarten?
  • In welchem Ausmaß wird Big Data das HRM in Unternehmen verändern?
  • Welche Chancen und Risiken sind mit Big Data im HRM verbunden?
  • In welchem Umfang ist Big Data bereits im HRM in der Schweiz angekommen?
  • Gibt es im Schweizer Kontext spezifische rechtliche und ethische Aspekte im Thema?

Im zweiten Teil der Untersuchung werden mittels einer qualitativen Befragung eines breit aufgestellten Portfolios an Interviewpartnerinnen und -partnern die als Leitthesen formulierten abgeleiteten Annahmen überprüft.

 Digitalisierung – Gegenstand und Ausprägungsformen

Allgemein bezeichnet der Begriff Digitalisierung im ursprünglichen Sinne das Umwandeln von analogen Werten in die digitale Form. Heute hat der Begriff aber noch deutlich weitergehende Bedeutungen. Er steht unter anderem auch für die Überführung von Information und Kommunikation in die digitale Modifikation von Instrumenten, Geräten oder Fahrzeugen oder wird als Synonym für die „digitale Revolution“ verwendet, die auch als „vierte industrielle Revolution“ bzw. „digitale Wende“ bezeichnet wird. Während sich die Digitalisierung bis in die 1990er-Jahre primär mit der Automatisierung und Optimierung von Privathaushalten, Arbeitsplätzen und Prozessen auseinandergesetzt hat, stehen seit Beginn des 21. Jahrhunderts disruptive Technologien und innovative Geschäftsmodelle sowie Autonomisierung, Flexibilisierung und lndividualisierung in der Digitalisierung im Vordergrund.

Der schnelle Fortschritt der digitalen Transformation wird von Expertinnen und Experten unter anderem mit einem Generationenwechsel in der Arbeitswelt verbunden. Führungskräfte und Mitarbeitende sind zunehmend vertrauter mit den Möglichkeiten, die sich ihnen mit der Digitalisierung bieten. Auch in der Politik ist das Thema Digitalisierung angekommen. So wurde etwa im Jahr 2017 unter der Leitung des damaligen Bundespräsidenten Johann Schneider-Ammann von etwa 50 Unternehmerinnen und Unternehmern, Wissenschaftlerinnen und Wissenschaftlern sowie Politikerinnen und Politikern ein „Digitales Manifest für die Schweiz“ entwickelt. Dieses steht für eine gemeinsame visionäre Stoßrichtung bei der Digitalisierung der Schweiz unter Berücksichtigung möglichst aller Interessengruppen.

In Bezug auf die Digitalisierung in der Arbeitswelt sind interne und externe rahmengebende Faktoren zu unterscheiden. Externe Rahmensetzungen können nur bedingt oder indirekt von Unternehmen beeinflusst werden. Es handelt sich hierbei um relevante Aspekte der Infrastruktur, der Politik, der Gesetzgebung, der Gesellschaft und sich verändernder Kundenanforderungen. Interne Faktoren liegen weitgehend im Gestaltungsbereich der Unternehmen und umfassen beispielsweise die Mitarbeitendenqualifizierung, die Demografie der Belegschaft, die Unternehmenskultur oder die Finanzsituation. ln diversen Praxisbeispielen aus der DACH-Region wird deutlich, dass diese Faktoren, abhängig von der Branche, unterschiedlich stark ausgeprägten Einfluss nehmen.

Die Digitalisierung konkretisiert sich in verschiedenen Ausprägungsformen. Die wichtigsten technologischen Trends, die mit der Digitalisierung gemeinhin verbunden werden, sind Industrie 4.0, Internet of Things, Cloud Computing, künstliche Intelligenz und Big Data.

Nachdem mit der dritten industriellen Revolution die Automatisierung den Arbeitsalltag grundlegend verändert hat, wird unter dem Begriff Industrie 4.0 ein weiterer digitalisierungsbedingter Paradigmenwechsel für die Wirtschaft gesehen. Mit ihr geht eine Verschmelzung und systemübergreifende Zusammenführung von digitalen, physischen und biologischen Sphären einher, bei der die reale und die virtuelle Welt immer mehr zusammenwachsen.

Viele auch noch so kleinen Geräte und Maschinen sind heute von ihrer technischen Ausstattung her Computer, welche sich mit dem Internet verbinden und miteinander interagieren können. Dieser virtuelle Kontakt von physischen Gegenständen wird als Internet of Things (IoT) bezeichnet. In der Unternehmenspraxis werden beispielsweise heute Produktionsmaschinen eingesetzt, die technische Störungen oder Materialengpässe automatisch detektieren und melden und im Bereich der Logistik werden in digitalisierten Lagerhallen die Bestände automatisch überwacht und Folgebestellungen bedarfsabhängig ausgelöst. In der Landwirtschaft kommen Messgeräte zum Einsatz, die Boden- und Wetterbedingungen für die Landwirtinnen und Landwirte kontinuierlich auswerten und Handlungsbedarfe signalisieren. Kritiker dieser Entwicklungen sehen mit dem technischen Fortschritt und der zunehmenden Automatisierung und Autonomisierung von Maschinen und Gegenständen die Gefahr, dass die Menschen die Kontrolle über die Produktions- und Logistiksysteme zunehmend verlieren.

Wesentliches Merkmal des Cloud Computing ist, dass Dateien, Programme oder Dokumente nicht mehr auf dem eigenen Server der Nutzerinnen und Nutzer, sondern auf einer virtuellen, mit dem Internet verbundenen Umgebung, der „Cloud“, gespeichert werden. Für die Nutzerinnen und Nutzer ergeben sich daraus diverse Vorteile, in erster Linie sind dies aber reduzierte Kosten. Die Risiken des Cloud Computing liegen insbesondere bei der Sicherheit. Sämtliche Dateien, welche in der Cloud gespeichert werden, sind online und somit exponiert für eventuelle Hackerangriffe. Selbst wenn die Daten nicht illegal missbraucht werden, stellt sich bei dieser Technologie die Frage nach Datenschutzregulierungen und Grauzonen der Datennutzung durch die Cloud-Anbieter.

Dass Computer Daten automatisch auswerten, ist schon lange Alltag. Durch von Expertinnen und Experten vordefinierte Handlungsvorschriften, sogenannte Algorithmen, wird das Analyseverhalten der Geräte definiert und gesteuert. Bei der künstlichen Intelligenz (KI) werden die Aktionen der Computer nicht mehr von Menschen gesteuert, sondern weitestgehend automatisiert. Das Ziel der KI ist es, dass Computer eigenständig mit Menschen kommunizieren, Probleme lösen und Entscheidungen treffen und somit das Leben der Nutzerinnen und Nutzer radikal vereinfachen. Maschinelles Lernen soll durch die Nachahmung biologischer Prozesse in den neuronalen Netzen des menschlichen Gehirns ermöglicht werden. „Schwache KI“ ist auf klare Anwenderprobleme hin programmiert und funktioniert in der menschlichen Wahrnehmung technisch und mathematisch. Sie erfüllt klar definierte Aufgaben und lernt reaktiv, ohne dabei in die Tiefe zu gehen und selbstständige Schlüsse zu ziehen. Computersoftware zur Spracherkennung, Navigation oder Texterkennung fällt unter diese Kategorie der schwachen KI. Ein eindeutiges Merkmal der schwachen KI ist, dass sie ihre Schlüsse nicht auf andere Bereiche übertragen kann. Diese intellektuelle Fähigkeit ist das Ziel der für die Zukunft angestrebten „starken KI“, welche menschliche lntelligenz erreichen oder sogar übertreffen soll. Die starke KI agiert nicht reaktiv, sondern eignet sich selbstständig Wissen an und entwickelt eigenständig logische Denkstrukturen, Entscheidungs- und Planungsprozesse. Kritiker der KI befürchten, dass Maschinen irgendwann so weit entwickelt werden, dass sie die Kontrolle über die Menschen übernehmen könnten. Ein weiterer Kritikpunkt, dessen Relevanz sich schon länger und in wachsendem Maße auch real abzeichnet, ist, dass intelligente Maschinen zunehmend die Aufgabe von Arbeitnehmenden übernehmen können und diese ersetzen.

Eine weitere zentrale Ausprägungsform und Perspektive der Digitalisierung, die im Fokus dieses Beitrags steht, ist „Big Data“. Diese wird nachfolgend eingehender beschrieben.

Big Data als Digitalisierungsperspektive

Mit der fortschreitenden Digitalisierung der Gesellschaft erscheint das Erheben von Daten nicht mehr als bloße Notwendigkeit, um eine Produkteigenschaft ausführen oder unterstützen zu können, sondern wird vielfach zu einem parallelen oder gar Hauptgeschäftszweig eines Unternehmens. Seit der Erfindung der Datenspeicherung via Lochkarten im neunzehnten Jahrhundert sind die zu bewältigenden Datenvolumen kontinuierlich und exponentiell angestiegen. Allein seit 2018 hat sich das weltweite Datenvolumen von ca. 33 Zettabytes bis 2020 auf über 55 Zettabytes erhöht und bis 2025 ist aufgrund einer zunehmenden sensorgesteuerten Automatisierung mit 24/7-Datengenerierungen mit einem weiter zunehmenden Wachstum auf ca. 175 Zettabytes zu rechnen. Die Daten werden dann voraussichtlich zu ca. 50 % in der Cloud gespeichert und etwa ein Drittel der Daten werden real-time Prozess- und Entscheidungsunterstützungsdaten sein. Zur effizienten und zielgerichteten Bearbeitung dieser riesigen Datenmengen (Big Data) braucht es heute eine Vielzahl verschiedener Technologien. In der Literatur steht der Begriff Big Data für große Datenmengen, die anhand von speziellen Lösungen gespeichert, verarbeitet und ausgewertet werden. Plattner (2017) betrachtet Big Data als ein Synonym für die Relevanz großer Datenmengen in unterschiedlichen Anwendungsfeldern und die hiermit einhergehende Herausforderung der Verarbeitbarkeit dieser Daten. Es gibt zwar bis heute keine allgemein etablierte Definition von Big Data, aber die beiden Begriffsbeschreibungen können gut als Annäherung für die Grundzielrichtungen anderer definitorischer Ansätze verwendet werden.

Im vorliegenden Beitrag steht Big Data für die Erhebung, Sammlung sowie Speicherung von großen Datenmengen. Ergänzend werden unter „Big Data Analytics“ die analytische Bearbeitung und die Schlussfolgerungen basierend auf diesen Daten verstanden.

Big Data lässt sich anhand von drei idealtypischen Merkmalsausprägungen noch weiter konkretisieren. Das erste Attribut Volume beschreibt die bereits erwähnte hohe Menge an vorhandenen Daten, welche es zu speichern, zu verarbeiten und auszuwerten gilt. Nicht nur Texte, Fotos und Videos, sondern auch Stimmen und sogar Gerüche können in Zahlen übersetzt und digital erfasst werden. Wissenschaftlerinnen und Wissenschaftler sehen sich in diesem Kontext mit diversen Fragen konfrontiert, beispielsweise wie kann bei einer immer größer werdenden Datenmenge der Überblick behalten und eine systematische Verwaltung gewährleistet werden? Auch die Frage danach, ob, wie und wie lange die erforderlichen physischen Geräte mit dem Wachstum des Datenvolumens mithalten können, beschäftigt die Forschung.

Velocity beschreibt die Geschwindigkeit, mit der die Daten generiert und transportiert werden. Ein Beispiel hierfür ist die Foto-Uploadrate von Facebook, die 2015 bereits bei täglich 900 Mio. Fotos lag, die von Facebook-Nutzerinnen und -Nutzer auf die Plattform hochgeladen wurden. In 2018 hatten die ca. 2,3 Mrd. monatlichen Facebook-Nutzer bereits etwa 250 Mrd. Fotos hochgeladen. Wie beim Datenvolumen stellt sich bei der Geschwindigkeit die Frage, wie lange die Technik mit dem hohen Wachstum mithalten kann. Neben der Anwenderfreundlichkeit hat die Geschwindigkeit, mit der Daten verarbeitet werden, eine hohe Relevanz auch für die Cybersicherheit. Bei Spam oder Cyberattacken versteckt sich die schädliche Software in einem Fluss an Daten, welcher durch die Firewall eines Gerätes fließt. Diese muss die einzelnen Elemente untersuchen und auf Anomalien prüfen. Je schneller Daten auf sie einschießen, desto schwieriger fällt es ihr, die „Feinde“ zu detektieren.

Variety beschreibt die Vielfalt der Informationen. Text, als Quelle der digitalen Information, kommt aus einer Vielzahl an oft unstrukturierten Quellen: E-Mails, Zeitungen, Kommentare, Bücher, Software, Social Media, Chatverläufe etc. Das gleichzeitige systematische Erfassen und Auswerten aller Datentypen ist unmöglich, da zu viele Diskrepanzen vorhanden sind: Datenbanken, welche von Menschen bearbeitet werden, sind selten fehlerfrei. Ein weiteres Problem sind technische Unterschiede bei der Datenverarbeitung in Abhängigkeit von den Entwicklern, sodass unterschiedliche Browser, Textverarbeitungsprogramme oder Apps mit einem identischen Satz sehr unterschiedlich umgehen. Es ist somit eine der großen technischen Herausforderungen beim Bearbeiten von Big Data, dass zusammengehörige Informationen von den Algorithmen auch als solche entdeckt und klassifiziert werden.

Der größte Nutzen von Big Data für Unternehmen liegt im hohen Potenzial zur Unterstützung für die rationale Entscheidungsfindung bei einer Vielzahl von strategischen und operativen Problemstellungen: Anhand von historischen Daten werden Muster erkannt und mögliche Szenarien für die Zukunft aufgezeigt. Diese können anschließend zur Fundierung der Entscheidungsfindung herangezogen werden. In der Praxis hat sich gezeigt, dass sich bereits digitalisierte interne Abläufe durch gezielte Datenauswertungen erheblich verbessern lassen. Dabei können Durchlaufzeiten und/oder Kosten reduziert werden. In datenbasierten Kundenanalysen können Informationen über Kunden gewonnen werden, die weit über die bisher geläufigen demografischen Eckdaten hinausgehen. Detaillierte Kundenprofile erleichtern die Segmentierung und ermöglichen Firmen, ihre Aktionen in Bereichen wie Marketing, Service oder Pricing genauer auf den einzelnen Kunden hin anzupassen. Eine analoge Argumentationslogik lässt sich auch auf die Mitarbeitendendaten eines Unternehmens übertragen, die unter Einsatz von Data-Analytics-Algorithmen segmentierte und individualisierte entscheidungsrelevante Informationen für das HRM liefern können.

In Bezug auf den Entwicklungsstand von Big Data gibt die Studie von Seufert einige Hinweise. Die Studie hebt hervor, dass die befragten Unternehmen den Kostenfaktor bzw. die Kosten-Nutzen-Relation für die Nutzung von Big Data als kritisch bewerten. Erwartungsgemäß ist das themenbezogene Know-how in Großunternehmen deutlich stärker vorhanden als in Klein- und mittelständischen Betrieben, die die schwierige Akquisition von entsprechend qualifiziertem Personal als wichtiges Hemmnis sehen. Das größte Nutzungspotenzial von Big Data wurde vor allem in den Bereichen Management, Unternehmenssteuerung sowie im Vertrieb und Marketing ausgemacht. Das geringste Nutzungspotenzial wurde für den IT-Bereich selbst identifiziert. Big Data hat demnach vor allem in Unternehmensbereichen Einsatzpotenziale, die bereits heute stark mit dem Auswerten von Kennzahlen und Statistiken beschäftigt sind. Einer Befragung der BARC Schweiz GmbH zufolge gehen Unternehmen, bei denen Big Data bereits in die Unternehmensprozesse eingebunden ist, von konkreten Umsatzsteigerungen von 8 % und Kostensenkungen von 10 % aus. Die Studie sieht insbesondere die Bereiche Marketing, Vertrieb und Controlling als Hauptanwendungsgebiete für Big Data, das Personalwesen wurde von den 423 Befragten als am wenigsten bearbeitetes Analysefeld ausgewiesen. Die Untersuchung hebt ferner die hohe Bedeutung von Datenschutz- und Datensicherheitsaspekten als mögliche Anwendungshindernisse hervor. Dieser Aspekt wird durch die immer noch andauernde Revision des Bundesdatenschutzgesetzes (Inkrafttretung voraussichtlich 2021) sowie die Umsetzung der EU-Verordnung zum Datenschutz, die seit Mai 2018 in Kraft ist, als wichtige Rahmensetzungen stark beeinflusst.

 Big Data und Human Resource Management

Wie alle anderen Bereiche der Gesellschaft und der Arbeitswelt hat die Digitalisierung auch das Human Resource Management fundamental verändert. Aspekte wie Prozessgestaltung, Arbeitsinstrumente oder Kommunikationstechnologien werden digitalbasiert neu gestaltet und unterstützen das HRM auf dem Weg in eine vernetzte, dynamische und globalisierte Welt. Das Ausmaß der Nutzungsmöglichkeiten digitaler Optimierungen im HRM hängt von Faktoren wie der Größe und dem Geschäftsmodell des Unternehmens ab. So ist anzunehmen, dass eine internationale Großbank mit tausenden Mitarbeitenden über ganz andere Möglichkeiten der Mitarbeitendendatengenerierung und -analyse verfügt, als ein kleineres mittelständisches Unternehmen. Eine Studie zum Entwicklungsstand der Digitalisierung Schweizer Unternehmen, die auch mitarbeitendenbezogene Aspekte untersucht hat, ist die Untersuchung von Greif et al. (2016). In der Studie wurde, entgegengesetzt zur bereits angeführten BARC-Studie, vom Gros der befragten Unternehmensvertreterinnen und -vertreter der Bereich „Mitarbeiter und Kultur“ resp. der dahinterstehende Personalbereich als der am stärksten digitalisierte Unternehmensbereich angeführt.

 Digitalisierung im Human Resource Management

Nachfolgend werden in der Literatur thematisierte wesentliche Auswirkungen der Digitalisierung auf folgende Hauptaufgabengebiete des Human Resource Managements angeführt: Personalrekrutierung, Personalkommunikation, Personaladministration, Personalstrategie, Personalentwicklung und Changemanagement.

Personalrekrutierung

Die Anstellungsprozesse sind im modernen HRM bei einem Großteil der Unternehmen weitgehend digitalisiert. In vordigitalen Zeiten lief ein Rekrutierungsprozess im Regelfall wie folgt ab: Die Stelle wurde in Printmedien oder über eine Agentur ausgeschrieben. Die Interessentinnen und Interessenten schickten danach ihre Bewerbungsunterlagen zur Prüfung und wurden bei Eignung zu einem oder mehreren Gesprächen, gegebenenfalls auch zu einem Assessment-Center eingeladen. Nach der Zusage wurden die Vertragsunterlagen auf Basis der eingegangenen Papierunterlagen erstellt und die Personaldaten im HR-System erfasst. Digitalisierte Rekrutierungsprozesse vereinfachen den nun weitgehend papierlosen Prozess für Interessentinnen und Interessenten stark, führen insgesamt aber zu einer höheren Komplexität der Abwicklung. Die untige Abbildung zeigt kontrastierend hierzu exemplarisch einen idealtypischen digitalen Rekrutierungsprozess auf, wie er heutzutage von vielen Unternehmen schon realisiert wird.

 

 496293 1 De 11 Fig1 HTML

 

Die weitreichende Digitalisierung des Rekrutierungsprozesses führt üblicherweise zu einer deutlichen Effizienzsteigerung bei der Personalbeschaffung und erhöht die Reichweite und Zielgenauigkeit der Personalauswahl. Sie wird außerdem von qualifizierten Bewerbenden in zunehmendem Maße auch erwartet. Im Rahmen der Rekrutierung werden neu eine Fülle von Daten generiert, die für die Auswahlentscheidungen herangezogen werden können und im Falle von Zusagen auch direkt in den Personaldatenstamm des Unternehmens Eingang finden. Nebst den technischen und administrativen Tätigkeiten gibt es nach wie vor aber auch im digitalen Prozess Aufgaben, welche durch Menschen ausgeführt werden. Die Selektion der Kandidierenden wird zwar von den zur Verfügung stehenden Informationen unterstützt, aber immer noch stark durch menschliche Faktoren wie Intuition und Sympathie geprägt, die vor allem im persönlichen Vorstellungsgespräch wirksam werden.

Personalkommunikation

Die Digitalisierung verändert die Art und Weise, wie Menschen miteinander kommunizieren, fundamental, privat wie auch in der Arbeitswelt. Den Durchbruch in der digitalen Kommunikation brachte die Einführung der E-Mail, eine Vielzahl weiterer digitaler Kommunikationskanäle folgte. Die neuen Kommunikationsinstrumente ändern nicht nur die Methodik, sondern auch die Sprache, Formalität und Frequenz der Kommunikation. Früher lange, formelle Schriftwechsel werden durch kürzere, informellere Nachrichten reduziert, welche dank Messengersystemen in Kurz- oder Echtzeit zu gesprächsähnlichen Dialogen werden. Telefonieren über das Festnetz wird zunehmend durch die internetunterstützte Distanzkommunikation ersetzt, die Gruppen- und Videoanrufe ermöglicht. Diese sind vermehrt auch Bestandteil ganzheitlicher Kollaborationsplattformen wie zum Beispiel MS Teams. Die Kommunikation im und zwischen Unternehmen verändert sich von einem früher vorherrschenden Top-down- und One-to-all-Informationsfluss hin zu einer Many-to-many-Situation, in der sich Mitarbeitende jenseits von Arbeitsort, Hierarchie oder Funktion jederzeit austauschen können. Die Unternehmen profitieren von dieser Entwicklung und der hiermit verbundenen erleichterten Wissensbeschaffung langfristig durch reduzierte Kosten, effizientere Prozesse und Qualitätssteigerungen bei Produkten oder Services. Aus den neuen Formen der digitalen Kommunikation resultieren auch Herausforderungen für die Kommunikation des Personalbereichs nach innen und außen, die berücksichtigen muss, dass mitunter sensible personalbezogene Informationen sich in kürzester Zeit auch ungewollt verbreiten können. In Bezug auf die Sicherheit personalbezogener Daten gilt vor diesem Hintergrund auch, dass hohe Anforderungen an die Administration der Zugriffsberechtigungen zu stellen sind, um die Gefahr eines Missbrauchs zu minimieren.

Personaladministration

Wie in anderen Unternehmensbereichen auch wurden die administrativen Tätigkeiten und die dahinterstehenden Prozesse des HRM in den vergangenen Jahren weitestgehend digitalisiert. Dies bedeutet beispielsweise, dass Archive und Datenbanken elektronisch bewirtschaftet werden oder dass Gehaltsberechnungen und -auszahlungen in hohem Maße automatisiert erfolgen. Viele Unternehmen streben auch im Personalbereich einen weitgehenden Paperless-Ansatz an, der die Abwicklung möglichst aller betrieblichen Prozesse in elektronischer Form zum Ziel hat. Zwischenzeitlich gibt es neben den etablierten großen Anbietern von HRM-Software (z. B. SAP, Oracle, Sage) auch eine Vielzahl kleiner und mittlerer Anbieter von Systemlösungen für alle Unternehmensgrößen und Branchen.

Personalstrategie

Der heute nahezu unbegrenzte Zugang zu digitalen Informationen ermöglicht auch bei der Entwicklung der Personalstrategie eine wesentlich aktuellere und fundiertere strategische Analyse und Planung auf der Grundlage interner und externer Daten. Für die Durchführung der strategischen Planung kann auf eine Vielzahl von IT-basierten Planungstools zurückgegriffen werden. Ein Beispiel hierfür sind etwa umfassende HR-bezogene Datawarehouse-Analyseoptionen in etablierten ERP-Systemen wie SAP. Die Digitalisierung an sich wird aber zunehmend auch selbst inhaltlich zum Gegenstand der strategischen Personalplanung. Die mit der Digitalisierung einhergehenden flexibleren, agilen und vermehrt auch interdisziplinären Arbeitsformen und veränderte Berufsbilder und Rollen führen zu gewandelten Anforderungsprofilen bei den Mitarbeitenden. Dies muss in die Personalstrategie Eingang finden. Ein Beispiel für ein fokussiertes und explizites Aufgreifen der Digitalisierung und der mit ihr einhergehenden Transformationsprozesse in der Personalstrategie ist die jüngst von der Bundesverwaltung verabschiedete „Personalstrategie Bundesverwaltung 2020-2023“.

Personalentwicklung

Es ist ein Ziel jedes Unternehmens, qualifizierte, motivierte und effizient arbeitende Mitarbeitende zu haben, die sich mit hohem Commitment für das Unternehmen engagieren. Die dafür notwendige kontinuierliche Förderung der Mitarbeitenden ist ein zentraler Punkt eines modernen HRM auch in einer digitalisierten Welt. Die Digitalisierung und die hieraus resultierenden Entwicklungsbedarfe für die Kompetenzen der Mitarbeitenden und Führungskräfte sind einerseits Gegenstand aktueller Personalentwicklungsansätze, andererseits ermöglicht die Digitalisierung eine Vielzahl neuer Formen und Zugänge zur Qualifizierung, die vielfach auch sehr kosteneffizient sind. Orts- und zeitunabhängiges und somit sehr individualisierbares E-Learning etwa kann online via Laptop, Tablet oder Smartphone erfolgen und im Sinne eines Blended-Learning durch Webinare oder Face-to-Face-Schulungen ergänzt werden.

Change Management

Dem HRM kommt in seiner modernen Ausprägung auch eine wichtige Rolle als Partner der Unternehmensleitung bei organisationalen Veränderungsprozessen zu. Digitalisierungsbedingte Veränderungen im Unternehmen bilden hier keine Ausnahme. Die mit der digitalen Transformation einhergehenden neuen Arbeitsprozesse und -strukturen wecken bei vielen betroffenen Mitarbeitenden Ängste, denen entgegengewirkt werden muss. Hier kommt dem HRM im Schulterschluss mit den Leitungspersonen der Linie eine wichtige Bedeutung zu. Gleiches gilt für die Entwicklungsprogramme zum Aufbau der zukünftig erforderlichen Kompetenzen und die Neujustierung begleitender Personalprozesse.

 Databased Human Resource Management

Angesichts der vielen systemseitigen Datenbestände und Schnittstellen rund um die betrieblichen Personalprozesse stellt sich die Frage, wie die wachsende Fülle an generierten Personaldaten im Sinne von Big Data in Unternehmen genutzt und verwertet werden kann. Es spricht einiges dafür, dass durch entsprechende datenbasierte Entscheidungsprozesse bessere Lösungen resultieren, die zur Generierung von Wettbewerbsvorteilen führen können. In der Literatur finden sich allerdings nur wenige Hinweise, die für eine fortgeschrittene Anwendung von Big-Data-Ansätzen in Unternehmen sprechen. Vor allem Anbieter von Systemlösungen nutzen den Begriff plakativ zur Vermarktung ihrer Personalsysteme mit integrierten Analysemöglichkeiten. Die riesige Menge an personenbezogenen Daten wie Lebensläufe, Leistungsaufzeichnungen, demografische Angaben oder persönliche Netzwerke in strukturierter, semi- oder unstrukturierter Form spricht jedoch derzeit vor allem für Großunternehmen für ein großes Potenzial zur systematischen Analyse mit den neu verfügbaren technischen Möglichkeiten und Algorithmen, um Maßnahmen zur Effizienz- und Effektivitätssteigerung sowie zur Verbesserung der Arbeitsbedingungen abzuleiten. Mögliche Einsatzoptionen von Big Data im Kontext des HRM sind People Analytics, Workforce Planning und Talent Analytics, deren Anwendungsgrenzen und -bezüge fließend ineinander übergehen, und die nachfolgend exemplarisch beschrieben werden.

Das Verbinden und eingehende Analysieren von Daten aus dem Umfeld des Unternehmens jenseits von einfachen Datenbankabfragen wird als „Analytics“ bezeichnet. In Verbindung mit personenbezogenen Daten spricht man hier auch von People Analytics oder HR Analytics. Der Begriff steht für eine große Zahl an Methoden und Verfahren, die es erlaubt, die Personaldaten aus verschiedenen Perspektiven zu durchleuchten. So können beispielsweise im Rahmen der strategischen Personalplanung zeitgleich zurückreichende Reports, prospektive Prognosen und vergleichende Benchmarkinganalysen mit externem Bezug erstellt und miteinander verknüpft werden. Dies erlaubt in einem Planungsmodell die Simulation strategischer HR-Szenarien zur Ableitung einer auf die geplante Unternehmensentwicklung abgestimmten Personalstrategie. Ein Beispiel, wie eine solche auf People Analytics zurückgehende strategische Szenarioplanung unter Heranziehung eines durchgängigen Datenflusses aus den Systemen SAP und Dynaplan erstellt werden kann, findet sich bei Berendes et al. (2016). Das Beispiel zeigt gleichzeitig die enge Verbindung von People Analytics und Workforce Planning auf. Anhand von Big-Data-Auswertungen können HR-Managerinnen und -manager planen, wie die Belegschaft kurz-, mittel- und langfristig und in Bezug auf Anzahl, Qualität und Verfügbarkeit zusammengestellt sein muss, um die Unternehmensziele zu erreichen, sodass die Rekrutierungs- und Personalentwicklungsaktivitäten entsprechend ausgerichtet werden können.

Unternehmen werden beim Besetzen von Vakanzen oft mit enorm vielen Bewerbungen überhäuft. Für die HR-Verantwortlichen ist es zeitlich ein extrem hoher Aufwand, die Dossiers alle sorgfältig zu prüfen und vorzusortieren. Gleichzeitig stehen in den von den Bewerbenden zur Verfügung gestellten Unterlagen nur jene Angaben, welche diese freiwillig von sich preisgeben, in der Regel also Lebensläufe, Leistungsaufzeichnungen, demografische Angaben oder persönliche Referenzen. Die Unternehmen sind aber auch an weitergehenden anderen Informationen interessiert, die normalerweise nur mit hohem Zusatzaufwand beschafft werden können. Mithilfe von Big-Data-Applikationen kann heute das Internet nach sämtlichen Daten zu der jeweiligen Person durchsucht werden, die das Bild auch über ein LinkedIn-Profil hinaus abrunden können. Man spricht in diesem Zusammenhang auch von Talent Analytics. Als Quellen hierfür dienen Social-Media-Plattformen, persönliche und andere mit Bewerbenden verbundene Webseiten, Kommentare oder öffentlich zugängliche Chatrooms. So könnten Rekrutiererinnen und Rekrutierer auf der Basis frei verfügbarer Daten zur Person beispielsweise erfahren, welchen Platzierung eine Kandidatin bei einer Sportveranstaltung erreicht hat, wie sie sich öffentlich zu gesellschaftlichen und politischen Themen in Kommentarspalten äußert oder wie ihre Familienverhältnisse sind. Das sich ergebende abgerundete Profil von Bewerbenden kann die Prognose erleichtern, wie gut Bewerbende zum Unternehmen passen würden und mit welcher Wahrscheinlichkeit eine hohe Verweildauer im Unternehmen zu erwarten ist.

Bei großen Unternehmen mit einer Vielzahl von Hierarchiestufen ist es für das Management nicht mehr möglich, einzelne Mitarbeitende zu kennen, die nicht im Arbeitsalltag regelmäßig mit den Führungspersonen zu tun haben. Durch Workforce Analytics, dem internen Pendant zu Talent Analytics, lässt sich ein genaueres Bild davon erstellen, welche Mitarbeitenden im Unternehmen welche Leistung erbringen, wie sie arbeiten und wie sich ihr Netzwerk ausgestaltet. Aus intern generierbaren Daten können auch (indirekte) Rückschlüsse auf die Zufriedenheit von einzelnen Mitarbeitenden gezogen werden. Dies ermöglicht eine bisher normalerweise nicht verfügbare Entscheidungsunterstützung auf individueller Ebene, in aggregierter Form aber auch auf Ebene von Abteilungen oder Geschäftseinheiten. Dies würde beispielsweise erlauben, einen hochaggregierten Zufriedenheitsindikator zu definieren und diesen im Sinne eines Frühwarnindikators im Personalbereich zu verwenden.

Die digitalen Veränderungen der letzten zwei Jahrzehnte haben Prozess, Rollen und die Kommunikation im Human Resource Management massiv verändert. Die hiermit verbundenen Effektivitäts- und Effizienzsteigerungen gingen und gehen aber auch mit einer Vielzahl von Herausforderungen einher. Die Intensivierung von Kommunikation und Vernetzung, neue Strukturen und Arbeitsmodelle und bislang unbekannte Datennutzungsmöglichkeiten erhöhen die Komplexität und schaffen neue Planungs- und Entscheidungsbedarfe. Während im Bereich der administrativen und prozessunterstützenden Digitalisierung des HRM von einem zumeist hohen Entwicklungsstand ausgegangen werden kann, werden Analytics-Anwendungsoptionen von Big Data für das HRM aber in der Literatur bislang noch kaum diskutiert und empirisch allenthalben sporadisch aufgezeigt. Hier scheint eine dynamischere Entwicklung des Themas erst in Gang zu kommen.

 Rahmenbedingungen für die Nutzung von Big Data in der Schweiz

Nicht alles, was im Personalbereich datenbasiert technisch möglich ist, darf rechtlich auch umgesetzt werden, denn in jedem Fall ist der Schutz der Privatsphäre des Einzelnen zu gewährleisten. Für den Einsatz von Big Data gibt es eine Reihe von einschränkenden rechtlichen nationalen, aber auch internationalen Rahmensetzungen. Darüber hinaus stellen sich bei der Nutzung von Big Data im Mitarbeitendenbereich auch ethische Fragen und es ist der gesellschaftliche und politische Diskurs zum Umgang mit sensiblen Personendaten zu berücksichtigen, einem Thema, das auch seitens der Gewerkschaften einen hohen Aufmerksamkeitswert hat.

Die Zunahme der Berichterstattung über Datenmissbrauch in und von Unternehmen trägt zu einer wachsenden Sensibilisierung der Bevölkerung hinsichtlich des Umgangs mit ihren Daten bei (Gehrmann 2014). Die Schweiz evaluiert bereits seit 2011 eine Revision des Bundesgesetzes über den Datenschutz (DSG), um die Urheberinnen und Urheber der Daten bestmöglich zu schützen. Die Totalrevision sollte ursprünglich 2020 abgeschlossen sein, aktuell ist aber wohl eher von einer Verabschiedung für das Jahr 2021 zu rechnen. Mit dem Inkrafttreten der Datenschutz-Grundverordnung (EU) 2016/679 des Europäischen Parlaments 2018 ist die Schweizer Regierung zusätzlich in Zugzwang geraten. Durch das Schengen-Abkommen ist die Schweiz dazu verpflichtet, diese Verordnung in einem angemessenen Zeitraum zu ratifizieren, um nicht aus dem Abkommen ausgeschlossen zu werden.

Für Big Data und HRM sind primär die aktuellen und zukünftigen Regelungen zu den personenbezogenen Daten von Bedeutung, also Daten, die direkt mit einer Person in Verbindung gebracht werden können (Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen). In diese Kategorie fallen alle Daten, die in direktem Bezug mit dem Namen einer Person genannt werden sowie alle Informationen, die Rückschlüsse auf eine bestimmte Person erlauben (z. B. Adressen, Telefonnummern, Kreditkarteninformationen).

Die europäische Datenschutz-Grundverordnung (DSGVO) konzentriert sich mehrheitlich auf personenbezogene Daten und hebt damit auf das Individuum ab. Auch wenn die Schweiz nicht als Mitgliedstaat der Europäischen Union gilt, ist sie bei der DSGVO an die Europäische Gesetzgebung gebunden. Gemäß Artikel drei der DSGVO findet diese sowohl Anwendung bei direkten EU-Mitgliedstaaten als auch bei Unternehmen, welche den Sitz in einem Nicht-Mitgliedstaat haben, jedoch Waren oder Dienstleistungen in einem EU-Staat anbieten (Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen). Sobald ein Unternehmen also seine Produkte und Dienstleistungen auch in der EU anbietet und verkauft, kommen die europäischen Regelungen zum Tragen. Personenbezogene Daten fallen nicht nur bei einem Unternehmen-Kunden-Verhältnis an, sondern auch bei einem Arbeitnehmer-Arbeitgeber-Verhältnis. Für eine Gültigkeit des EU-Rechtsrahmens reicht es bereits aus, wenn ein Unternehmen Bewerberinnen und Bewerber aus EU-Mitgliedstaaten anspricht, z. B. mittels Onlinestelleninseraten. In diesen Fällen gelten die gleichen Vorgaben bezüglich Dokumentations- und Auskunftspflicht, wie beim Umgang mit Kundendaten.

Die Regierung der Schweiz hat erkannt, dass die Digitalisierung heute zunehmend das Leben seiner Bürger bestimmt. Förderlich hierfür ist sicher die sehr gute Ausgangslage hinsichtlich der Telekommunikationsinfrastruktur sowie der fortgeschrittene Einsatz von Informations- und Kommunikationstechnologien. In der Strategie „Digitale Schweiz“ des BAKOM aus dem Jahr 2018 werden die Leitlinien für das staatliche Handeln vorgegeben und aufgezeigt, wo und wie Behörden, Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik zusammenarbeiten müssen, damit der digitale Transformationsprozess gemeinsam gestaltet werden kann. Mithilfe definierter Grundsätze, Kernziele, Aktionsfelder und einem zugehörigen Dialog soll in Verbindung mit einer schweizweit vernetzten Umsetzungsinstanz dieses Ziel erfolgreich umgesetzt werden. Ein wichtiges Ziel für die Zukunft ist die Entwicklung einer kohärenten und zukunftsorientierten Datenpolitik und einer entsprechenden nationalen Dateninfrastruktur. Ferner soll der Zugang zu digitalen Inhalten verbessert werden und die Bürgerinnen und Bürger sollen Kontrolle über ihre eigenen Daten ausüben können. Um Schutz vor Cyber-Risiken sicherzustellen, sollen außerdem Strukturen und Prozesse langfristig etabliert werden. Der Schutz der Bürgerinnen und Bürger vor Datenmissbrauch ist also auch in Zukunft ein zentrales Ziel der Digitalen Schweiz und somit von hoher Relevanz für den Umgang mit dem Thema Big Data.

Auch wenn Schweizer Gewerkschaften im internationalen Vergleich ein eher geringeres Gewicht im Wirtschaftsgeschehen haben (lediglich 16 % der Schweizer Arbeitnehmerinnen und Arbeitnehmer sind gewerkschaftlich organisiert), so haben sie als zentrale Interessenvertreter der Arbeitnehmerinnen und Arbeitnehmer viel Einfluss auf die Arbeitswelt der Schweiz und ein hohes Interesse an einem sorgfältigen und personalorientierten Umgang mit den Daten der Mitarbeitenden in den Unternehmen. Die Gewerkschaften haben nicht den Anspruch, den digitalen Wandel in den Unternehmen zu stoppen, da dieser zum Erhalt der Arbeitsplätze in der Zukunft erforderlich ist. Sie setzen sich vielmehr dafür ein, ihre Mitglieder auf den Wandel vorzubereiten und diesen mitzugestalten. Risiken sieht der Schweizerische Gewerkschaftsbund (SGB), die Dachorganisation der Schweizer Gewerkschaften, vor allem in Branchen wie dem Detailhandel, die einem digitalisierungsgetriebenen strukturellen Wandel unterliegen. Ferner werden Problempotenziale für administrative Aufgaben und industrielle Tätigkeiten sowie für ältere Arbeitnehmende gesehen. Die Gewerkschaften fordern Maßnahmen zur digitalen Weiterqualifizierung der Schweizer Arbeitnehmerinnen und Arbeitnehmer und zum Schutz der Gesundheit bei zunehmender Verschmelzung von Arbeit und Privatleben im Mobile und Home Office. Aus dieser Verschmelzung von Berufs- und Privatsphäre und der Digitalisierung der Kommunikation resultiert eine vereinfachte Leistungskontrolle von Mitarbeitenden, sodass die Gewerkschaften die Notwendigkeit einer Anpassung des Datenschutzes sehen, um auch in Zukunft das Recht auf Schutz der Privatsphäre zu gewährleisten. Gemäß einer Studie der Vereinigten Dienstleistungsgewerkschaft (ver.di) in Deutschland fühlen sich mehr als 50 % der Arbeitnehmenden durch die Digitalisierung stärker überwacht als in der vordigitalen Arbeitswelt und 60 % der Befragten verweisen auf eine erhöhte Arbeitsbelastung durch die Digitalisierung.

Im intern und extern nutzbaren Big-Data-Pool der Unternehmen besteht ein großer Teil aus Daten, welche sich direkt oder indirekt auf die Menschen und deren lnteraktionen beziehen. Beispiele hierfür sind Daten aus sozialen Netzwerken, das wachsende Feld von Gesundheitsverfolgungsdaten, E-Mails sowie weitere Formen von digital erfassten und versendeten Textnachrichten, der Verlauf von Suchmaschinennutzungen und vieles mehr. Die Nutzung dieser Daten kann aus ethischer Sicht sehr problematisch sein. Gemäß Zwitter (2014) stehen im Zentrum von Big Data vier ethische Herausforderungen:

  • Es gibt mehr Daten als jemals zuvor.
  • Big Data ist organisch und bildet die Realität digital besser ab als herkömmliche statistische Daten.
  • Big Data ist aufgrund großer Datensets global.
  • Korrelation versus Kausalität (Analysen werten Zusammenhänge über Kausalzusammenhänge).

Schon allein das Fehlen von Wissen darüber, welche Daten tatsächlich wofür erhoben werden, stellt die Datenerzeugenden (Onlinekonsumentinnen und -konsumenten, Handybesitzerinnen und -besitzer, Mitarbeitende) in eine ethisch benachteiligte Position bezüglich Wissen und dem freien Willen. Globale Daten führen zu einem Machtungleichgewicht zwischen Stakeholdern, die zumeist über das notwendige Wissen verfügen, um Intelligenz und Wissen aus Informationen zu generieren. Ebenfalls weisen Big-Data-Korrelationen auf Ursachen hin, bei denen es keine geben könnte. Folglich werden wir anfälliger dafür, dass wir glauben müssen, was wir sehen, ohne den Ursprung zu kennen.

Das Projekt „Abida“ des Bundesministeriums für Bildung und Forschung in Deutschland identifiziert eine materielle, funktionale, kognitive und soziale Dimension der ethischen Problemlage. In der materiellen Dimension fokussiert man sich auf Aspekte wie den Handel personenbezogener Daten vor dem Hintergrund eines mehr oder weniger sorglosen Umganges aus Sicht der datenerzeugenden Personen, auf die Autonomie der Algorithmen und die Diskussion komfortabler und manipulativer Technologien. Bei der funktionalen Dimension geht es um limitierte Wechselmöglichkeiten und latente Zwänge, unter anderem durch die Vermischung von Korrelation und Kausalbeziehung, unterschiedliche Definitionen von Big Data im Vordergrund und Hintergrund der Gesellschaft, die Intransparenz von Big-Data-Prozessen, datenbasierte Normalitätsdefinitionen und monopolistische Nutzungsweisen. Die kognitive Dimension setzt sich mit individuellen Entgrenzungen auseinander. Es geht hierbei um Entscheidungsverluste bzw. den Verlust der freien Willensentscheidung und damit auch um Kontrollverluste der betroffenen Individuen. Durch Indiskretionen, dem invasiven Eindringen in die Privatsphäre sowie der Möglichkeit von Manipulation (Nudging) entstehen Befürchtungen um den Verlust der Privatsphäre. Die soziale Dimension thematisiert kollektive Versagenszonen: Zahlreiche Informations-, Macht- und Meinungsasymmetrien führen zu Alternativlosigkeit und Abhängigkeitsverhältnissen. Sozial inklusive Formen von Solidarität führen zu Verlust von Solidarität und Leistung wird nur noch anerkannt, wenn sie messbar ist.

Beide dargelegten ethischen Grundperspektiven auf das Thema Big Data machen deutlich, dass ein großer Bedarf für die Festlegung ethischer Standards für Big Data besteht. Folgende maßgebenden Werte sollen gemäß Richards und King (2014) den Anfang für eine Big-Data-Ethik ebnen:

  • Neue Definition der Privatsphäre: Privatsphäre ist nicht eine Ansammlung von privaten Informationen, die gehütet werden muss, sondern muss als Regel der Information angesehen werden.
  • Wir müssen lernen, dass geteilte private Information trotzdem vertraulich bleiben kann.
  • Big Data verlangt Transparenz.
  • Big Data kann Identität gefährden.

Das Projekt Abida appelliert dazu, mehr Ethik zu wagen und Big Data als einen chancenreichen und nicht abgeschlossenen gesellschaftlichen Lernprozess zu betrachten. Dabei ist die Verantwortung verteilt zwischen Politik, Bildungseinrichtungen, Forschung, Medien und weiteren Akteuren wie die Wirtschaft.

Bei der Anwendung von Big Data im HRM sind die angeführten gesetzlichen Rahmenbedingungen der Digitalisierung, die auf den Schutz der Privatsphäre von Individuen abheben, zwingend zu berücksichtigen. Politik und Gewerkschaften in der Schweiz stehen der Digitalisierung grundsätzlich offen gegenüber und haben erkannt, dass man deren Voranschreiten nicht verhindern kann, dass es aber sehr wohl eines Rahmens bedarf, der dabei hilft, Missbrauch vor allem auf der Datenebene vorzubeugen und Sicherheit und Rechtsklarheit für die beteiligten Anspruchsgruppen in Wirtschaft und Gesellschaft zu schaffen. Zu diesen Rahmensetzungen gehört über die Rechtsetzung hinaus auch die Entwicklung und Etablierung ethischer Standards für die Generierung und Analyse von Big Data in allen Lebens- und Wirtschaftsbereichen. Die Etablierung von national und international anerkannten ethischen Grundsätzen zum Umgang mit Big Data befindet sich derzeit wohl noch in einer ersten Entwicklungsphase.

 Empirische Untersuchung

 Leitthesen für die empirische Analyse

Auf Grundlage der erfolgten Bestandsaufnahme der Literatur zum Einsatz von Big Data im HRM können nachfolgende Leitthesen für eine qualitative empirische Untersuchung formuliert werden:

  • Unternehmen verfügen nicht über die nötigen Fachkräfte, um Big Data im HRM adäquat anwenden zu können.
  • Es werden primär Stammdaten für HR-Analytics genutzt. Big Data gemäß der gängigen weitaus breiter gefassten Definition kommt nicht oder nur in geringem Umfang zum Einsatz, da die derzeit genutzten Daten mengenmäßig überschaubar sowie statisch und semi-strukturiert sind.
  • Schweizer Unternehmen scheuen den Einsatz von Big Data aus Reputationsgründen.
  • Big Data im HRM wird in Zukunft die Rekrutierung vollautomatisieren und Rekrutiererinnen und Rektrutierer sowie Pesonalvermittlerinnen und -vermittler größtenteils ersetzen.
  • Unternehmen wissen in Zukunft über potenzielle individuelle Veränderungen (z. B. potenzielle Kündigung oder Krankheit) ihrer Mitarbeitenden deutlich besser Bescheid.
  • Dank der Anwendung von HR-Analytics können Mitarbeitende in Zukunft anhand ihrer Leistungsprofile und Stärken besser eingesetzt und gefördert werden.
  • Dank der Erkenntnisse von HR-Analytics gewinnen die Unternehmen Wissen, das es Ihnen ermöglicht, die Mitarbeitenden zu motivieren.
  • Im „War for Talents“ haben Unternehmen, die Big Data in der Rekrutierung einsetzen, einen Wettbewerbsvorteil.
  • Durch die bislang restriktive Gesetzgebung wird der Fortschritt der Anwendung von Big Data im HRM gehemmt.
  • Die negative Beeinflussung der öffentlichen Wahrnehmung von Big Data durch die Medien führt zu einer verringerten Akzeptanz von Big Data in der Gesellschaft.

Die Leitthesen bilden die Grundlage für die Festlegung der Eckpunkte des empirischen Forschungsdesigns und die Konzipierung eines Interviewleitfadens für ein qualitatives Befragungssetting.

 Methodisches Vorgehen

Im Rahmen der Literaturanalyse wurde zunächst gemäß der „Grounded Theory“ ein offenes Herangehen an die Thematik gewählt, um möglichst alle Aspekte abzudecken, was sich in der thematischen Bandbreite der Leitthesen niedergeschlagen hat. Vor diesem Hintergrund bot sich ein qualitativer empirischer Forschungsansatz mit Befragung von Expertinnen und Experten in Schweizer Unternehmen und Verwaltungsorganisationen auf Grundlage eines Interviewleitfadens als Primärerhebung an. Die Auswahl der Interviewteilnehmenden erfolgte mittels einer Quotenauswahl mit Fokus auf die Unternehmensbereiche Human Resource Management und Informationstechnologie (IT). Hinsichtlich der Rahmensetzungen für Big Data wurden ergänzend Expertinnen und Experten mit einem Erfahrungshintergrund in den Bereichen Datenschutz und Gewerkschaften bei den Interviews berücksichtigt. Zielsetzung war die Abdeckung dreier Befragungsperspektiven. Bei der IT-Perspektive ging es darum, einen Einblick darüber zu bekommen, wie der derzeitige technische Status quo in Bezug auf Big Data und deren Anwendung in den Unternehmen ist, welche Entwicklungen für die Zukunft zu erwarten sind und welche Grenzen sich hierbei abzeichnen. Bei der HR-Perspektive wurden analoge Fragestellungen herangezogen, allerdings mit Fokus auf den Entwicklungsstand, die Anwendungsbezüge und Potenziale im HRM. Die Interviewpartnerinnen und -partner der Rahmenrerspektive schließlich decken grundsätzliche Big-Data-Aspekte ab, die über die Unternehmensgrenzen hinausgehen. Insgesamt wurden im Befragungssample 15 Personen aus 13 Unternehmen und Organisationen befragt. Bei den Unternehmen handelt es sich primär um IT-, Dienstleistungs- unter Beratungsunternehmen mit Bezügen zur Thematik (Schweizerische Post, Swisscom, Deloitte, PwC, HRSC, foryouandyourcustomers, IBM). Weiterhin wurden Expertinnen und Experten aus der öffentlichen Verwaltung (Bund), dem gewerkschaftlichen Umfeld (Syndicom, Unia), dem Bildungssektor (Zürcher Hochschule für Angewandte Wissenschaften) und im Verbandswesen (Digital Switzerland) befragt. Von den 15 Expertinnen und Experten befassen sich 3 auf der Grundsatzebene möglicher Konsequenzen in der Außensicht mit der Thematik. 6 Personen verfügen über übergreifendes Fachwissen im unternehmensinternen Umfeld der Thematik und weitere 6 Personen sind in einzelnen Phasen des Einsatzes und der Nutzung von Big Data aktiv involviert, sodass eine große Bandbreite unterschiedlicher Betrachtungsstandpunkte in die Erhebung einfließen konnte (vgl. dazu die nachfolgende Abbildung).

 

496293 1 De 11 Fig2 HTML

 

Die Befragungen wurden im Frühjahr 2018 in Form von ca. einstündigen mündlichen Interviews durchgeführt. Sämtliche Interviews erfolgten unter Heranziehung eines semi-strukturierten offenen Interviewleitfadens, der an den Leitthesen ansetzt und in einem Pretest überprüft wurde. Die offene Ausrichtung ermöglichte ein flexibles Eingehen auf die jeweilige Gesprächssituation. Je nach Befragungsperspektive bzw. Kategorie der Befragten wurde demgemäß der Fragebogen vor dem jeweiligen Interview entsprechend modifiziert, ohne aber die Grundsystematik zu beeinträchtigen. Alle Interviews wurden aufgezeichnet und gemäß der Transkriptionsregeln von Kuckartz und Rädiker (2014) transkribiert. Die Transkripte wurden mit der Analysesoftware Atlas.ti erstellt und anschließend themenbezogen codiert und ausgewertet.

11.5.3 Ergebnisse

Im Verlauf der Interviews zeichnete sich schon bald ein wiederkehrendes Bild zum Vorgehen der in der Praxis angewandten Big-Data-Analysen ab, das in der folgenden Abbildung dargestellt ist. Das Modell beschreibt prozessbezogen den Ablauf der Big-Data-Analyse im HRM vom Urheber der Daten bis hin zum Umgang der Unternehmen mit den daraus gewonnenen Informationen. Es gibt zwei Arten von auswertbaren Informationen: Zum einen verfügt das Unternehmen über interne Daten seiner Mitarbeitenden, welche im Rahmen des Arbeitsverhältnisses anfallen. Zudem gibt es externe Daten, welche öffentlich über Personen zugänglich sind. Bevor diese Daten in die Analyse einfließen können, müssen datenschutzrechtliche Aspekte berücksichtigt werden. Die danach verbleibenden Informationen können aufbereitet werden, sodass mit statistischen Analysemethoden Erkenntnisse gewonnen werden können. Zur Reduzierung von subjektiven Fehlerquellen sind die gesetzten Analyseparameter kontinuierlich zu überprüfen. Mit der Ausgabe der Ergebnisse ist der technische Teil der Big-Data-Analyse abgeschlossen. Es folgt nach einer Analyse und Interpretation der Resultate die Ableitung, Umsetzung und Wirkungsüberprüfung von HR-Maßnahmen. Nur bei einem kontrollierten Regelkreis kann festgestellt werden, ob anhand der Big-Data-Analysen korrekte Aussagen abgeleitet wurden. Mit dem Wissen aus dem Monitoring können nun die Methode bzw. die dahinter stehenden Algorithmen und die zugehörigen Parameter korrigiert werden, um die Genauigkeit der Analyse kontinuierlich zu verbessern.

 

496293 1 De 11 Fig3 HTML

 

Die Ergebnisse der qualitativen Analyse werden nachfolgend summarisch und hochaggregiert im Kontext der jeweiligen Leitthese dargelegt.

Leitthese1: Unternehmen verfügen nicht über die nötigen Fachkräfte, um Big Data im HRM adäquat anwenden zu können.

Insgesamt wurde die Vermutung eines Big-Data-Fachkräftemangels, insbesondere auch mit spezifischem HR-Bezug, von den Befragungsteilnehmenden bestätigt. Es hat sich dabei gezeigt, dass das Rollenverständnis und Anforderungsprofil solcher HR-Big-Data-Expertinnen und -experten noch sehr heterogen wahrgenommen wird. Einerseits werden hierfür vor allem neue HR-Expertinnen und -experten mit spezifischem Big-Data-Know-how als sinnvoll erachtet, andere Befragte sehen im Gegensatz hierzu aber eher neue Schnittstellenfunktionen, die sich zwischen der IT und den anderen betrieblichen Funktionsbereichen, hier also dem HRM, herauskristallisieren. Weitgehende Einigkeit besteht allerdings über das erforderliche Kompetenzprofil von Big-Data-Expertinnen und -experten im HRM-Kontext: Voraussetzung sind umfassende Kenntnisse in Mathematik und Statistik, IT-Grundkenntnisse und Programmiererfahrung. Wichtig sind ferner Kenntnisse über die Gewinnung und Bereinigung von Daten. Zudem besteht die Notwendigkeit, als interdisziplinärer Brückenbauer dieses „Technik“-Wissen mit dem HR-Wissen zu verknüpfen und Ergebnisse den Stabs- und Linienfunktionen zu übermitteln. Die Expertinnen und Experten sollten ein Gespür für Problemlagen, Bedürfnisse und Potenziale der Linie in Bezug auf Personalthemen mitbringen. Darüber hinaus wurden auch Visualisierungsskills, User-Experience-Know-how und Beratungsfähigkeiten als sehr hilfreich angesehen. Zusammenfassend handelt es sich also um ein sehr anspruchsvolles Anforderungsprofil für HR-Big-Data-Expertinnen und -Experten, was den festgestellten Verfügbarkeitsmangel am Arbeitsmarkt mit erklärt. Idealtypische Ausbildungskombinationen wären zum Beispiel eine HR-Ausbildung in Verbindung mit einem Wirtschaftsinformatikstudium, oder eine IT-Ausbildung in Verbindung mit einer betriebswirtschaftlichen Zusatzausbildung mit HR-Schwerpunkt. Tendenziell werden zukünftige funktionale Schnittstellenprofile als eher im IT-Bereich verankert gesehen. Im IT-Sektor dürften somit in der Zukunft die Stellenprofile im Big-Data-Kontext spezifischer werden, während IT-Know-how sich vermehrt aber auch in den betriebswirtschaftlichen Funktionen zur Grundlagenkompetenz entwickelt. HR-Businesspartner werden aus Sicht der Befragten zukünftig auch in der Lage sein müssen, mit HR-Big-Data-Expertinnen und -Experten der IT gemeinsam an der Ableitung von personalen Handlungsstrategien und -maßnahmen zu arbeiten. Großunternehmen dürften es beim Neuaufbau entsprechender Analysekompetenzen im IT- und HR-Bereich ressourcenbedingt deutlich leichter haben. Entsprechende Profile finden sich derzeit wohl deshalb vor allem bei ihnen. Für die Zukunft scheint ein erheblicher Big-Data-Qualifizierungsbedarf für IT- und HR-Expertinnen und -Experten wahrscheinlich, der auch für mittelständische Unternehmen zum Tragen kommt, die ihre Organisationsintelligenz traditionell stark über die fachliche Weiterqualifizierung ihrer Mitarbeitenden weiterentwickeln.

Leitthese 2: Es werden primär Stammdaten für HR-Analytics genutzt. Big Data gemäß der gängigen weitaus breiter gefassten Definition kommt nicht oder nur in geringem Umfang zum Einsatz, da die derzeit genutzten Daten mengenmäßig überschaubar sowie statisch und semi-strukturiert sind.

Bei der Durchführung der Interviews hat sich gezeigt, dass ein sehr heterogenes Verständnis von Big Data bei den befragten Praktikern vorherrscht, sodass im Interview wiederholt erst eine begriffliche Klärung im Sinne des theoretisch-konzeptionellen Verständnisses erforderlich war. Auch wenn keine allgemein akzeptierte Definition von Big Data vorgefunden wurde, so erfolgten die Beschreibungen des dahinter vermuteten Sachverhalts doch immer mittels ähnlicher Aspekte rund um die drei V (Volume, Variety und Velocity), die aber explizit so nicht bei allen Befragungsteilnehmenden bekannt waren. Es wurde in allen Interviews von der Analyse einer großen, unstrukturierten Datenmenge gesprochen, mit dem Ziel, durch Datenverknüpfung Erkenntnisse zu gewinnen. Es wurde ferner bestätigt, dass dort, wo bis heute umfangreichere Auswertungen mit HR-Daten gemacht werden, es sich nicht um Big Data resp. People Analytics im engeren Sinne handelt, da die untersuchten Daten in der Regel weder unstrukturiert sind noch ein Big-Data-Datenvolumen repräsentieren. Offenbar werden in den untersuchten Unternehmen und Organisationen überwiegend auch keine Daten verarbeitet, welche laufend von den Mitarbeitenden selbst generiert werden (Bewegungsdaten), sondern primär Personalstammdaten (Geburtsdatum, Name, Geschlecht, Ziele, etc.). In einigen Unternehmen werden aber die bisherigen Analysen zunehmend in Richtung des theoretisch-konzeptionellen Begriffsverständnisses von Big Data/People Analytics erweitert.

Leitthesen 3 und 10: Schweizer Unternehmen scheuen den Einsatz von Big Data aus Reputationsgründen. Die negative Beeinflussung der öffentlichen Wahrnehmung von Big Data durch die Medien führt zu einer verringerten Akzeptanz von Big Data in der Gesellschaft.

Aufgrund des engen Zusammenhangs von These 3 und 10, der sich auch in den geführten Gesprächen gezeigt hat, werden beide Aspekte in einer übergreifenden Ergebnisdarstellung integriert betrachtet. Alle Teilnehmenden wurden nach ihrer Wahrnehmung von der Aufgeklärtheit und der Beeinflussbarkeit der Schweizer Bevölkerung in Bezug auf Big Data befragt. Diesbezüglich hat sich kein einheitliches Bild ergeben und die Einschätzungen deckten die gesamte Bandbreite an Möglichkeiten ab. Die Expertinnen und Experten sind sich allerdings weitestgehend einig darüber, dass das Bild, welches von den Medien rund um die Thematik „Big Data“ vermittelt wird, eher negativ behaftet ist und dass immer wiederkehrende negative Beispiele von Datenmissbrauch die Skepsis und Sensibilität innerhalb der Bevölkerung eher fördern. Eine höhere Akzeptanz könnte man aus Sicht der Befragten erreichen, wenn die Betroffenen besser und sachlich über Big Data informiert werden und auch für sich einen persönlichen Mehrwert wahrnehmen. Dies würde eine entsprechende Datennutzung durch Unternehmen im Sinne einer bewussten und freiwilligen Datenbereitstellung der Mitarbeitenden als Beitrag zur Unternehmensentwicklung, aber eben auch für die persönliche Weiterentwicklung legitimieren. Das individuelle Nutzenargument scheint insofern, kontrastierend zur Bedrohung eines Missbrauchs der eigenen Personendaten, zusammen mit einem Grundvertrauen in die Seriosität und Wertstiftung der Analysen für alle essenziell für eine Akzeptanz durch die Mitarbeitenden. Eine reputationsbedingte Zurückhaltung von Big Data wurde von den Befragten nicht generell bestätigt. Thematisiert wurde aber, dass einige Unternehmen im Zuge von bekannten Datenskandalen bezüglich Datenanalysen eher zurückhaltender kommunizieren. Die Gefahr von Reputationsschäden wird also durchaus gesehen und auch ein damit verbundener zusätzlicher Anreiz, sich strikt an die gesetzlichen Rahmenvorgaben in Bezug auf die Nutzung von Personaldaten zu halten. Es wurde ferner auch von einigen Befragten darauf hingewiesen, dass medial eher negativ belegte technische Begriffe wie „Big Data“ oder „Datenanalyse“ in der Innen- und Außenkommunikation eventuell durch alternative synonyme Begrifflichkeiten ersetzt werden sollten.

Leitthese 4: Big Data im HRM wird in Zukunft die Rekrutierung vollautomatisieren und Rekrutiererinnen und Rekrutierer sowie und Personalvermittlerinnen und -vermittler größtenteils ersetzen.

Die Feststellung, wonach Big Data im HRM in den Unternehmen und Organisationen noch sehr unterschiedlich (nicht) angekommen ist, spiegelt sich auch in den Aussagen in Bezug auf die Personalbeschaffung wider. Man ist sich eines möglichen Einsatzpotenzials durchaus bewusst, im Alltag ist aber eine Nutzung dieser Potenziale vielfach noch nicht in der Praxis umgesetzt. Hinsichtlich der zukünftigen Entwicklung waren sich aber alle Befragten weitgehend einig darüber, dass Big Data vor allem bei der Auffindung von spezifischen Kandidierenden und Zielgruppen und zur Informationsanreicherung im Selektionsprozess genutzt werden kann. Eine Vollautomatisierung im Sinne eines weitgehenden Ausschlusses der menschlichen Dimension im Rekrutierungsverfahren wird aber, zumindest in einem absehbaren Zeithorizont, nicht erwartet. Auch in Zukunft werden in der Einschätzung der Befragten menschliche Interventionen und Entscheidungen im Rekrutierungs- und Selektionsverfahren einen wichtigen Stellenwert einnehmen. Unterschiede gab es dabei allenfalls in der Einschätzung der phasenbezogenen Relevanz und des Ausmaßes menschlicher Inputs. So sind einige Befragte etwa der Meinung, dass die definitiven Personalentscheide auch in fernerer Zukunft immer noch durch Menschen getroffen werden, während andere glauben, dass die Algorithmen sich irgendwann über Selbstlernprozesse und menschliche Feedbackschlaufen so verbessern könnten, dass sie auch eines Tages diesen letzten Auswahlschritt für die am besten passenden Bewerbenden selber durchführen können. Die diesbezüglichen Skeptiker sehen vor allem Defizite der Maschinen bei der Wahrnehmung und Interpretation zwischenmenschlicher Aspekte, die für eine harmonische und erfolgreiche Zusammenarbeit in Teams essenziell sind. Insgesamt wird davon ausgegangen, dass es das Arbeitsprofil des Recruiters auch in Zukunft noch geben wird, wobei jedoch der Einsatz unterstützender technischer Hilfsmittel und Algorithmen deutlich zunehmen wird. Durch die vermuteten Effizienzsteigerungen könnte sich die Anzahl der Recruiter und Personalvermittler im traditionellen Sinne aber eventuell reduzieren, vor allem auch in Bezug auf die Vermittlung temporärer Stellen, die vermutlich eher stärker automatisierbar sein wird.

Leitthese 5: Unternehmen wissen in Zukunft über potenzielle individuelle Veränderungen (z. B. potenzielle Kündigung oder Krankheit) ihrer Mitarbeitenden deutlich besser Bescheid.

Geplante und ungeplante berufliche Entwicklungsschritte von Mitarbeitenden sowie Bewerbenden sind bei Arbeitgeberinnen und Arbeitgebern häufig von großem Interesse. So könnte etwa eine Früherkennung von potenziellen krankheits- oder kündigungsbedingten Personalausfällen und -engpässen eine interessante Zielsetzung von Big-Data-Analysen sein. Die befragten Personen sehen hier durchaus Unterstützungsmöglichkeiten für die HR-Berater, vor allem aber für die Linienführungskräfte, insbesondere, wenn diese eine hohe Führungsspanne zu bewältigen haben und kritische Entwicklungen leichter übersehen oder zu spät wahrgenommen werden können. Von einigen Befragten wurde allerdings in Verbindung mit bestehenden Arbeitsverhältnissen kritisch angemerkt, dass es an sich eine Kernaufgabe der Führungsarbeit von Vorgesetzten sei, über die Motivationslagen, beruflichen Absichten und gesundheitliche Einschränkungen oder Veränderungen ihrer Mitarbeitenden informiert zu sein. Eine Datenanalyse macht, wie in anderen Bereichen auch, aber hier nur Sinn, wenn identifizierte Problembereiche tatsächlich dann auch zur Initiierung von Maßnahmen führen und nicht einfach neue Datenfriedhöfe generiert werden. Befragte mit einer eher kritischen Grundhaltung zur Big-Data-Anwendung in diesem Bereich bezweifeln auch die derzeitige Möglichkeit zur Entwicklung von Algorithmen, die weiche Faktoren in hinreichendem Masse in die Analyse einfließen lassen. Entwicklungs- und Verhaltensprognosen mit einem Früherkennungsanspruch für das Personal in diesen Bereichen setzen nämlich hoch entwickelte technische Systeme voraus, die mit flexiblen Parametern und Systemvorgaben arbeiten und maschinell lernen, also über künstliche Intelligenz verfügen. Eine hohe Gefahr bestehe darin, dass nicht oder unzureichend lernfähige Systeme, die initial fehlerhaft aufgesetzt wurden, immer fehlerhafte Analyseresultate liefern und die Qualität der Entscheidungen nicht verbessern werden. In diesem besonders heiklen Themenbereich der Verhaltensprognose für das potenzielle und aktuelle Personal bezüglich grundlegender individueller Entwicklungen und Entscheidungen sind gemäß der interviewten Expertinnen und Experten die rechtlichen Rahmensetzungen des Datenschutzgesetzes und des Arbeitnehmerschutzgesetzes von besonderer Bedeutung. Analysen, die Rückschlüsse auf einzelne Personen erlauben, sind durch diese Gesetze derzeit untersagt, sodass nur aggregierte und anonymisierte Aussagen auf Unternehmens-, Bereichs- oder gegebenenfalls auch Teamebene aus den Big Data abgeleitet werden dürften. Andernfalls müsste eine explizite Einwilligung zur Verwendung individueller Daten und zur Ableitung individualisierter Aussagen und Maßnahmen von betroffenen Mitarbeitenden eingeholt werden. Anwendungsbezüge gibt es hier also primär im Kontext der Beurteilung größerer Mitarbeitendeneinheiten.

Leitthese 6: Dank der Anwendung von HR-Analytics können Mitarbeitende in Zukunft anhand ihrer Leistungsprofile und Stärken besser eingesetzt und gefördert werden.

Bei den Befragten zeigte sich in Bezug auf performancebezogene Big-Data-Analysen eher eine skeptische Potenzialeinschätzung mit einer zur These 5 ähnlichen Argumentationsrichtung. Lediglich ein Befragungsteilnehmer hat sich diesbezüglich klar positiv geäußert. Wie bei These 5 wird auch in diesem Zusammenhang eine Abgrenzung von Überwachungs- und Hilfestellungsperspektive als nur schwer möglich angesehen. Nutzungsmöglichkeiten scheinen primär zur Entscheidungsunterstützung auf aggregierter Ebene gegeben zu sein. Die Bewertung von Leistungsprofil, der richtigen beruflichen Positionierung und die Mitarbeitendenförderung werden von den meisten Befragten auch als zentrale Führungsaufgabe der Leitungspersonen gesehen. Das Missbrauchsrisiko entsprechender Big-Data-Analysen in ethisch bedenklichen eventuellen gesetzlichen Grauzonen, oder gar widerrechtlich, wird von den Befragungsteilnehmenden als problematisch angesehen.

Leitthese 7: Dank der Erkenntnisse von HR-Analytics gewinnen die Unternehmen Wissen, das es Ihnen ermöglicht, die Mitarbeitenden zu motivieren.

Diese Leitthese weist ebenfalls Überschneidungen zu den Thesen 5 und 6 auf und die Argumentationsführungen der Befragten sind vergleichbar: Die Motivation der Mitarbeitenden ist eine Führungsaufgabe und HR-Analytics-Systemlösungen bieten allenfalls unterstützende Hilfestellungen auf aggregierter Ebene im Sinne von Mustererkennungen an. Es wird, sofern die technische und rechtliche Umsetzbarkeit gegeben ist, ein gewisses Unterstützungspotenzial von HR-Analytics für die Führungskräfte ausgemacht, auch wenn der entsprechende Bedarf derzeit wohl eher gering ist. Dies hängt auch damit zusammen, dass kollektive Mitarbeitendenbefragungen, die üblicherweise Motivationsaspekte dezidiert erheben, schon heute breit in den Unternehmen und der öffentlichen Verwaltung etabliert sind. In einer verstetigten Form bieten einige Softwaresysteme bereits heute, unabhängig von einem Big-Data-Kontext, zyklische Befragungssettings und automatisierte Standardauswertungen an.

Leitthese 8: Im „War for Talents“ haben Unternehmen, die Big Data in der Rekrutierung einsetzen, einen Wettbewerbsvorteil.

Insbesondere im IT-Bereich, aber auch in anderen Spezialfunktionen wird seitens der Befragten ein intensiver Wettbewerb um qualifizierte Fach- und Führungskräfte bestätigt. Für eine Anwendung von Big-Data-Analysen wird hier sowohl im internen, wie im externen Arbeitsmarkt ein gegebenes Erfolgspotenzial bestätigt. Besonders für die interne Identifikation von Talenten, und damit auch deren Weiterentwicklung und Bindung an das Unternehmen, sehen die Expertinnen und Experten kostenreduzierende und qualitätserhöhende Einsatzmöglichkeiten von Big-Data-Anwendungen, die auch im gegebenen Rechtsrahmen und bei gegebener Datenlage denkbar sind, was bei der Identifikation externer Talente weniger gewährleistet ist.

Leitthese 9: Durch die bislang restriktive Gesetzgebung wird der Fortschritt der Anwendung von Big Data im HRM gehemmt.

Zur Nutzung von Personendaten müssen die Dateneigner Rechte an ihren Daten abtreten oder Verwendungsrechte gewähren. Der aktuell gegebene Schweizer und EU-Rechtsrahmen sieht vor, dass der gesamte Prozess der Sammlung, Auswertung und Lagerung von Daten vollständig und transparent dargelegt werden muss. Zudem muss das datennutzende Unternehmen jederzeit die Daten auf Wunsch des Datenurhebers löschen können und diesen Vorgang ebenfalls nachweisen. Bei zweckgebundenen Datenerhebungen muss der Einsatzzweck deklariert werden und die Mitarbeitenden müssen dem Zweck explizit zustimmen. Diese derzeit gegebenen gesetzlichen Hürden werden von etwa einem Drittel der Befragten als angemessen und auch erforderlich betrachtet. Mit der Einführung der EU-Datenschutzgrundverordnung sei der Datenschutz nicht unbedingt strenger geworden, aber die Unternehmen müssten anspruchsvolleren Nachweispflichten nachkommen. Dass der bisherige und sich abzeichnende zukünftige Rechtsrahmen insofern einschränkt, dass nicht alles gemacht werden darf, was gemacht werden könnte, wird von allen Expertinnen und Experten bestätigt. Die meisten Befragten rechnen für die Zukunft aber nicht mit einer weiteren Verschärfung des Datenschutzes. Im Falle einer Lockerung der Rechtssetzung, die von den Befragten als eher unwahrscheinlich betrachtet wird, gäbe es wohl ein deutliches Mehr an potenziellen Big-Data-Anwendungsfeldern im HR-Bereich, aber untrennbar auch ein zusätzliches Überwachungsrisiko aus Sicht der Mitarbeitenden.

Losgelöst von der Behandlung der Einzelthesen aus Sicht der Befragungsteilnehmenden kann übergreifend festgehalten werden, dass sich alle Expertinnen und Experten einig sind, dass der Umgang mit und die Nutzung von Big Data als Teilaspekt der Digitalisierung in der Unternehmenswelt ein Thema bleiben wird. Das spezifische Potenzial von Big Data für das HRM wird jedoch differenzierter gesehen, und hier gibt es noch größere Unsicherheiten bezüglich der weiteren Entwicklung und potenzieller Chancen und Risiken. Die ökonomische Sinnhaftigkeit einzelner Einsatzbereiche von Big Data muss sich aus Sicht der Befragten langfristig erst noch bestätigen. Zumindest einzelne Big-Data-Analysefelder zur Unterstützung der Entscheidungsfindung im gegebenen Rechtsrahmen dürften wohl in der Zukunft auch im HRM mit hoher Wahrscheinlichkeit bearbeitet werden.

Fazit

Ist Big Data ein relevanter Trend für das Human Resource Management in Schweizer Unternehmen? Auch wenn es kein starkes „Ja“ ist, so kann man die Frage gleichwohl auf Basis der erfolgten konzeptionellen und leitthesenorientierten empirischen Analyse bejahen. Eine datenbasierte Entscheidungsfindung ist zunehmend auch ein Thema in den Personalabteilungen Schweizer Unternehmen. Allerdings heißt „Datenanalyse“ nicht zwingend auch die Nutzung und Analyse von „Big Data“. Was Letzteres ist, und welche Analysemethoden hiermit verbunden sind, wird in der Praxis noch sehr heterogen wahrgenommen. Vielfach wird mit Big Data oder Data Analytics im HR-Bereich einfach die Analyse von Personalstammdaten oder ein Einsatz von Filtern z. B. beim Scanning von Lebensläufen gleichgesetzt. Ein einheitliches Verständnis dessen, was Big Data ist und was Big Data für den HR-Bereich heißt, scheint derzeit noch nicht zu existieren. Seitens der Befragten werden datenbedingt Anwendungspotenziale aktuell vor allem im Bereich des Gesundheitsmanagements und der Rekrutierung gesehen. Im Kontext der Rekrutierungsprozesse scheint die Entwicklung bislang am weitesten vorangeschritten zu sein, und Weiterentwicklungen sind hier wohl auch am wahrscheinlichsten, z. B. in Form von der Einbettung automatisierter Videoanalysen bei virtuellen Vorstellungsgesprächen.

Obschon technisch schon Vieles möglich wäre, hindern unter anderem rechtliche Restriktionen und auch ethische Bedenken die Entscheidungsträgerinnen und -träger im HRM derzeit noch daran, das volle Potenzial von Big Data auszunutzen. Die Handhabung von Mitarbeitendendaten gilt als hochsensibel. Ohne die Zustimmung der betroffenen Personen dürfen Unternehmen nicht ungehindert deren Daten sammeln und analysieren. Der Gesetzgeber und auch die Gewerkschaften in der Schweiz sind diesbezüglich sehr sensibilisiert. Darüber hinaus droht im Falle eines fahrlässigen Umgangs mit Personaldaten und bei einem Datenmissbrauch ein hohes Reputationsrisiko für Unternehmen und andere Organisationen.

Das Nutzungspotenzial von Big Data scheint in anderen Funktions- und Analysebereichen wie etwa im Marketing oder in der Logistik ausgeprägter zu sein als im HRM. Derzeit werden im HR-Bereich in den untersuchten Unternehmen und Organisationen eher experimentell und testweise Big-Data-Analysen im engeren Sinne vorgenommen. Von einer grundlegenden Etablierung in der Praxis kann vor diesem Hintergrund demnach noch nicht gesprochen werden. Die ökonomische Vorteilhaftigkeit und der Nutzen für die Mitarbeitenden müssen sich in den nächsten Jahren erst noch weiter konkretisieren. Wichtig dabei scheint, dass betroffenen Personen Big-Data-Analyseprozesse und die Ableitung von Maßnahmen transparent gemacht werden und dass auch Mitarbeitende einen klaren Mehrwert für sich selbst und das Unternehmen erkennen können. Dann wird die Nutzung von Big Data wohl auch im HRM der Zukunft irgendwann zu einer Selbstverständlichkeit werden.

 

Zur einfacheren Lesbarkeit wurden die meisten Quellenverweise entfernt.

Georg Reissich, Geraldine Rohr, Bernadette Wanzenried, Jochen Schellinger in; Digital Business; Springer, 2021

https://link.springer.com/chapter/10.1007%2F978-3-658-32323-3_11

http://creativecommons.org/licenses/by/4.0/deed.de

 

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.  

Swiss Infosec AG; 24.03.2021

Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

04/2021

 

Diskrepanz zwischen Datenschutzbedenken und nachlässigem Umgang mit digitalen Dienstleistungen

 

Einleitung

Im Zuge der Digitalisierung vieler Lebensbereiche haben sich die Konsumgewohnheiten sowie die Vermarktung von Produkten grundlegend verändert. Diese Entwicklungen wurden besonders durch den Einsatz von personalisierten Such- und Entscheidungshilfen sowie personalisierten Produkten und Dienstleistungen (z. B. personalisierte Playlists auf Spotify) vorangetrieben. Mit einer effektiven Personalisierung geht allerdings auch einher, dass große Mengen persönlicher Daten von Verbraucher*innen durch Unternehmen und Institutionen erfasst und automatisch analysiert werden. Angesichts der automatisierten Verarbeitung dieser unüberschaubaren Datenmengen ist der verantwortungsvolle Umgang mit sensiblen Daten durch Unternehmen und öffentliche Institutionen eines der drängendsten Themen der Gegenwart. In diesem Sinne wurden in den vergangenen Jahren gesetzliche Verordnungen erlassen, die den Umgang von Organisationen mit persönlichen Daten regeln (z. B. Datenschutz-Grundverordnung der Europäischen Union, GDPR). Manche Unternehmen setzen sich freiwillig für den Schutz der Privatsphäre ihrer Mitarbeiter*innen und Kund*innen in einem Maß ein, das über die gesetzlichen Bestimmungen und Regulierungen hinausgeht. Damit einhergehend sehen viele Konsument*innen Politik und Wirtschaft in der Verantwortung – und weniger sich selbst. Dieses verbraucherseitige Abgeben von Verantwortung führt in vielen Situationen zu einem unachtsamen Umgang der Verbraucher*innen mit ihren Daten, was wiederum von einigen Unternehmen ausgenutzt wird. Dies wird an dem folgenden Beispiel deutlich: Internetauftritte von Firmen haben oftmals sehr ausführliche Allgemeine Geschäftsbedingungen (AGB), die selten von den Besucher*innen einer Webseite vollständig gelesen und verstanden werden, was oft zu einer „blinden“ Einwilligung verführt. Zwar gibt es Bestrebungen, die Länge und Komplexität der angezeigten AGB zum Schutze der Verbraucher*innen zu reduzieren, allerdings existieren bisher keine bindenden gesetzlichen Regelungen hierfür. Ebenso gibt es Diskussionen darüber, wie stark die Default-Einstellungen bei Cookies auf den Schutz der Privatsphäre ausgerichtet sein sollten. Konsument*innen haben wiederum selten die notwendigen Kapazitäten (z. B. Zeit, Wissen, technische Kapazitäten), um das „geeignete“ Verhalten in datenschutzrelevanten Situationen zu bestimmen. Erschwerend kommt hinzu, dass die individuellen Grenzkosten für zusätzlichen Datenschutz für Konsument*innen rapide ansteigen, u. a. durch sog. Lock-in Effekte. So liegt der Nutzen von sozialen Netzwerken gerade im hohen Engagement einer wachsenden Anzahl an Nutzer*innen, die wiederum den Einfluss dieser Netzwerke stärkt und eine Nichtnutzung der Netzwerke für einzelne Nutzer*innen erschwert. Diese sog. „Privacy Externality“ kann zudem dazu führen, dass das gesellschaftliche Bedürfnis nach mehr Datenschutz verschwindet und Konsument*innen, die ein verstärktes Interesse an der Sicherung ihrer Daten haben, immer mehr Zeit und Geld dafür aufbringen müssen.

Aufgrund dieser Entwicklungen sollten sich Konsument*innen ihr Recht auf informelle Selbstbestimmung und ihre Verantwortung für die Verwendung ihrer Daten bewusstmachen. Tatsächlich existieren in Deutschland einige Initiativen, die Konsument*innen in solchen Vorhaben unterstützen, u. a. indem sie zahlreiche Informationsangebote bereitstellen. Zudem geben Konsument*innen oft an, dass sie insgesamt auf ihre Privatsphäre achten und möglichst oft kontrollieren, welche persönlichen Daten sie preisgeben. Allerdings legen Beobachtungen aus Forschung und Praxis nahe, dass das Wissen über datenschutzrelevante Themen (z. B. Instrumente zum Schutz persönlicher Daten, Wissen über die Konsequenzen bei Missbrauch) und eine allgemein positive Einstellung zum Datenschutz in vielen konkreten Situationen dennoch wirkungslos sind und von den Konsument*innen nicht in konkretes Verhalten umgesetzt werden. So gehen selbst jene Konsument*innen in manchen Situationen nachlässig mit dem Schutz ihrer persönlichen Daten um, die im Allgemeinen besorgt um ihre Datensicherheit sind.

Vor diesem Hintergrund führt der vorliegende Beitrag zunächst in das Privatsphäre-Paradoxon ein und zeigt anschließend den Stand des Schrifttums auf, wobei insbesondere auf situative und kognitive Verzerrungen fokussiert wird, welche zur Erklärung der Diskrepanz zwischen den persönlichen Datenschutzbedenken und dem tatsächlichen, oft sorglosen Verhalten bei digitalen Dienstleistungen beitragen können. Abschließend wird mit dem Konzept der drei Privatsphären-Gaps ein Rahmen für die zukünftige Forschung entwickelt.

Das „Privatsphäre-Paradoxon“

Zahlreiche Studien zum Datenschutzverhalten drehen sich um die oben beschriebene Beobachtung, dass sich Konsument*innen oftmals besorgt um ihre Datensicherheit zeigen, diese Sorge sich allerdings in vielen Situationen nicht in konkretem Handeln ausdrückt. Diese Beobachtung ist in der Literatur auch als sog. Privatsphäre-Paradoxon (engl. „Privacy Paradox“) bekannt und beschreibt die Diskrepanz zwischen allgemeinen (positiven) Einstellungen von Konsument*innen zum Datenschutz und ihrem tatsächlichen (nachlässigen) Verhalten. Diese Einstellungs-Verhaltens-Diskrepanz lässt sich einerseits durch ein rationales Kosten-Nutzen-Kalkül erklären, in dem Konsument*innen den Nutzen bestimmter Produkte und Dienstleistungen (z. B. durch Personalisierung) mit der Preisgabe ihrer Daten gegenrechnen. Eine rationale Erklärung hierfür liefert die Theorie der rationalen Entscheidung, nach der Konsument*innen ihre Entscheidungen in komplexen, unsicheren und risikobehafteten Situationen auf ein rationales Kosten-Nutzen-Kalkül stützen, also in unserem Fall den Nutzen eines Produkts, der mit der Personalisierung einhergeht, gegen die damit verbundenen Kosten bei der Preisgabe persönlicher Daten abwägen. Andererseits können situative Einflüsse oder kognitive Verzerrungen individuelle Datenschutzbedenken in bestimmten Situationen verringern. Zu diesen psychologischen Verzerrungen zählen bspw. Gewöhnungseffekte, der Einfluss der sozialen Umwelt oder die Illusion der vollständigen Kontrolle über die Preisgabe der eigenen Daten.

Aus angrenzenden Forschungsgebieten ist die Lücke zwischen selbst berichteten allgemeinen Einstellungen und dem Verhalten in konkreten Situationen bekannt. Allerdings vermittelt der Terminus „Paradoxon“ für diese Einstellungs-Verhaltens-Lücke einen missverständlichen Eindruck, da hinsichtlich digitaler Dienstleistungen durchaus der Fall eintreten kann, dass aus Sicht der Konsument*innen der aus der Datenabgabe gewonnene Nutzen die damit verbundenen Kosten übersteigt und ein scheinbar nachlässiges Verhalten nicht paradox, sondern rational ist. Selbst strikte Einstellungen zum Datenschutz stehen nicht im Widerspruch zu einem freizügigen Umgang mit Daten in bestimmten Situationen, wenn andere Bedürfnisse ungleich wichtiger sind (z. B. in medizinischen Notfällen). Daher wird besonders in jüngster Zeit zunehmend in Frage gestellt, ob das Paradoxon in dieser Form auf der individuellen Ebene überhaupt existiert. Angesichts möglicher langfristiger negativer Effekte und der immensen Bedeutung für Gesellschaft und Wirtschaft, sollte die Debatte über das Privatsphäre-Paradoxon nichtsdestotrotz fortgesetzt werden. Zudem lassen sich zahlreiche paradoxe Verhaltensweisen nicht einfach auf rationale Kosten-Nutzen-Abwägungen zurückführen, weil es vorkommt, dass Konsument*innen unverhältnismäßig viele persönliche Daten preisgeben, ohne eine nennenswerte Gegenleistung oder einen subjektiven Nutzen zu erwarten. Mehrere psychologische Modelle helfen, dieses paradoxe Verhalten zu erklären. Die zentralen Faktoren sollen im Folgenden anhand der vorliegenden Literatur diskutiert werden.

Überblick über die Literatur

Zahlreiche Studien aus den Gebieten Psychologie, Verhaltensökonomie sowie Konsumentenverhaltensforschung beschäftigten sich in den vergangenen Jahren mit den psychologischen Einflussfaktoren auf datenschutzrelevantes Verhalten von Konsument*innen. Diese Faktoren erweitern das rationale Kosten-Nutzen Kalkül um situative und kontextuale Einflüsse bis hin zu emotionalen und irrationalen Entscheidungen

Im weiteren Verlauf gehen wir zunächst auf Studien zu den verhaltensrelevanten Konsequenzen ein. Bisherige Studien befassten sich im Wesentlichen mit zwei Verhaltenskonsequenzen. Zum einen wurde untersucht, inwiefern datenschutzrelevante Faktoren die Konsumbereitschaft für ein bestimmtes Produkt beeinflussen. Zum anderen wurde erforscht, in welchem Ausmaß (wie viel, an wen, etc.) Konsument*innen ihre persönlichen Daten preisgeben. Mit Blick auf die Einflussfaktoren betrachten wir den persönlichen Nutzen, der durch die Nutzung digitaler Dienstleistungen entstehen würde, sowie die Datenschutzbedenken und die angestrebte Privatsphäre der Nutzer*innen. Diese fließen in das Kosten-Nutzen-Kalkül der Konsument*innen ein. Das Kernstück des Literaturüberblicks betrifft Erkenntnisse zu situativen und kognitiven Verzerrungen bei der Abwägung des Nutzens und der Datenschutzbedenken.

Verhaltenskonsequenzen

Sicherung der Privatsphäre. Zunächst unterscheiden sich Konsument*innen hinsichtlich ihrer Bereitschaft, persönliche Daten in bestimmten Situationen preiszugeben. Die Menge der bereitgestellten persönlichen Daten kann wiederum die Nutzungsqualität digitaler Produkte und Dienstleistungen beträchtlich beeinflussen, z. B. in sozialen Netzwerken. Ein typisches Anwendungsbeispiel ist auch die Nutzung von Smart Home Objekten, deren sinnvoller Einsatz nur durch die Verarbeitung persönlicher Daten möglich ist (z. B. passives Mithören intelligenter Lautsprecher eines sprachgesteuerten, internetbasierten Assistenten).

Nutzung digitaler Produkte oder Dienstleistungen. Mit Blick auf die Nutzung digitaler Dienstleistungen wird in der Literatur oftmals die gesamte Customer Journey, d. h. auch Prozesse der Informationsbeschaffung, des Kaufs von Produkten und Dienstleistungen, sowie deren Weiterempfehlung betrachtet. So eruierten Untersuchungen zur Akzeptanz personalisierter Angebote u. a. das dem Kauf vorgelagerte Interesse an weiteren Informationen oder den möglichen Erwerb des Produktes. Häufig untersuchte Verhaltenskonsequenzen in diesem Kontext sind Click Through Rates, der Kauf des Produktes sowie die Weiterempfehlungsbereitschaft der Konsument*innen bzw. deren Bereitschaft, ihre negative Meinung über das Produktmit anderen zu teilen (word-of-mouth). Miyazaki (2008) zeigt beispielsweise, dass der verdeckte Einsatz von Technologien zur Sammlung von Daten (z. B. Cookies) zu negativer Mundpropaganda führen kann.

Kosten-Nutzen-Kalkül

Persönlicher Nutzen durch Nutzung digitaler Produkte oder Dienstleistungen. Konsument*innen wägen in datensensiblen Situationen oft den Nutzen ab, den sie mit der Preisgabe ihrer persönlichen Daten „bezahlen“. Studien bestätigen dementsprechend, dass Menschen anders mit dem Schutz ihrer persönlichen Daten umgehen, wenn sie ein bestimmtes Produkt als nützlich erachten. White et al. (2008) zeigen bspw., dass ein hoher Nutzen eines Produktes zu geringeren Sorgen bei der damit verbundenen Offenlegung der Privatsphäre führt. Dieser Nutzen kann einerseits monetär sein: Gabisch and Milne (2014) zeigen, dass Nutzer*innen eher zur Offenlegung ihrer Daten bereit sind, wenn damit finanzielle Anreize verbunden sind. Andererseits kann der Nutzen auch andere persönliche Interessen betreffen, bspw. gesundheitliche Interessen bei der Nutzung der Corona Warn-App. Darüber hinaus kann eine erhöhte Personalisierung und das individualisierte Maßschneidern von Produkten und Dienstleistungen als sehr nützlich erachtet werden. Gabisch und Milne (2014) untersuchen bspw., ob bei Konsument*innen das Gefühl entsteht, dass sie durch die Personalisierung von Dienstleistungen und Online-Produkten genügend Nutzen erfahren, der die Offenlegung ihrer persönlichen Daten rechtfertigt. Ein hohes Maß an Personalisierung kann aber auch Misstrauen gegenüber dem Unternehmen und Reaktanz auslösen, was die Nutzung der Produkte des Unternehmens wiederum verringert. Auch hier ist dementsprechend ein paradoxer Effekt sichtbar, da Personalisierung einerseits den Nutzen erhöht, andererseits aber auch Reaktanz und Misstrauen auslösen kann.

Datenschutzbedenken. Die allgemeinen und situativen Bedenken gegen den Umgang mit ihren personenbezogenen Daten beeinflussen das Verhalten von Konsument*innen in datenschutzrelevanten Situationen maßgeblich. Die allgemeinen Datenschutzbedenken beziehen sich auf Überzeugungen, Einstellungen und Wahrnehmungen der Konsument*innen zu ihrer Privatsphäre. In der Forschung werden diese oftmals mit der sog. „consumer privacy concern scale“ erfasst. In der bisherigen Literatur wurden Datenschutzbedenken sowohl als Prädiktoren, aber auch als Moderatoren und datenschutzrelevante Konsequenzen untersucht.

Situative und kognitive Verzerrungen

Situative und kognitive Verzerrungen beschreiben Einflussfaktoren, die die konkreten datenschutzrelevanten Handlungen von Konsument*innen über rationale Kosten-Nutzen-Abwägungen hinaus beeinflussen und zu Abweichungen von ihren eigentlichen (allgemeinen) Einstellungen, Überzeugungen und Intentionen führen. Dies können die Anwendungsumgebung sein. Die bisherigen Studien betrachteten unter anderem Informationsasymmetrien, Vertrauen und Transparenz, Kontrollillusionen, die soziale Umwelt, Habituation sowie die wahrgenommene Vulnerabilität.

Informationsasymmetrien. Konsument*innen wissen häufig nicht, zu welchen Gelegenheiten, auf welche Arten und in welchem Umfang Unternehmen ihre Daten sammeln und verarbeiten und welche weiteren Dienste und Unternehmen ebenfalls Zugriff auf diese Daten haben. Der Hauptgrund hierfür liegt darin, dass den Konsument*innen zumeist die notwendigen (kognitiven, zeitlichen) Kapazitäten im Alltag fehlen oder sie nicht das notwendige technische oder juristische Hintergrundwissen besitzen, um bspw. komplexe Datenschutzbestimmungen zu verstehen. Diese sogenannten Informationsasymmetrien und die daraus entstehenden Folgen (z. B. Misstrauen gegenüber Unternehmen, geringe Kaufbereitschaft) lassen sich nur sehr schwer wieder abbauen. So kann die bloße Benachrichtigung über die Datenschutzrichtlinien des Unternehmens nicht zwangsläufig verhindern, dass Konsument*innen Informationsasymmetrien wahrnehmen und den Datenschutz kritisch sehen. Darüber hinaus spielt es eine Rolle, wie datenschutzrelevante Informationen durch Unternehmen an die Konsument*innen vermittelt werden. Vail et al. (2008) zeigen bspw., dass „traditionelle“ und ausführliche Datenschutzrichtlinien von Konsument*innen eher als vertrauenswürdig angenommen werden, obwohl solche Richtlinien aufgrund ihrer Länge und Komplexität keine Informationsasymmetrien abbauen. Somit kann eine Maßnahme, die eher nachteilig für die Verringerung der Informationsasymmetrien ist, paradoxerweise das Vertrauen der Konsument*innen in das Unternehmen erhöhen.

Vertrauen und Transparenz. Das Vertrauen in Organisationen kann maßgeblich beeinflussen, inwieweit Konsument*innen ihre persönlichen Daten mit diesen teilen. Hierbei wurde in der Literatur besonders eine glaubwürdige und transparente Datenschutzpolitik als vertrauensbildender Erfolgsfaktor untersucht. So kann eine glaubwürdige Datenschutzpolitik des Unternehmens das Vertrauen von Konsument*innen stärken, z. B. durch unabhängige Datenschutzsiegel und freiwillige Angaben zum Datenschutz. Mit einem hohen Vertrauen geht allerdings auch eine erhöhte Erwartungshaltung der Konsument*innen an die Datensicherheit der Unternehmen einher, deren Nichterfüllung sich negativ auf das Verhältnis zwischen Konsument*innen und Unternehmen auswirken können. So kann ein nachlässiger Umgang mit den Kundendaten zu einem Glaubwürdigkeitsverlust von Unternehmen führen und bedeutende negative finanzielle und juristische Konsequenzen nach sich ziehen. Andererseits kann ein transparenter Umgang des Unternehmens mit den verwendeten Daten das Vertrauen der Konsument*innen stärken.

Kontrollillusion. Die wahrgenommene Kontrolle der Konsument*innen über die eigenen Daten gilt als bedeutende Einflussgröße auf deren Verhalten in datensensiblen Situationen. Einerseits kann das Gefühl von Kontrolle bei Konsument*innen Reaktanz und Datenschutzbedenken gegenüber dem Unternehmen abbauen und damit das Verhältnis von Konsument*innen zu den Unternehmen verbessern. Allerdings kann die wahrgenommene Kontrolle auch einen paradoxen Effekt auslösen, der in der Literatur als sog. Kontrollparadoxon eingeführt wurde: Die wahrgenommene Kontrolle über die eigenen Daten führt dazu, dass diese durch Konsument*innen leichtfertiger offengelegt werden. Im Hinblick auf die Kontrolle über die eigenen Daten, kann auch eine gegenteilige Wahrnehmung entstehen, nämlich das Gefühl der Resignation. Konsument*innen fühlen sich in dem Fall hilflos und machtlos und sind überzeugt, dass sie ihre Daten ohnehin nicht schützen können oder dass sie als aktive Bürger*innen in einer modernen Welt nicht ohne digitale Teilhabe bestehen können. Ironischerweise können sowohl die Wahrnehmung von Kontrolle als auch Resignation dieselbe Konsequenz haben: Konsument*innen gehen nachlässig mit ihren persönlichen Daten um. Des Weiteren ist in diesem Zusammenhang das „Nichts-zu-verbergen-Argument“ zu beobachten, das besagt, dass staatliche Maßnahmen zur Überwachung illegaler Aktivitäten dienen und daher keine Personen beeinträchtigt werden, die sich regelkonform verhalten. Hier kann das Gefühl vermeintlicher Kontrolle schlicht durch die Einhaltung von Gesetzen entstehen, obwohl Maßnahmen zur Überwachung in vielen Fällen unabhängig von Verdachtsfällen geschehen.

Soziale Umwelt. Die soziale Umwelt spielt in zweierlei Hinsicht eine bedeutende Rolle für den Umgang von Konsument*innen mit ihren persönlichen Daten. Einerseits dient die soziale Umwelt oftmals als Referenz für das „richtige“ Verhalten in bestimmten Situationen und unterstützt Konsument*innen dabei, die ihre Einstellungen zu einem bestimmten Thema zu ermitteln. Tatsächlich konnten Studien bestätigen, dass Konsument*innen bei der Nutzung einer bestimmten Technologie eher ihre persönlichen Daten preisgeben, wenn sie dieses Verhalten bereits bei anderen beobachtet haben. Darüber hinaus können Konsument*innen in ihren datenschutzrelevanten Entscheidungen durch soziale Normen, Herdenverhalten sowie dem Vertrauen in andere Nutzer*innen von Plattformen und Reziprozitätsgedanken beeinflusst werden. Schließlich kann auch das Bedürfnis nach dem Teilen persönlicher Informationen mit anderen Menschen maßgeblich beeinflussen, wie stark Konsument*innen auf Datenschutzaspekte achten.

Habituation. Der Umgang von Konsument*innen mit ihren persönlichen Daten hängt nicht zuletzt davon ab, wie sehr sie sich an bestimmte Gegebenheiten und Situationen gewöhnen. So können datenschutzrelevante Probleme zwar in einer bestimmten Situation oder für einen bestimmten Zeitraum im Fokus der Aufmerksamkeit stehen (z. B. wenn ein Datenschutzskandal in den Medien aufbereitet wird), allerdings treten im Zeitverlauf andere Themen in den Vordergrund, während die datenschutzrelevanten Probleme ungelöst bleiben oder sich sogar unbemerkt weiterhin nachteilig für die Konsument*innen entwickeln (z. B. durch Agenda Setting). Dies führt u. a. dazu, dass sich Konsument*innen selbst an Umstände gewöhnen, die ihnen eigentlich schaden könnten. Darüber hinaus kann auch die genutzte technologische Plattform zu Gewöhnungseffekten führen und den Umgang mit den persönlichen Daten beeinflussen. So zeigen Melumad und Meyer (2020), dass Konsument*innen eher Persönliches auf sozialen Netzwerken teilen, wenn sie ein Smartphone statt eines PCs nutzen.

Wahrgenommene Vulnerabilität. Das Konzept der wahrgenommenen Vulnerabilität bzw. Verwundbarkeit beschreibt das von Konsument*innen wahrgenommene potenzielle Risiko, das mit der Offenlegung persönlicher Daten einhergeht. Die wahrgenommene Verwundbarkeit entspringt der individuellen Befürchtung, dass andere (z. B. Unternehmen, Staaten, Betrüger) die Absicht hegen könnten, die persönlichen Daten von Konsument*innen zu deren Nachteil zu nutzen. Die jüngste Literatur, die sich der wahrgenommenen Verwundbarkeit intensiv gewidmet hat, konnte nachweisen, dass diese einen beträchtlichen Einfluss darauf hat, wie Konsument*innen ihre eigene Privatsphäre erleben und beurteilen. Schließlich beeinflusst die wahrgenommene Verwundbarkeit subjektive Datenschutzbedenken.

Handlungsempfehlungen für Nutzer*innen und Gesetzgeber

Aus dem vorliegenden Beitrag wird klar, dass wichtige Dimensionen der digitalen Datenschutzkompetenz das Verständnis der Nutzer*innen für die tatsächliche Kontrolle über deren persönliche Daten, soziale Einflüsse, Habituationen und Vulnerabilität und Informationen sind. Auf Seiten des Gesetzgebers könnte man übergeordnet davon sprechen, dass neben rechtlichen Rahmenbedingungen und Standards sowie Kontrolle der Anbieter auch Maßnahmen zur Steigerung der digitalen Datenschutzkompetenz wichtig sind (Informations- und Bildungsangebote). Basierend auf diesen Überlegungen gestalten sich zahlreiche Möglichkeiten, um einen sicheren und verantwortungsvollen Umgang der Nutzer*innen mit den eigenen Daten zu fördern. Gesetzgeber, Verbraucherschutzorganisationen und öffentliche Institutionen können bspw. Unternehmen gesetzlich verpflichten oder dazu motivieren, ihre Kund*innen zu einem verantwortungsvollen Umgang mit persönlichen Daten zu unterstützen.

Die Untersuchung der drei Privatsphäre-Gaps als Forschungsagenda

Der Literaturüberblick verdeutlicht, dass bereits zahlreiche Studien datenschutzrelevante Aspekte im Konsumentenverhalten untersuchten. Es wurde deutlich, dass die konsumentenpsychologische Forschung nützliche konzeptionelle Vorarbeit geleistet hat, die in zukünftigen empirischen Studien vertieft werden sollte. Bislang existiert allerdings noch kein Modell, das zeigt, wie verschiedene datenschutzrelevante Konsumentenreaktionen zueinander stehen und wie sich die aufgeführten Prozesse gegenseitig beeinflussen und die Reaktionen auslösen. Darüber hinaus wurden die verschiedenen Arten von Konsumentenreaktionen in datenschutzrelevanten Situationen nicht systematisch untersucht, obwohl diese Reaktionen paradoxerweise gegenläufige Effekte annehmen können: So kann beispielsweise das Gefühl von Kontrolle über die eigenen Daten einen positiven Effekt auf das Vertrauen gegenüber Unternehmen ausüben und sich in einer positiven Kaufabsicht und der bereitwilligen Preisgabe sensibler Daten widerspiegeln. Allerdings kann dieses Vertrauen auch zu einer Nachlässigkeit im Umgang mit den eigenen Daten führen. So kann ironischerweise das Gefühl von Kontrolle zu einem Kontrollverlust über die Daten führen.

Für eine spezifischere Untersuchung datenschutzrelevanter Aspekte im Konsumverhalten erscheint eine Abgrenzung der erstrebenswerten, erstrebten und erreichbaren Privatsphäre besonders fruchtbar. Die subjektiv erstrebenswerte Privatsphäre kennzeichnet das Maß an Privatsphäre, das aus individuellen, politischen oder sozialen Norm- und Zielvorstellungen resultiert. Besonders die individuellen Normvorstellungen sind hierbei aus unserer Perspektive wichtig, da sich diese einerseits aus tiefergehenden Einstellungen speisen, andererseits auch aus dem Verhalten in anderen datenschutzrelevanten Bereichen. Unter der erstrebten Privatsphäre verstehen wir den Grad an Privatsphäre, den Konsument*innen allgemein oder in bestimmten Situationen anstreben. Er kann von verschiedenen Faktoren beeinflusst werden, die schon empirisch untersucht wurden und in diesem Artikel diskutiert wurden. Schließlich beschreibt die subjektiv erreichbare Privatsphäre das individuell wahrgenommene Maß an Privatsphäre, das allgemein oder in einer bestimmten Situation erreicht werden kann. Es ist stark abhängig vom Informationsstand der Konsument*innen.

Auf Basis der berichteten Literatur und diesen drei zu unterscheidenden Formen der Privatsphäre ergibt sich folgende übergeordnete Fragestellung, die in zukünftiger Forschung untersucht werden sollte: Welche situativen und kognitiven Verzerrungen erklären die Abweichungen zwischen erstrebenswerter, erstrebter und erreichbarer Privatsphäre von Konsument*innen sowie ihr datenschutzrelevantes Verhalten in konkreten Situationen? Für staatliche Institutionen ergibt sich die praktische Fragestellung, durch welche individuellen verhaltenswissenschaftlichen Interventionen und Bildungsmaßnahmen diese Lücken geschlossen werden können. Konkret ergibt sich Forschungsbedarf zu den folgenden drei Gaps der Privatsphäre bei digitalen Dienstleistungen.

Gap 1: Diskrepanz zwischen erstrebenswerter und erstrebter Privatsphäre

Zunächst sollte untersucht werden, wieso Konsument*innen für verschiedene Anwendungen sowie in verschiedenen Kontexten und Situationen unterschiedliche Maßstäbe an den Datenschutz anlegen. Ein geeignetes Beispiel ist der Unterschied im Umgang mit Datenschutzbedenken einiger Konsument*innen zwischen der Corona Warn-App und sozialen Netzwerken. So lehnten im Zuge der Einführung der Corona Warn-App in Deutschland zahlreiche Konsument*innen eine Nutzung aus Gründen des Datenschutzes ab, teilten diese Meinung aber auf sozialen Netzwerken (z. B. Facebook, WhatsApp). Paradox an dieser Situation ist, dass Konsument*innen das erstrebte Maß an Privatsphäre für unterschiedliche Anwendungen inkonsistent beurteilten: für die sinnvolle Teilhabe an sozialen Netzwerken wird die Offenlegung zahlreicher privater Daten in Kauf genommen, während die Anforderungen an die Warn-App sehr hoch waren. Es kommt hinzu, dass der gesellschaftliche Nutzen der Corona Warn-App von zahlreichen Expert*innen und in den Medien als sehr hoch beurteilt wurde. Eine potenzielle Erklärung ergibt sich aus dem Ethical Intuitionism Model, wonach ein moralisches Urteil der rationalen Begründung vorgelagert ist. Eine höhere Bewertung des Datenschutzes kann also auch die nachgelagerte Rationalisierung dafür sein, wieso man das dafür genutzte Produkt ablehnt. Ferner ist auf normativer Ebene zu klären, welches Maß an Privatsphäre überhaupt „gut“ ist. Die Forschung zum Datenschutz konnte bisher bestätigen, dass ein hohes Maß an Privatsphäre mit einer Erhöhung der gesellschaftlichen Wohlfahrt verbunden ist. Jedoch fehlen bislang Studien, die diese Lücke empirisch schließen.

Gap 2: Diskrepanz zwischen erstrebter und erreichbarer Privatsphäre

Die erstrebte Privatsphäre kann auch von der erreichbaren Privatsphäre abweichen. Diese Lücke wurde in der bisherigen Forschung besonders aus der Perspektive des Privatsphäre-Paradoxon untersucht, da Konsument*innen nicht in allen Situationen das höchstmögliche Maß an Privatsphäre suchen, sondern sich mit einem Maß an Privatsphäre zufriedengeben, das ihnen das gewünschte Maß an gesellschaftlicher Teilhabe ermöglicht (sog. Privatsphäre-Externalität) und auch der Verfolgung anderer persönlicher Interessen nicht im Wege steht (sog. Privacy-Personalization-Paradox). Auch hier ist weitere Forschung notwendig, die sich mit der spezifischen Entschlüsselung der Verzerrungen befasst.

Gap 3: Diskrepanz zwischen erstrebenswerter und erreichbarer Privatsphäre

In einigen Situationen können auch die erreichbare und die erstrebenswerte Privatsphäre divergieren. Sollte die erreichbare Privatsphäre deutlich hinter der erstrebenswerten Privatsphäre zurückfallen, entstehen mentale Konflikte. Gewährleistet beispielsweise ein Unternehmen wenig Datenschutz für ein bestimmtes Produkt (niedrige erreichbare Privatsphäre) in einem Bereich, bei dem Privatsphäre als sehr erstrebenswert gilt (hohe erstrebenswerte Privatsphäre, z. B. Gesundheit), entstehen bei Konsument*innen derartige Dissonanzen. Äußere Faktoren beeinflussen die Strategien, mit deren Hilfe Konsument*innen diese kognitiven Dissonanzen reduzieren können. Konsument*innen könnten bspw. das erstrebenswerte Maß an Privatsphäre (oder die Bedeutung von Privatsphäre insgesamt) für sich verringern, wenn sie das angebotene Produkt unbedingt möchten. Sie können allerdings auch das Produkt durch ein Substitut ersetzen oder zu einem anderen Anbieter wechseln, das bzw. der ihnen ein höheres Maß an erreichbarer Privatsphäre bietet. Außerdem können sie in bestimmten Fällen auch die erreichbare Privatsphäre im selben Unternehmen erhöhen, z. B. kurzfristig durch Extra-Zahlungen.

Fazit

Der vorliegende Artikel diskutiert verschiedene situative und kognitive Verzerrungen, die zur Erklärung der Diskrepanz zwischen den persönlichen Datenschutzbedenken und dem tatsächlichen, oft sorglosen Verhalten bei digitalen Dienstleistungen beitragen. Es wird allerdings deutlich, dass bisher kein übergeordnetes Modell existiert, das die Wechselwirkungen zwischen diesen Verzerrungen sowie den datenschutzrelevanten Konsequenzen untersucht und dabei eine in unseren Augen wichtige Differenzierung zwischen erstrebenswerter, erstrebter und erreichbarer Privatsphäre einbezieht. Dieser Beitrag soll daher zukünftige Forschung auf diesem Gebiet stimulieren.

 

Zur einfacheren Lesbarkeit wurden die meisten Quellenverweise entfernt. Die Illustrationen wurden aus Platzgründen entfernt.

 

Wassili Lasarov, Stefan Hoffmann; HMD Praxis der Wirtschaftsinformatik; 2021

https://link.springer.com/article/10.1365/s40702-021-00706-2

http://creativecommons.org/licenses/by/4.0/deed.de

 

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.  

Swiss Infosec AG; 24.03.2021

Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

04/2021

 

I. Einleitung

In der Herbstsession 2020 hat das Eidgenössische Parlament das totalrevidierte Bundesgesetz über den Datenschutz (DSG) sowie weitere, geänderte Erlasse zum Datenschutz verabschiedet. Die Referendumsfrist ist am 14. Januar 2021 ungenutzt abgelaufen. Die Bundesverwaltung ist aktuell daran, die dazugehörigen Vollzugsverordnungen auszuarbeiten, welche der Bundesrat voraussichtlich im zweiten Semester des Jahres 2022 zusammen mit dem neuen DSG in Kraft setzen wird.

Bis zum Inkrafttreten werden die Privatwirtschaft und die Bundesbehörden die Bearbeitung von Personendaten an die neuen Bestimmungen anzupassen haben. Vorliegend weist der EDÖB auf die wichtigsten Neuerungen hin, welche sie dabei beachten müssen.

 

II. Vorgeschichte und Ziele der Revision

Das erste Bundesgesetz über den Datenschutz vom 19. Juni 1992 trat Mitte 1993 in Kraft – zu einem Zeitpunkt also, in welchem das Internet noch nicht kommerziell genutzt wurde und die heutige, vom Umgang mit dem allgegenwärtigen Smartphone geprägte, digitale Realität noch nicht absehbar war. Nach einer Teilrevision im Jahr 2008, deren Ziel es war, die Bevölkerung besser über die Bearbeitung ihrer Daten zu informieren, sollte sich schon bald zeigen, dass die rasante, technologische Entwicklung weitere Anpassungen notwendig machte. Inzwischen ist für das Gros der Bevölkerung ein Leben ohne jederzeitigen Internetzugang sowie intelligente und mit berührungssensiblen Bildschirmen ausgerüsteten Geräten kaum mehr vorstellbar. Um der Bevölkerung in einem Alltag, der von Cloud-Computing, Big Data, Sozialen Netzwerken und Internet der Dinge geprägt ist, einen zeitgemässen Datenschutz zu garantieren, wurde eine umfassende Erneuerung des DSG unausweichlich.

Im Herbst 2017 verabschiedete der Bundesrat den Entwurf zu einer Totalrevision des DSG, den er mit der dazugehörenden Botschaft an die eidgenössischen Räte überwies. Ziel dieser Revision war es, den Datenschutz an die veränderten technologischen und gesellschaftlichen Verhältnisse anzupassen. Das neue DSG muss damit dem Anspruch gerecht werden, die informationelle Selbstbestimmung sowie die Privatsphäre der Bürgerinnen und Bürger zu stärken und damit möglichst langfristig zu gewährleisten.

Nebst der Stärkung der Rechte der betroffenen Personen hebt der Bundesrat in seiner Botschaft den sog. risikobasierten Ansatz als Leitlinien der Revision hervor: Nach diesem Ansatz sollen Staat und Unternehmen die Risiken für die Privatsphäre und informationelle Selbstbestimmung frühzeitig erheben und die Anforderungen des Datenschutzes bereits im Planungsstadium ihrer digitalen Projekte miteinbeziehen. Hohe Risiken und die zu deren Beseitigung oder Minderung getroffenen organisatorischen und technischen Massnahmen sind zu dokumentieren. Sodann fördert das revidierte DSG auch die Selbstregulierung, indem die Mitglieder von Branchen, die einen verbindlichen Verhaltenskodex erlassen, von gewissen Pflichten entbunden werden. Das revidierte DSG enthält nicht zuletzt auch diverse Neuerungen, welche die Aufsichtsbefugnisse des EDÖB stärken sollen.

Anfang 2018 beschloss das Parlament, die Revision in zwei Etappen aufzuteilen: Zwecks Beachtung staatsvertraglicher Umsetzungsfristen wurden in einer ersten Etappe vorab die Bestimmungen zu Datenbearbeitungen angepasst, die für Bundesorgane wie das fedpol gelten, welche die angepasste EU-Richtlinie 2016/680 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten im Bereich des Strafrechts anwenden, weil diese Teil des sog. Acquis zum Schengener Assoziierungsübereinkommen sind. Diese Arbeiten mündeten im sog. Schengen-DSG bzw. SDSG. In einem zweiten Schritt erfolgte dann die Totalrevision des DSG als Ganzes.

1. Etappe 1: Schengen-Teil

Das SDSG trat am 1. März 2019 in Kraft. Neben dem SDSG, dessen Geltungsdauer bis zum Inkrafttreten der Totalrevision begrenzt ist, wurden sodann weitere Gesetze angepasst, die in den Bereich der Schengener Zusammenarbeit in Strafsachen fallen.

2. Etappe 2: Ganzes Gesetz

In der Herbstsession 2019 nahm sich der Nationalrat der Totalrevision des ganzen Gesetzes als Erstrat an, welche die eidgenössischen Räte am 25. September 2020 nach Bereinigung aller Differenzen verabschiedet haben. Bei der Ausgestaltung des neuen DSG berücksichtigten Bundesrat und Parlament die von der Schweiz unterzeichnete Erweiterung der Europaratskonvention 1081 sowie die Datenschutzgrundverordnung der Europäischen Union (DSGVO). Aufgrund ihres extraterritorialen Anwendungsbereichs wird Letztere seit ihrer Inkraftsetzung im Mai 2018 bereits von weiten Teilen der Schweizer Wirtschaft angewandt. Trotz dieser Anlehnung an das europäische Recht entspricht das neue DSG der schweizerischen Rechtstradition, indem es einen hohen Abstraktionsgrad ausweist und technologieneutral formuliert ist. Von der DSGVO hebt es sich nicht nur aufgrund seiner Kürze, sondern auch einer teilweise unterschiedlichen Terminologie ab. Allgemein wird davon ausgegangen, dass die Schweiz und die EU nach der Erneuerung ihrer Datenschutzgesetzgebungen gegenseitig die Gleichwertigkeit ihrer Datenschutzniveaus anerkennen werden, so dass der formlose Austausch von Personendaten über die Landesgrenzen weiterhin möglich bleibt. Die Erneuerung des aus dem Jahre 2000 stammenden Anerkennungsbeschlusses der EU gegenüber der Schweiz wird für das Frühjahr 2021 erwartet.

 

III. Wichtigste Neuerungen des totalrevidierten Datenschutzgesetzes

3. Nur noch Daten von natürlichen Personen

Das revidierte DSG bezweckt ausschliesslich den Schutz der Persönlichkeit von natürlichen Personen, über welche Personendaten bearbeitet werden. Daten von juristischen Personen wie kaufmännischen Gesellschaften, Vereinen oder Stiftungen werden vom neuen DSG nicht mehr erfasst, womit dessen Geltungsbereich mit jenem der DSGVO übereinstimmt. Unternehmen können sich nach wie vor auf den Persönlichkeitsschutz durch Art. 28 ZGB, den Schutz des Geschäfts- und Fabrikationsgeheimnis nach Art. 162 StGB sowie die einschlägigen Bestimmungen der Bundesgesetze über den unlauteren Wettbewerb und über Kartelle berufen.

4. Besonders schützenswerte Personendaten

Die bisherige Definition der besonders schützenswerten Personendaten wird um genetische und, sofern diese eine natürliche Person eindeutig identifizieren, biometrische Daten erweitert.

5. Privacy by Design und by Default

Im revidierten DSG sind neu die Grundsätze «Privacy by Design» (Datenschutz durch Technik) und «Privacy by Default» (Datenschutz durch datenschutzfreundliche Voreinstellungen) verankert. Sie verpflichten Behörden und Unternehmen, die Bearbeitungsgrundsätze des DSG bereits ab der Planung entsprechender Vorhaben umzusetzen, indem sie angemessene technische und organisatorische Schutzmassnahmen treffen. Der Datenschutz durch Technik verlangt, dass sie ihre Applikationen u.a. so ausgestalten, dass die Daten standardmässig anonymisiert oder gelöscht werden. Datenschutzfreundliche Voreinstellungen schützen die Nutzer von privaten Online-Angeboten, die sich weder mit Nutzungsbedingungen noch den daraus abzuleitenden Widerspruchsrechten auseinandergesetzt haben, indem nur die für den Verwendungszweck unbedingt nötigen Daten bearbeitet werden, solange sie nicht aktiv werden und weitergehende Bearbeitungen autorisieren. Um diesen Schutz des neuen Gesetzes zu gewährleisten, sollten Schweizer Unternehmen ihre Angebote rechtzeitig überprüfen und nötigenfalls durch Einsatz datenschutz- und kundenfreundlicher Programme Anpassungen vornehmen.

6. Datenschutzberater und Datenschutzberaterinnen

Private Unternehmen können nach Art. 10 revDSG eine Datenschutzberaterin oder einen Datenschutzberater ernennen. Diese können, müssen aber nicht in einem arbeitsvertraglichen Verhältnis zum Unternehmen stehen. In beiden Fällen sollte die Datenschutzberatung getrennt von übrigen Aufgaben des Unternehmens wahrgenommen werden. Auch empfiehlt es sich, die Geschäfte der Datenschutzberatung nicht mit jenen der übrigen Rechtsberatung und -vertretung zu vermischen. Weiter sollte Datenschutzberatern und -beraterinnen erlaubt sein, ihren Standpunkt bei Meinungsverschiedenheiten der Unternehmensleitung zur Kenntnis zu bringen. Im Gegensatz zur europäischen DSGVO ist die Ernennung von Beratern und Beraterinnen für Private stets fakultativ – nur Bundesorgane sind gesetzlich dazu verpflichtet. Sie sind nicht nur eine innerbetriebliche Anlaufstelle, sondern auch Bindeglied zum behördlichen Datenschutz und erste Ansprechpersonen für den EDÖB. Zu ihren Aufgaben gehören nebst der allgemeinen Beratung und Schulung des Unternehmens in Fragen des Datenschutzes die Mitwirkung beim Erlass und der Anwendung von Nutzungsbedingungen und Datenschutzvorschriften. Wird die interne Datenschutzberatung fachlich unabhängig und weisungsungebunden ausgeübt, und werden dort keine Aufgaben wahrgenommen, die mit der Funktion unvereinbar sind, kann ein Unternehmen nach Durchführung einer Datenschutz-Folgenabschätzung auch bei fortbestehend hohem Risiko einzig auf die interne Beratung abstellen, ohne darüber hinaus den EDÖB konsultieren zu müssen (s. dazu unten «Datenschutz-Folgenabschätzungen»).

7. Datenschutz-Folgenabschätzung

Datenschutz-Folgenabschätzungen sind im Schweizer Datenschutzrecht nicht neu – Bundesorgane sind bereits heute dazu verpflichtet. Wenn eine beabsichtigte Bearbeitung ein hohes Risiko für die Persönlichkeit oder die Grundrechte der betroffenen Person mit sich bringen kann, müssen gemäss Art. 22 revDSG neu auch private Verantwortliche vorgängig eine Datenschutz-Folgenabschätzung erstellen. Das hohe Risiko ergibt sich – insbesondere bei Verwendung neuer Technologien – aus der Art, dem Umfang, den Umständen und dem Zweck der Bearbeitung. Insbesondere liegt ein hohes Risiko dann vor, wenn ein Profiling mit hohem Risiko oder umfangreiche Bearbeitungen besonders schützenswerter Personendaten geplant sind. Allgemein gehaltene Folgenabschätzungen vermögen nicht von erkennbaren Risiken zu dispensieren, die sie unerwähnt lassen. Ist ein Produkt, System oder eine Dienstleistung nach Art. 13 revDSG zertifiziert oder wird ein Verhaltenskodex nach Art. 11 revDSG eingehalten, der auf einer Datenschutz-Folgenabschätzung beruht, kann von der Erstellung einer solchen abgesehen werden. Ist aus einer Datenschutz-Folgenabschätzung erkennbar, dass die geplante Bearbeitung trotz der vom Verantwortlichen vorgesehenen Massnahmen noch ein hohes Risiko für die Persönlichkeit oder die Grundrechte der betroffenen Personen zur Folge hätte, muss dieser nach Art. 23 revDSG vorgängig die Stellungnahme des EDÖB einholen. Hat der EDÖB Einwände gegen die Folgenabschätzung selber, wird er dem Verantwortlichen entsprechende Präzisierungen oder Ergänzungen nahelegen. Dies dürfte vor allem der Fall sein, wenn der Text so allgemein gehalten ist, dass er voraussehbare Risiken oder Massnahmen nur unzureichend beschreibt. Richten sich die datenschutzrechtlichen Einwände gegen die geplanten Bearbeitungen als solche, schlägt der EDÖB dem Verantwortlichen geeignete Massnahmen zu deren Modifizierung vor (s. dazu unten «Konsultationen»). Anders als bei den Verhaltenskodizes müssen die Stellungnahmen des EDÖB nicht publiziert werden. Als amtliche Dokumente unterstehen sie jedoch dem Bundesgesetz über das Öffentlichkeitsprinzip in der Verwaltung. Auf die Konsultation des EDÖB kann verzichtet werden, wenn die interne Datenschutzberatung konsultiert wurde (s. dazu oben «Datenschutzberater und Datenschutzberaterinnen»).

8. Verhaltenskodizes

In Art. 11 hat das neue DSG für Berufs-, Branchen- und Wirtschaftsverbände Anreize gesetzt, eigene Verhaltenskodizes zu entwickeln und diese dem EDÖB zur Stellungnahme vorzulegen. Dessen Stellungnahmen werden veröffentlicht. Sie können Einwände enthalten und entsprechende Änderungen oder Präzisierungen empfehlen. Positive Stellungnahmen des EDÖB begründen die gesetzliche Vermutung, dass das im Verhaltenskodex festgehaltene Verhalten datenschutzrechtskonform ist. Allgemein gehaltene Kodizes vermögen indessen nicht vor beliebigen Risiken zu dispensieren, die der Text nicht näher bezeichnet. Durch Unterwerfung unter einen Verhaltenskodex können die Mitglieder der Verbände davon entlastet werden, eigene Hilfestellungen und Vorgaben für die Anwendung des neuen DSG zu erarbeiten. Diese Form der Selbstregulierung bringt ihnen auch den Vorteil, dass sie keine eigenen Datenschutz-Folgenabschätzungen durchführen müssen, wenn sie einen Verhaltenskodex einhalten, der auf einer bereits durchgeführten und immer noch aktuellen Datenschutz-Folgenabschätzung beruht, Massnahmen zum Schutz der Persönlichkeit oder der Grundrechte vorsieht und dem EDÖB vorgelegt wurde.

9. Zertifizierungen

Gemäss Art. 13 revDSG können nebst den Betreibern von Datenbearbeitungssystemen oder -programmen neu auch deren Hersteller ihre Systeme, Produkte und Dienstleistungen zertifizieren lassen. Mittels Zertifizierung können Unternehmen z.B. nachweisen, dass sie dem Grundsatz von Privacy by Default gerecht werden und über ein angemessenes Datenschutzmanagementsystem verfügen. Wenn ein privater Bearbeitungsverantwortlicher ein System, Produkt oder eine Dienstleistung einsetzt, die zertifiziert ist, kann er von der Erstellung einer Datenschutz-Folgenabschätzung absehen. Weitere Vorschriften über das Zertifizierungsverfahren und Qualitätszeichen wird der Bundesrat auf dem Verordnungsweg regeln.

10. Verzeichnis der Bearbeitungstätigkeiten

Neu müssen nach Art. 12 revDSG die Verantwortlichen sowie die Auftragsbearbeiter je ein Verzeichnis sämtlicher Datenbearbeitungen führen. Die entsprechenden Mindestangaben gibt das neue DSG vor. Das Verzeichnis muss stets à jour gehalten werden. Der Bundesrat wird in der Verordnung Ausnahmen für Unternehmen vorsehen, die weniger als 250 Mitarbeiterinnen und Mitarbeiter beschäftigten und deren Datenbearbeitung ein geringes Risiko von Verletzungen der Persönlichkeit von betroffenen Personen mit sich bringt. Während Bundesorgane dem EDÖB die Verzeichnisse melden müssen, sieht das neue Recht für die privaten Datenbearbeiter keine Meldepflicht mehr vor.

11. Bekanntgabe von Personendaten ins Ausland

Das revidierte DSG hält in Art. 16 fest, dass Daten ins Ausland bekanntgegeben werden dürfen, wenn neu der Bundesrat festgestellt hat, dass die Gesetzgebung des Drittstaates einen angemessenen Schutz gewährleistet. Er wird zu diesem Zweck eine Liste publizieren, die nach dem bisherigen Recht vom EDÖB geführt wurde. Figuriert der betreffende Exportstaat nicht auf der Liste des Bundesrates, dürfen Daten wie nach bisherigen Recht trotzdem dorthin geleitet werden, wenn ein geeigneter Datenschutz auf andere Weise gewährleistet wird. So durch einen völkerrechtlichen Vertrag, Datenschutzklauseln, die dem EDÖB vorgängig mitzuteilen sind, oder verbindliche unternehmensinterne Datenschutzvorschriften, sog. Binding Corporate Rules. Bereits unter der DSGVO genehmigte Standardklauseln der Europäischen Kommission werden vom EDÖB anerkannt.

Ist eine Bekanntgabe ins Ausland geplant – wozu auch die Speicherung auf ausländischen Systemen (Cloud) gehört – sind die Länder anzugeben, gleichgültig, ob diese einen angemessenen Datenschutz bieten. Hier geht das DSG weiter als die DSGVO. Anzugeben ist auch, welche Datenschutzgarantien gegebenenfalls zum Einsatz kommen (z.B. EU-Standardvertragsklauseln) oder auf welche Ausnahmen nach Art. 17 revDSG sich der Verantwortliche allenfalls bezieht; auch hier weicht das DSG von der DSGVO ab.

12. Ausgebaute Informationspflichten

In Erfüllung des Revisionsziels der Transparenz baut Art. 19 revDSG die Informationspflicht für Unternehmen aus. Neu gilt, dass ein privater Verantwortlicher bei grundsätzlich jeder beabsichtigten Beschaffung von Personendaten die betroffene Person vorgängig angemessen informieren muss, selbst wenn die Daten nicht direkt bei ihr beschafft werden. Im aktuellen DSG ist diese Informationspflicht bisher nur bei besonders schützenswerten Personendaten und Persönlichkeitsprofilen vorgeschrieben. Konkret sollen die Identität und Kontaktdaten des Verantwortlichen, der Bearbeitungszweck und gegebenenfalls die Empfänger von Personendaten bekanntgegeben werden. Anders als nach der DSGVO muss auch über den Empfangsstaat und die allfälligen Garantien zur Gewährleistung eines angemessenen Datenschutzniveaus informiert werden (s. oben, Bekanntgabe von Personendaten ins Ausland). Unternehmen werden somit ihre Datenschutzerklärungen entsprechend überprüfen und nachführen müssen. Ausgenommen von der Informationspflicht sind Personendaten, die nur nebenbei oder zufällig erfasst werden. Sodann wird die Informationspflicht durch die zahlreichen Einschränkungs- und Ausnahmegründe in Art. 20 revDSG beschränkt oder aufgehoben. Das ist beispielsweise der Fall, wenn betroffene bereits über die Information verfügen oder die Bearbeitung der Daten gesetzlich vorgesehen ist. Führen Bearbeitungen zu automatisierten Einzelentscheidungen, haben die Verantwortlichen nach Art. 21 revDSG neue Informationspflichten gegenüber der beschwerten Person wahrzunehmen und dieser die ihr zustehenden Anhörungs- und Überprüfungsrechte zu gewähren.

13. Auskunftsrecht der betroffenen Personen

Das Recht einer betroffenen Person, Auskunft darüber zu verlangen, ob Personendaten über sie bearbeitet werden, wurde im neuen DSG ausgebaut. Art. 25 revDSG enthält eine erweiterte Liste an Mindestinformationen, die vom Verantwortlichen herausgegeben werden müssen, beispielsweise die Aufbewahrungsdauer der über sie bearbeiteten Personendaten. Sodann sieht der Artikel vor, dass einer betroffenen Person generell alle Informationen zur Verfügung zu stellen sind, welche erforderlich sind, damit sie die ihr nach dem neuen DSG zustehende Rechte geltend machen kann und eine transparente Datenbearbeitung gewährleistet ist. Wie nach altem Recht kann der Verantwortliche die Auskunft unter bestimmten Bedingungen verweigern, einschränken oder aufschieben.

14. Meldepflicht bei Verletzungen der Datensicherheit

Gemäss Art. 24 revDSG muss der Verantwortliche dem EDÖB neu Verletzungen der Datensicherheit melden, die für die Betroffenen zu einem hohen Beeinträchtigungsrisiko ihrer Persönlichkeit oder ihrer Grundrechte führen. Die Bestimmung gilt sowohl für private Verantwortliche als auch für Bundesorgane. Dabei hat die Meldung an den EDÖB so rasch wie möglich zu erfolgen. Vorher wird der Verantwortliche eine Prognose zu den möglichen Auswirkungen der Verletzung stellen und eine erste Beurteilung darüber vorzunehmen, ob Gefahr im Verzug sein könnte, ob die betroffenen Personen über das Ereignis zu informieren sind und auf welche Weise dies geschehen könnte. Wenn der Verantwortliche das Risiko nicht als hoch einschätzt, hindert ihn dies nicht daran, freiwillig eine Meldung an den EDÖB abzusetzen. Gegenüber dem EDÖB meldepflichtig sind nur eingetretene Persönlichkeits- oder Grundrechtsverletzungen, nicht jedoch erfolgreich abgewehrte oder untaugliche Cyberangriffe. Auch die europäische DSGVO kennt eine entsprechende Meldepflicht und gibt für deren Wahrnehmung gegenüber den Datenschutzbehörden der EU konkrete Fristen vor. Zudem ist die Schwelle zur Meldepflicht nach dem europäischen Recht tiefer, da dieses lediglich ein einfaches Risiko voraussetzt.

15. Recht auf Datenportabilität

Mit dem Recht auf Datenherausgabe und -übertragung gemäss Art. 28 revDSG hat eine betroffene Person neu die Möglichkeit, ihre Personendaten, welche sie einem privaten Verantwortlichen bekanntgegeben hat, in einem gängigen elektronischen Format herauszuverlangen oder einem Dritten übertragen zu lassen. Die Voraussetzungen hierzu sind, dass der Verantwortliche die Daten automatisiert und mit der Einwilligung der betroffenen Person oder in unmittelbarem Zusammenhang mit einem Vertrag bearbeitet. Das Recht kann kostenlos geltend gemacht werden, ausser wenn die Herausgabe oder Übertragung mit einem unverhältnismässigen Aufwand verbunden ist. Letzteres kann etwa der Fall sein, wenn bei Kommunikationsdaten eine aufwändige Triage zwischen den eigenen Äusserungen und jenen von Dritten nötig wird.

16. Untersuchung aller Verstösse gegen Datenschutzvorschriften

Der EDÖB wird in Zukunft alle Verstösse gegen das neue DSG durch Bundesorgane oder private Personen von Amtes wegen zu untersuchen haben (Art. 49 Abs. 1 revDSG). Im aktuellen DSG gilt noch die Einschränkung, wonach der EDÖB gegen Private nur dann von sich aus eine Untersuchung inklusive Sachverhaltsabklärungen durchführt, wenn die Bearbeitungsmethode geeignet ist, die Persönlichkeit einer grösseren Anzahl von Personen zu verletzen. Diese, als «Systemfehler» bezeichnete Interventionsschwelle fällt inskünftig weg. Bei Verletzungen der Datenschutzvorschriften von geringfügiger Bedeutung kann jedoch auch nach neuem Recht von der Eröffnung einer Untersuchung abgesehen werden (Art. 49 Abs. 2 revDSG). Auch kann der EDÖB wie bis anhin von der Eröffnung formeller Schritte absehen, wenn sich nach einer ersten Kontaktnahme mit dem Bearbeitungsverantwortlichen zeigt, dass dieser Mängel, auf die er aufmerksam gemacht wurde, anerkennt und innert nützlicher Zeit behebt. Aufgrund seiner beschränkten Ressourcen ist generell davon auszugehen, dass der EDÖB bei der Behandlung von Anzeigen auch nach Inkrafttreten des neuen Gesetzes nach Massgabe des Opportunitätsprinzips Prioritäten setzen wird.

17. Verfügungen

Nach Art. 51 Abs. 1 revDSG kann der EDÖB neu Verfahren nach dem Verwaltungsverfahrensgesetzes durchführen und gegenüber Bundesorganen oder privaten Bearbeitungsverantwortlichen formell verfügen, eine Datenbearbeitung ganz oder teilweise anzupassen, zu unterbrechen oder gar einzustellen sowie Personendaten löschen oder vernichten zu lassen. So kann der EDÖB zum Beispiel verfügen, dass ein Unternehmen betroffene Personen über eine gemeldete Verletzung der Datensicherheit informieren muss. Bisher hatte der EDÖB lediglich die Kompetenz, Empfehlungen auszusprechen und bei deren Nichtbefolgung mit Klage an das Bundesverwaltungsgericht zu gelangen.

Gegen Verfügungen des EDÖB kann ein Adressat vor Bundesveraltungsgericht Beschwerde führen und danach weiter an das Bundesgericht gelangen. Beschwerdeentscheide des Bundesverwaltungsgerichts kann auch der EDÖB vor Bundesgericht anfechten (Art. 52 Abs. 3 revDSG).

18. Konsultationen

Der EDÖB ist weder eine Genehmigungsbehörde noch eine Zulassungsstelle für Applikationen, Produkte, Regulierungen und Projekte. Das neue Gesetz sieht indessen an verschiedener Stelle vor, dass die Verantwortlichen den EDÖB vor dem definitiven Abschluss entsprechender Arbeiten und der Realisierung ihrer Vorhaben konsultieren müssen. So sind ihm Verhaltenskodizes und bei hohen Restrisiken auch Datenschutz-Folgenabschätzungen zur Stellungnahme vorzulegen. Angesichts der abstrakten Natur dieser Konsultationsgegenstände werden die Stellungnahmen des EDÖB in aller Regel keinen verfügenden Charakter haben und die von ihm empfohlen Massnahmen und Auflagen keine Beschwerdemöglichkeiten zulassen. Bleiben Letztere unbeachtet, müssen die Bearbeitungsverantwortlichen indessen damit rechnen, dass konkrete Datenbearbeitungen, die mit Empfehlungen des EDÖB im Zusammenhang stehen, später Gegenstand von Verfügungen werden. Diese können so weit gehen, Datenbearbeitungen als Ganzes zu untersagen, wogegen den Verantwortlichen dann aber die ordentlichen Rechtsmittel des Verwaltungsverfahrens offenstehen.

19. Spontane Stellungnahmen und Information der Öffentlichkeit

Abgesehen von den Stellungnahmen im Rahmen formeller Konsultationen steht es dem EDÖB weiterhin frei, sich spontan zu neuen Technologien, Phänomenen der Digitalisierung oder zu Bearbeitungspraktiken gewisser Branchen zu äussern und seine Meinungsäusserungen und Einschätzungen zu publizieren. In Fällen von allgemeinem Interesse informiert der EDÖB die Öffentlichkeit zudem – wie nach bisherigem Recht – über seine Feststellungen und Massnahmen. Gemäss Art. 57 Abs. 2 revDSG gilt dies auch für Feststellungen und Verfügungen, die im Rahmen formeller Untersuchungen des EDÖB ergangen sind.

20. Gebühren

Art. 59 revDSG regelt, für welche Leistungen der EDÖB von privaten Personen zukünftig Gebühren erheben wird. So fällt eine Gebühr an für Stellungnahmen zu einem Verhaltenskodex oder zu einer Datenschutz-Folgenabschätzung oder für die Genehmigung von Standarddatenschutzklauseln und verbindlichen unternehmensinternen Datenschutzvorschriften. Aber auch für allgemeine Beratungsdienstleistungen gegenüber Privaten wird der EDÖB zukünftig Gebühren erheben. Die Details regelt der Bundesrat auf dem Verordnungsweg.

21. Sanktionen

Im neuen DSG werden Bussen für private Personen bis zu CHF 250’000 angedroht (Art. 60 revDSG). Strafbar sind vorsätzliches Handeln und Unterlassen, nicht jedoch Fahrlässigkeit. Nur auf Antrag bestraft werden die Missachtung von Informations-, Auskunfts- und Meldepflichten sowie die Verletzung von Sorgfaltspflichten und der beruflichen Schweigepflicht. Von Amtes wegen verfolgt wird hingegen die Missachtung von Verfügungen des EDÖB. Gebüsst wird grundsätzlich die verantwortliche natürliche Person. Neu kann aber auch das Unternehmen selbst bis zu CHF 50’000 gebüsst werden, wenn die Ermittlung der strafbaren natürlichen Person innerhalb des Unternehmens oder der Organisation einen unverhältnismässigen Untersuchungsaufwand mit sich ziehen würde.

Im Gegensatz zu den europäischen Datenschutzbehörden kommen dem EDÖB auch nach neuem Recht keine Sanktionsbefugnisse zu. Die fehlbaren Personen werden durch die kantonalen Strafverfolgungsbehörden gebüsst. Der EDÖB kann zwar Anzeige erstatten und im Verfahren die Rechte einer Privatklägerschaft wahrnehmen (Art. 65 Abs. 2 revDSG), ein Strafantragsrecht steht ihm aber nicht zu. Anders als beim neuen DSG richten sich die Verwaltungssanktionen nach der DSGVO ausschliesslich gegen juristische Personen. Die Datenschutzbehörden in der EU können gegen fehlbare Unternehmen Bussen bis zu 20 Millionen Euro resp. 4 Prozent des weltweit erzielten Jahresumsatzes aussprechen.

 

Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter EDÖB, 05.03.2021

https://www.edoeb.admin.ch/dam/edoeb/de/dokumente/2021/revdsg.pdf.download.pdf/revDSG_DE.pdf

 

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.  

Swiss Infosec AG; 24.03.2021

Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

03/2021 Fachbeitrag Datenschutz Swiss Infosec AG

 

Fast vier Jahre hat es gedauert, bis das Parlament letzten Herbst die Revision des Schweizer Datenschutzrechts verabschiedet hat. Nun liegt es am Bundesrat, die Datenschutzverordnung anzupassen, damit diese zusammen mit dem neuen Datenschutzgesetz (DSG) im Verlauf des Jahres 2022 in Kraft treten kann.

Die Revision des DSG führte zu zahlreichen Angleichungen an die EU-Datenschutz-Grundverordnung (DSGVO) und stellt besonders Organisationen, welche sich nicht bereits an den strengen Vorgaben der DSGVO ausrichten, vor neue Herausforderungen. Aber auch für Organisationen, die den letzten Sprung im Datenschutz mit der DSGVO im Frühling 2018 machten, dürfte die Zeit reif sein, den Massnahmenbedarf neu zu evaluieren.

 

Ist meine Organisation auf das neue Datenschutzgesetz (NDSG) vorbereitet?

Diese Frage werden sich dieses Jahr viele Organisation stellen müssen, da diverse Änderungen und namentlich verschiedene neue Governance-Pflichten anstehen und für die Umsetzung keine Übergangsfrist vorgesehen ist, d.h. die neuen gesetzlichen Anforderungen ab dem Inkrafttreten erfüllt werden müssen. Da gerade der Aufwand für die Anpassung gewisser Prozesse nicht unterschätzt werden darf, lohnt es sich, bereits jetzt den Handlungsbedarf zu analysieren und mit der Umsetzung von Massnahmen zu beginnen.

 

Gap-Analyse zur Bestimmung des Handlungsbedarfs

Wie üblich werden bei einer Gap-Analyse der Status Quo (Ist-Zustand) ermittelt und dann mit den zukünftigen gesetzlichen Mindestvorgaben abgeglichen (Soll-Zustand). Anhand der Gegenüberstellung können dann im Ergebnis Massnahmen abgleitet werden, um sich vom Ist-Zustand dem Soll-Zustand anzunähern.

 

Konkretes Vorgehen

In einem ersten Schritt kann anhand einer groben Risikoanalyse der Scope der Gap-Analyse geeignet begrenzt werden. Beispielsweise kann sich eine Fokussierung auf die neuen Governance-Pflichten als sinnvoll herausstellen.

In einem zweiten Schritt erfolgt die Durchführung von Interviews und die Zusammenstellung der (falls vorhanden) bestehenden Dokumentation und deren anschliessende Auswertung. Die erlangten Kenntnisse (Ist-Zustand) werden mit den gesetzlichen Vorgaben des NDSG (Soll-Zustand) abgeglichen, um etwaige Lücken festzustellen. Inhaltlich kann der Gap-Analyse-Report aufgegliedert werden nach einem Management Summary, allgemeinen Angaben (z.B. Ausgangslage, Gegenstand der Prüfung, Vorgehen) und einer Übersicht über die anwendbaren Soll-Vorgaben. Das Kernstück des Gap-Analyse- Reports bildet sodann die Datenschutzanalyse. Hierbei werden die Ergebnisse der Interviews und der Dokumentenprüfung den Vorgaben des NDSG gegenübergestellt.

 

Priorisierung bei Umsetzung von Massnahmen

Grundlage für die Priorisierung der Umsetzung bildet die Risikobewertung. Regelmässig empfiehlt es sich, dabei folgende Faktoren zu berücksichtigen: Datenmenge, Sensibilität der Daten, Vorliegen eines Profilings, Bekanntgabe an Dritte und/oder Auslandbekanntgabe. Beachtung verdienen insbesondere auch diejenigen nicht befolgten Pflichten, deren Missachtung mit einer Busse (neu nach NDSG: CHF 250'000.-) bestraft werden können. Dazu gehören unter anderem Verletzungen von Informations-, und Auskunftspflichten, oder von Vorgaben zur Datenbekanntgabe ins Ausland bzw. bei einer unzureichend ausgestalteten Auftragsbearbeitung.

 

Vorzüge einer Gap-Analyse durch Externe

Eine strukturierte und gut geplante Herangehensweise ist unerlässlich, damit Ihr Unternehmen das neue Datenschutzgesetz fristgerecht umsetzen kann. Externe Spezialisten können dabei von grossem Nutzen sein, da sie über das erforderliche Know-how verfügen, Sie von Anfang an kompetent beraten und bis hin zur NDSG-Compliance führen können. Aufgrund ihrer Erfahrung können Sie von Expertentipps profitieren und stellen somit sicher, dass Sie die gesetzlichen Mindestanforderungen erfüllen, praktisch bewährte Lösungen in datenschutzrechtlicher Hinsicht in Ihre Prozesse integrieren und Sie von Beginn weg die richtigen Prioritäten setzen.

 

Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.  

Swiss Infosec AG; 24.02.2021

Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch

 

datenschutz

 

Datenschutz


Datenschutz greift auch in unsere Lebensprozesse ein

Datenschutz ist allgegenwärtig und begleitet uns im Berufsalltag wie auch im Privatleben. Erfahren Sie bei uns alles über Beratung, Ausbildung und Services im Fachbereich Datenschutz und wie wir Sie als erfahrene Datenschutzspezialisten unterstützen können.

Kontaktieren Sie uns, denn wir wissen, welche Daten wie zu schützen sind!

Wir beraten Sie gerne. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

03/2021

 

Entscheidende Gefahren nicht benannt

 

Der Bund will sich klare Leitplanken beim Einsatz künstlicher Intelligenz in der Verwaltung setzen. Dies ist erfreulich und könnte eine dringend notwendige Regulierung dieser Technologie befördern. Doch bei näherer Betrachtung wird deutlich, dass offenbar der Mut fehlt, entscheidende Zielkonflikte klar zu benennen. So werden die wesentlichen Gefahren, etwa des Einsatzes neuronaler Netze oder der Kompetenzauslagerung an private Dienstleister, nicht näher behandelt.

Ende November 2020 hat der Bundesrat die «Leitlinien für den Umgang mit künstlicher Intelligenz in der Bundesverwaltung» verabschiedet. Diese thematisieren den zukünftigen Umgang mit künstlicher Intelligenz (KI) und basieren auf dem Bericht «Herausforderungen der künstlichen Intelligenz», der gegen Ende des letzten Jahres veröffentlicht wurde. Die Leitlinien gelten formal zwar nur als «allgemeiner Orientierungsrahmen» für die Bundesverwaltung, dürften aber Signalwirkung auf Industrie und internationale Partner entfalten.

Die insgesamt sieben Leitlinien sind aufgrund des frühen Entwicklungsstadiums der Technologie und der daraus resultierenden Unsicherheit sehr allgemein formuliert und folgen dem liberalen Credo, Rahmenbedingungen ohne übermässige Regulation zu schaffen. Sie fordern an vorderster Stelle eine Gewährleistung der Würde und des Wohls des einzelnen Menschen sowie des Gemeinwohls. Die Verwendung von künstlicher Intelligenz soll transparent kommuniziert und die automatisierten Entscheidungen sollen nachvollziehbar sein. Ausserdem soll bei Schadensfällen oder Gesetzeswidrigkeiten die Haftung klar definiert sein. Zusätzlich will der Bund die globale Gouvernanz von KI aktiv mitgestalten und dabei alle relevanten nationalen und internationalen Akteure miteinbeziehen.

Die Forderung nach Transparenz, Nachvollziehbarkeit und Erklärbarkeit ist begrüssenswert und bildet die Grundlage der ebenfalls geforderten klar definierten Haftung. Denn ohne die Einsicht, wie eine automatisierte Entscheidung zustande kam, kann auch nicht bestimmt werden, welcher Teil davon fehlgeschlagen ist und dementsprechend haften muss. Allerdings steigt die Komplexität dieser Algorithmen seit Jahren rasant (siehe Infobox). Speziell bei den immer häufiger eingesetzten (weil sehr flexiblen) «neuronalen Netzen» steht die Forschung vor einer Herausforderung: Sie kann leider nur unzureichend erklären, warum spezifische Inputs (Daten) zu gewissen Outputs (Entscheidungen) führen.

Beispielsweise sind «Adversarial Examples» (dt. feindliche Beispiele) unvermeidbar. Diese speziell designten Eingaben in neuronale Netze provozieren gezielte Fehler und sind quasi optische Illusionen für Maschinen. Ausserdem können wir erst unzureichend bestimmen, welchen Eigenschaften der Daten sich derart komplexe Algorithmen genau bedienen, um Entscheide zu treffen. Bekannt aus der Forschung ist der Fall, wo Bilder von Hunden und Wölfen nicht etwa an deren Aussehen unterschieden wurden, sondern am Schnee im Hintergrund, der hauptsächlich bei Wölfen zu finden war.

Die Vermutung liegt nahe, dass wenn bereits die Forschung vor diesen Hürden steht, auch die unter Kostendruck agierende Entwicklung in der Bundesverwaltung und der Industrie diese Probleme nur beschränkt wird berücksichtigen können. Damit fällt die Erklärbarkeit und Nachvollziehbarkeit von komplexen automatisierten Entscheidungen. Und damit fällt auch die eindeutig definierte Haftung, welche in der Leitlinie 4 gefordert wird. Zusätzlich stehen die zwei oben eingebrachten Schwächen von neuronalen Netzwerken auch im Gegensatz zur in Leitlinie 5 geforderten Sicherheit, Robustheit und Resilienz der eingesetzten Algorithmen.

Zudem lernen alle datenbasierten Klassifikations-Algorithmen (also nicht nur neuronale Netzwerke) lediglich die Verteilung der Trainingsdaten, also das Klassifizieren basierend auf dem jeweiligen Input. Daher reproduzieren sie die gesellschaftlichen Konventionen, die implizit in die Trainingsdaten eingeschrieben sind. Durch die drohende Technologiegläubigkeit der Anwender, die Ausgaben der Algorithmen ohne grosses Hinterfragen zu verwenden, werden sich gesellschaftliche Probleme, wie z. B. Diskriminierung basierend auf Herkunft oder Geschlecht, sogar noch verstärken. Dies wird in der Leitlinie 3 mit der «ausreichenden Qualität der Daten» zwar gefordert, jedoch wird dieser Aspekt unzureichend diskutiert. Leider reicht es nicht, einfach nur die Informationen zu Herkunft oder Geschlecht aus den Trainingsdaten zu löschen, da sehr oft andere Einträge – wie z. B. Wohnort oder Muskelmasse – damit stark korrelieren und zusammen mit weiteren Einträgen implizit einen Rückschluss darauf erlauben.

Zu den derzeit bekannten Methoden zur künstlichen Reduktion diskriminierender Klassifizierung hat die Forschung gezeigt, dass sich viele Fairness-Definitionen gegenseitig ausschliessen. Dies verdeutlicht, dass dieses Problem nicht technologisch, sondern gesellschaftlich gelöst werden muss.

Erfreulich ist der Wille des Bundes, sich in die globale Gouvernanz von KI einzubringen und sich für die Stärkung aller relevanten Anspruchsgruppen einzusetzen (Leitlinien 6 und 7). Die Entwicklung von Standards und der Technologie wird im Moment vor allem von den fünf US-amerikanischen Technologie-Riesen Google, Amazon, Facebook, Apple und Microsoft vorangetrieben und richtet sich dementsprechend nach ihren Geschäftsinteressen.

Momentan wird verstärkt auf «Machine Learning as a Service» (MLaaS, dt. Maschinelles Lernen als Dienstleistung) gesetzt. Bei diesem Geschäftsmodell stellt der Kunde seine Daten dem entsprechenden Anbieter zur Verfügung, und der Anbieter wählt dann ohne Mitwirkung des Kunden Modell und Art der Algorithmen aus. Dies bedeutet zum einen, dass das Know-how bei diesen grossen Anbietern generiert wird – und dort verbleibt – und zum anderen, dass auch die Verantwortung zu Nachvollziehbarkeit und Robustheit an sie ausgelagert wird. Dies reduziert den regulatorischen Spielraum der Schweiz erheblich. Ein weiteres Problem bei global agierenden Konzernen wird auch der Datenschutz sein, auf welches aber an dieser Stelle nicht weiter eingegangen werden soll. Der Bund ist gut beraten, sich bei der Gouvernanz zu beeilen, bevor alle relevanten Standards bereits gesetzt sind und sich nur noch schwer ändern lassen.

Im Fazit führen die Leitlinien zwar in die richtige Richtung, sie sind jedoch bei Weitem nicht streng genug und gehen die oben illustrierten Probleme nur unzureichend an. Die Forderung nach Transparenz sollte strikter sein. Der gegenwärtige Trend, überkomplexe und fragile Algorithmen auf schlecht strukturierte Datensammlungen anzuwenden, nur weil es schnell zu verwertbaren Ergebnissen führt und sich dazu marketingtechnisch noch gut verkaufen lässt, sollte gewendet werden. Auch das Problem der blinden Technologiegläubigkeit muss gezielt angegangen werden. Automatisierte Entscheide sollten uns nicht die Denkarbeit und damit die Selbstreflexion abnehmen, sondern uns positiv dabei unterstützen. Und nicht zuletzt sollten diese Änderungen zeitnah kommen, bevor die Big Players den Rahmen gesetzt haben und dem Industriestandort Schweiz kaum etwas anderes übrig bleibt, als sich den internationalen Standards anzupassen. Um die Strategie des Bundes umzusetzen, sollten wir verantwortungsvolles Machine-Learning-Know-how in der Schweiz generieren und damit die Gouvernanz von KI aktiv mitgestalten.

 

Digitale Gesellschaft Schweiz; David Sommer; 17.01.2021

https://www.digitale-gesellschaft.ch/2020/12/17/machine-learning-leitlinien-des-bundes-entscheidende-gefahren-nicht-benannt/

http://creativecommons.org/licenses/by-sa/4.0/deed.de

 

Informationssicherheit

 

Informationssicherheit

 

Informationssicherheit


Weil Ihre Daten und Informationen es wert sind

Mit Informationssicherheit und einem Information Security Management System (ISMS) schützen Sie Ihre Informationen und Daten optimal und beweisen auch gegen aussen Verantwortungsbewusstsein.

Kontaktieren Sie uns, die erfahrenen Spezialisten für Informationssicherheit und ISMS! Wir beraten Sie gerne und unverbindlich: +41 41 984 12 12, infosec@infosec.ch

Mehr lesen

 

Mehr lesen

Datenschutzkonformität nach Schweizer Datenschutzgesetzen

Der Datenschutz hat den bisherigen als auch den neuen Schweizer Gesetzesbestimmungen zu genügen (Schweizer Datenschutzgesetz, VDSG, kantonale Datenschutzgesetze). Wir unterstützen Sie dabei, die für Sie relevanten Vorgaben zu identifizieren und konform umzusetzen: rechtlich, technisch und organisatorisch.

  • Information über wesentliche Änderungen in neuen Datenschutzgesetzen
  • Klärung Handlungsbedarf
  • Rechtliche, technische und organisatorische Unterstützung
  • Förderung/Sicherstellung der Datenschutzkonformität
  • Durchführung von Audits
  • Best Practice-Antworten zum Thema neue Datenschutzgesetze

Angebot anfordern

Datenschutzkonformität nach Europäischer Datenschutz-Grundverordnung (DSGVO/GDPR)

Dank unserem Best Practice-Ansatz ist die Datenschutzkonformität nach DSGVO/GDPR einfacher zu erreichen.

Angebot anfordern

Datenschutz-Folgenabschätzung (DSFA)

Die Europäische Datenschutz-Grundverordnung (DSGVO), das neue Schweizer Datenschutzgesetz (DSG) und die neuen kantonalen Datenschutzgesetze verlangen bei Vorliegen entsprechender Voraussetzungen die Durchführung einer DSFA.

  • Abklärung, ob DSFA gemäss DSGVO, DSG oder kantonalem Recht zur Anwendung kommt
  • Rechtliche, technische und organisatorische Unterstützung
  • Förderung/Sicherstellung der Datenschutzkonformität
  • Durchführung von Audits
  • Best Practice-Antworten zum Thema DSFA

Angebot anfordern

Personaldatenschutz

Der rechtmässige Umgang mit Personaldaten im HR ist heikel, da immer mehr Prozesse (z.B. das Recruiting) digital ablaufen.

  • Anwendung allgemeiner Datenschutzregeln
  • Einfluss von Sondernormen aus dem Arbeitsrecht
  • Rechtliche, technische und organisatorische Unterstützung
  • Fokus: Datenbearbeitungen im Bewerbungsverfahren (inkl. E-Recruiting)
  • Fokus: Datenbearbeitungen während des Arbeitsverhältnisses
  • Fokus: Datenbearbeitungen nach Beendigung des Arbeitsverhältnisses

Angebot anfordern

Datenschutzaudits

Wir prüfen, ob gesetzliche Anforderungen erfüllt sind und beispielsweise CRM-, ERP- oder HR-Applikationen den Datenschutzvorgaben entsprechen. Im Fokus eines Audits stehen aber auch der Mensch und seine Sensibilisierung für Datenschutz.

 

 

 

 

Angebot anfordern

Rechtsberatung IT Law

Beratung vom Spezialistenteam mit praxiserprobtem fundiertem Wissen

  • Datenschutzrecht
  • IT-Recht
  • Know-how-Schutz
  • Arbeitsrecht und IT
  • Nationale und internationale Standards
  • Regulatorien

Angebot anfordern

 

Unverbindliche Anfrage

 

Natürlich 100% vertraulich, kostenfrei und unverbindlich!

Hinweis zur Verwendung von Cookies
Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Sie können die Verwendung von Cookies annehmen oder ablehnen. Weitere Informationen hierzu erhalten Sie in unserer Datenschutzerklärung