Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Robot Recruiting

04/2023

Die Haftung des Arbeitgebers für Persönlichkeitsverletzungen beim Einsatz von Künstlicher Intelligenz im Bewerbungsprozess

I. Einleitung

Wie findet man am effizientesten den perfekt geeigneten Mitarbeiter? Diese Frage stellt sich täglich für Arbeitgeber weltweit – und endlich scheint dank modernster Technologie eine befriedigende Antwort in Sicht. Seit Jahren tüfteln Wissenschaftler bereits an Künstlicher Intelligenz («KI») und können dabei kontinuierlich neue Erfolge vorweisen.  Nun scheint der Zeitpunkt gekommen zu sein, KI auch ins Arbeitsumfeld zu integrieren. Angeregt wurde diese Entwicklung mitunter durch die Covid-19-Pandemie, welche eine grundsätzliche Umverteilung auf dem Arbeitsmarkt bewirkte. Viele Arbeitgeber haben heutzutage Mühe, gut ausgebildetes Personal zu finden – und dies nicht nur bei notorisch knappen Fachkräften wie Pflegenden oder IT-Spezialisten. Gleichzeitig fehlt dem Arbeitgeber häufig die Zeit, langwierige Bewerbungsprozesse durchzuführen. Was wäre deshalb einfacher, als ein zuverlässiges Computerprogramm die Suche nach passenden Angestellten übernehmen zu lassen?

So gut diese Lösung auf den ersten Blick erscheint, eine gewisse Vorsicht ist dennoch angebracht. Denn der Einsatz einer KI bietet eigene Risiken, für welche der Arbeitgeber allenfalls einzustehen hat. Im Folgenden wird zuerst dargestellt, wo KI heute und zukünftig im Bewerbungsprozess eine Rolle spielen kann, bevor in einem zweiten Schritt aufgezeigt wird, wann ein Arbeitgeber grundsätzlich im Bewerbungsprozess haftet. Ausgestattet mit diesem Wissen wird anschliessend die zentrale Frage, wann ein Arbeitgeber für den Einsatz oder eine Handlung der KI haftbar gemacht werden kann, im Detail analysiert.

II. Der Einsatz von KI im Bewerbungsprozess

1. Definition von KI

Die Wissenschaft befasst sich seit längerem mit der Entwicklung von KI, welche mit Hilfe von Computersystemen menschliche Denk- und Verhaltensweisen simuliert. Dies geschieht durch die Verarbeitung grosser Mengen an eingespeisten Trainingsdaten, welche es dem IT-System erlauben, Muster und Korrelationen zu erkennen und diese auf zukünftige Sachverhalte anzuwenden – kurz gesagt, die KI ist ein lernfähiges Computersystem.

2. Status quo

Bereits relativ etabliert ist der Einsatz von KI bei Personalvermittlungen und Personalverleihern. Während Arbeitnehmer ihre Lebensläufe und Arbeitszeugnisse online in einem Nutzer-Profil auf der entsprechenden Plattform hochladen können, wenden sich Arbeitgeber mit ihren Stellenangeboten sowie ihren Auswahlkriterien an den Betreiber der digital ablaufenden Stellenvermittlung. Der Algorithmus der Plattform sucht nun für jede ausgeschriebene Stelle den am besten geeigneten Kandidaten und lädt diesen automatisch zur Bewerbung ein. So erhält der Arbeitgeber nur auf die Ausschreibung zugeschnittene Bewerbungen von einigen wenigen Kandidaten, die alle (objektiven) Voraussetzungen erfüllen.

Der Arbeitgeber kann auch selbst eine Software einsetzen, welche alle eingehenden Bewerbungen automatisch analysiert und eine Selektion anhand definierter oder von der KI gelernten Kriterien vornimmt. In den USA sind bereits KI-Systeme im Einsatz, die Bewerbungsvideos anhand von Körpersprache und Mimik analysieren und basierend darauf Persönlichkeitsprofile erstellen. In der Schweiz ist diese Vorgehensweise bisher sehr umstritten. Unterhält der Arbeitgeber ein eigenes Stellenportal im Internet, kann eine KI auch in Form von Chatbots mit potentiellen Bewerbern agieren und gestellte Fragen beantworten. Nach Eingang der Bewerbungen kann die KI für den Arbeitgeber Fragen für Vorstellungsgespräche entwickeln oder diese sogar mittels Chatfunktion selbst führen.

3. Ausblick in die Zukunft

Heute würde noch kaum ein Arbeitgeber eine längerfristige Stelle einzig aufgrund der Empfehlung einer KI besetzen. Der persönliche Eindruck über den Charakter, die Motivation und die sozialen Kompetenzen der Bewerbenden wird von Arbeitgebern nach wie vor als sehr wichtig eingestuft. Dies kann sich aber in Zukunft durchaus ändern, denn das Potential von KI als Rekrutierungsinstrument ist noch lange nicht ausgeschöpft. Die Technologie entwickelt sich stetig weiter und es können sicherlich noch weitere Anwendungsmöglichkeiten für KI gefunden werden. Möglich wäre beispielsweise die Verhaltensanalyse von Bewerbern, welche mit spezifisch zugeschnittenen Problemen und Aufgaben konfrontiert werden. Im Extremfall wird künftig der gesamte Bewerbungsprozess von der Stellenausschreibung über das Bewerbungsgespräch bis zur Endentscheidung von einer KI gesteuert, ohne dass der Arbeitgeber selbst direkt je Einfluss genommen hat.

4. Möglichkeiten der Persönlichkeitsverletzung

Es sind einige Szenarien vorstellbar, in welchen der Einsatz von KI im Bewerbungsprozess zu einer Persönlichkeitsverletzung führen könnte. Beispielsweise werden gewisse Stellenangebote durch die Vorselektion der KI nur noch wenigen, den Kriterien entsprechenden Personen angezeigt. In den Medien präsent ist weiter die Ablehnung geeigneter Bewerber durch eine KI, welche basierend auf Stichwörtern und vorgegebenen Kriterien die Bewerbungsschreiben sortiert. Eine Studie der Harvard Business School kam zum Schluss, dass allein im Jahr 2021 ungefähr 27 Millionen Bewerbungsschreiben von den genutzten Softwares der Arbeitgeber in einer Vorselektion aussortiert wurden, obwohl es sich um brauchbare Bewerber gehandelt hätte. Diese Vergeudung an Arbeitspotential ist bedauerlich, stellt jedoch noch keine Persönlichkeitsverletzung dar. Der Bewerbende hat schliesslich kein Recht auf eine Anstellung, nur weil er objektiv alle Kriterien der Stellenbeschreibung zu erfüllen vermag. Ausserdem kann es auch bei einer menschlichen Triage dazu kommen, dass brauchbare Bewerbungen einer Vorselektion zum Opfer fallen.

Problematisch hingegen ist eine Selektion der KI basierend auf diskriminierenden Kriterien. Die KI stützt ihre Entscheidungen dabei auf die unabsichtliche oder absichtliche Reproduktion von Vorurteilen, welche durch die eingespeisten, ihr zum Lernen dienenden Daten beigebracht werden. Schlagzeilen machte in dieser Hinsicht beispielsweise das eingesetzte KI-System der Firma Amazon. Dieses lernte aufgrund der getroffenen (menschlichen) Entscheidungen der letzten zehn Jahre, dass in der Technikbranche männliche Bewerber dominieren. Daraus lernte die KI, die Bewerbungen von weiblichen Arbeitsuchenden im Ranking herabzustufen und im Endeffekt abzulehnen. Auch in anderen Branchen kann diese Gefahr bestehen, wenn die KI lernt, auf längere Lücken im Lebenslauf zu achten, welche Frauen im traditionellen Familienbild aufgrund von Kinderbetreuung häufig aufweisen dürften. Die Diskriminierung durch KI muss sich aber nicht zwangsläufig auf das Geschlecht fokussieren, es gab leider in den vergangenen Jahren auch viele weitere Fälle von insbesondere rassistischen und altersdiskriminierenden Vorgehensweisen von KI-Systemen.

Weiter wäre eine Persönlichkeitsverletzung auch möglich als Folge von unzulässigen, von der KI generierten Bewerbungsfragen, welche in die grundrechtlich geschützten Arbeitnehmerinteressen eingreifen. Dies ist ein Problem vieler auf Algorithmen basierenden Persönlichkeitstests, insbesondere wenn die (Nicht-)Beantwortung solcher Fragen am Ende den Selektionsprozess beeinflusst. Zu beachten sind für den Arbeitgeber je nach eingesetztem KI-System auch die betreffenden Datenschutzregelungen. Problematisch ist insbesondere eine selbstständige, weiterführende Recherche der KI über die Bewerbenden im Internet und den sozialen Medien. Dies kann zu einer Sammlung von Personendaten führen, welche für die Eignungsabklärung der betreffenden Person für die ausgeschriebene Stelle nicht mehr relevant ist und damit eine Verletzung der Datenbearbeitungsgrundsätze darstellen kann.

III. Haftung des Arbeitgebers für Persönlichkeitsverletzungen im Bewerbungsprozess

Der Bewerbungsprozess wird in der Regel durch eine als invitatio ad offerendum zu qualifizierende Stellenausschreibung des Arbeitgebers eingeleitet. Mit der Bewerbungseinreichung tritt der Arbeitsuchende somit erst in ein Vertragsverhandlungsverhältnis. Während des Bewerbungsprozesses können sich die Arbeitsuchenden als Konsequenz noch nicht auf die im Arbeitsvertragsrecht und Arbeitsgesetz festgehaltenen Pflichten des Arbeitgebers zum Schutz ihrer Persönlichkeit berufen. Stattdessen werden die Persönlichkeitsrechte der Parteien in der Bewerbungsphase durch die nachfolgend dargestellten Regelungen geschützt.

Abgesehen von den in den entsprechenden Rechtsnormen gesetzlich verpönten Auswahlkriterien gilt jedoch die allgemeine Vertragsfreiheit. Der Arbeitgeber ist nicht verpflichtet, bei der Bewerbungsauswahl auf sachliche, objektiv nachvollziehbare Kriterien abzustellen.

1. Allgemeiner Persönlichkeitsschutz

a. Art. 28 ZGB

Das in Art. 28 ZGB statuierte Verbot widerrechtlicher Persönlichkeitsverletzung schützt die Persönlichkeitsrechte der Arbeitssuchenden in all ihren Ausprägungen, vom Recht auf Schutz der Privatsphäre bis zum Schutz vor Alters- oder Rassendiskriminierung. Die Widerrechtlichkeit der Verletzung eines Persönlichkeitsrechts liegt vor, falls sich der Arbeitgeber nicht auf ein überwiegendes Interesse berufen kann.

Allerdings muss die Frage aufgeworfen werden, was die Berufung auf Art. 28 ZGB einem in seiner Persönlichkeit verletzten Stellensuchenden praktisch tatsächlich nützt. Ein Anspruch auf Anstellung lässt sich aus einer Verletzung von Art. 28 ZGB wohl nicht ableiten. Dies wäre ein erheblicher Eingriff in die Vertragsfreiheit und kann nicht als zulässig erachtet werden. Ein allfälliger Anspruch auf Schadenersatz wird regelmässig auch nicht über die angefallenen direkten Kosten einer Bewerbung hinausgehen – deswegen ein Verfahren einzuleiten erscheint kaum lohnenswert. Möglich (aber in den wenigsten Fällen wohl tatsächlich erfolgsversprechend) wäre ein Anspruch auf Genugtuung bei einer schwerwiegenden Persönlichkeitsverletzung. Die Rechtsbehelfe von Art. 28 ZGB werden sich demgemäss in den meisten Fällen als wenig hilfreich erweisen.

b. Treu und Glauben

Art. 2 Abs. 1 ZGB verlangt vom Arbeitgeber ein Verhalten nach Treu und Glauben. Diese Generalklausel kann ausgelegt eine immense Fallrelevanz aufweisen. Im Bewerbungsprozess geschieht dies insbesondere in Fällen einer quasivertraglichen Haftung aus culpa in contrahendo. Bei einem Verstoss gegen das Gebot von Treu und Glauben im Vertragsverhandlungsverhältnis kann ein Geschädigter Anspruch auf den Ersatz des Schadens erheben, welcher ihm aus dem von der Gegenpartei erweckten Vertrauen auf das Zustandekommen eines Vertrags erwachsen ist. Die Gerichte zeigen sich jedoch sehr streng bei der Beurteilung, ob die Voraussetzungen für eine culpa in contrahendo vorliegen. Zusätzlich mindern die vergleichsmässig geringen Schadensummen sowie die bundesgerichtliche Rechtsprechung, analog zur deliktischen Haftung in Art. 60 OR für die culpa in contrahendo die kurze Verjährungsfrist von drei Jahren anzuwenden, für Bewerber regelmässig den Anreiz zu klagen. Nichtsdestotrotz kann die Haftung aus culpa in contrahendo den Arbeitgeber im Einzelfall treffen.

2. Das arbeitsrechtliche Diskriminierungsverbot

Erteilt der Arbeitgeber einem Bewerbenden eine Absage, hat der Arbeitssuchende grundsätzlich kein Recht auf eine Begründung. Sollte der Arbeitgeber jedoch trotzdem einen spezifischen Grund für den negativen Entscheid nennen, darf diese Begründung nicht gegen ein gesetzlich verankertes Diskriminierungsverbot verstossen.

a. Erscheinungsformen der Diskriminierung

Eine Diskriminierung ist gemäss bundesgerichtlicher Rechtsprechung eine qualifizierte Ungleichbehandlung von Personen in vergleichbaren Situationen, indem sie eine Benachteiligung von Menschen bewirkt, die als Herabwürdigung oder Ausgrenzung einzustufen ist. Dies geschieht, indem an Unterscheidungsmerkmalen anknüpft wird, die einen wesentlichen und nicht oder nur schwer aufgebbaren Bestandteil der Identität der betroffenen Personen ausmachen. Wenn ein Rechtsakt ohne hinreichende Rechtfertigung an ein sensibles Persönlichkeitsmerkmal anknüpft, wird von einer direkten Diskriminierung gesprochen. Eine indirekte, oft schwierig zu beweisende Diskriminierung liegt hingegen vor, wenn eine Regelung, die keine offensichtliche Benachteiligung von spezifisch gegen Diskriminierung geschützter Gruppen enthält, in ihren tatsächlichen Auswirkungen Angehörige einer solchen Gruppe ohne sachliche Begründung besonders stark benachteiligt.

b. Völkerrechtliche Diskriminierungsverbote

Diskriminierungsverbote finden sich in zahlreichen völkerrechtlichen Abkommen, so beispielsweise im UNO-Menschenrechtsübereinkommen, in der EMRK oder in den ILO-Übereinkommen. Die von der Schweiz ratifizierten Abkommen auferlegen dem Gesetzgeber die Pflicht, innerstaatlich einen wirksamen Schutz vor der Diskriminierung verschiedener Persönlichkeitsmerkmale zu gewährleisten. Damit ist der primäre Adressat dieser völkerrechtlichen Pflichten der Staat, wodurch die arbeitsrechtlich relevanten Diskriminierungsverbote auf private Arbeitgeber lediglich eine indirekte Drittwirkung entfalten.

c. Verfassungsrechtliches Diskriminierungsverbot

Um sowohl den völkerrechtlichen Ansprüchen gerecht zu werden als auch die bisherige richterliche Rechtsprechung zu kodifizieren, wurde im Jahr 1999 nach dem Gleichheitsgebot in Art. 8 Abs. 2 BV ein Diskriminierungsverbot in der Bundesverfassung festgehalten. Dieses verbietet jegliche Diskriminierung aufgrund einer Reihe nicht abschliessend aufgezählter Merkmale wie beispielsweise der Herkunft, des Geschlechts oder des Alters. Beim verfassungsrechtlichen Diskriminierungsverbot handelt es sich um ein Grundrecht, welches sich in erster Linie wieder an den Staat sowie an Institutionen, welche staatliche Aufgaben verrichten, richtet. Die staatlichen Behörden haben zwar grundsätzlich für die Wirksamkeit der Grundrechte auch unter Privaten zu sorgen. Durch den Konflikt zwischen dem Diskriminierungsverbot in Art. 8 Abs. 2 BV einerseits und der aus Art. 27 BV abgeleiteten Vertragsfreiheit andererseits wird eine Privatperson aufgrund der fehlenden direkten Drittwirkung vor Gericht einen schwierigen Stand haben, wenn allein gestützt auf Art. 8 Abs. 2 BV oder eine internationale Vereinbarung eine Diskriminierung im Bewerbungsprozess geltend gemacht wird.

d. Gesetzliches Diskriminierungsverbot

Neben den bereits erwähnten Bestimmungen in Art. 2 ZGB sowie Art. 28 ZGB wurde das Diskriminierungsverbot während des Bewerbungsprozesses vom Gesetzgeber insbesondere im Gleichstellungsgesetz umgesetzt. Dieses statuiert ausdrücklich, dass niemand aufgrund des Geschlechts vom Zugang zu Arbeitsstellen ausgeschlossen oder benachteiligt werden darf. Gerechtfertigt sein können Ausnahmen, wenn das Geschlecht selbst ein essentielles Merkmal der ausgeschriebenen Arbeit darstellt oder untrennbar mit der Erreichung eines rechtmässigen Arbeitsziels verknüpft ist. Eine bewerbende Person, welche sich ernsthaft um eine Stelle bemüht und aufgrund einer (in-)direkten Geschlechterdiskriminierung eine Absage erhält, hat Anspruch auf eine Entschädigung. Dazu muss die betroffene Person die Diskriminierung beweisen, ohne dabei von der für die meisten Diskriminierungstatbestände vorgesehenen Beweislasterleichterung profitieren zu können. Immerhin kann gestützt auf das Gleichstellungsgesetz vom Arbeitgeber eine schriftliche Begründung des negativen Entscheids verlangt werden. Zu beachten ist auch, dass das Diskriminierungsverbot in Art. 3 GlG bei einem Stelleninserat noch keine Anwendung findet. Es darf also theoretisch eine Stelle geschlechterspezifisch ausgeschrieben werden.

3. Datenschutz

Eine weitere Haftungsgrundlage für eine Persönlichkeitsverletzung kann sich aus dem Bundesgesetz über den Datenschutz ergeben. Dabei erweisen sich insbesondere die Datenbearbeitungsgrundsätze als relevant. Diese umfassen unter anderem die Rechtmässigkeit und Verhältnismässigkeit der Datenbearbeitung, ein Verhalten nach Treu und Glauben, das Zweckbindungsgebot, die Erkennbarkeit der Beschaffung und des Bearbeitungszwecks sowie die Datenrichtigkeit und -sicherheit. Das Bundesgericht kam vor kurzem in einer Abkehrung von der bisherigen Praxis zum Schluss, dass Art. 328b OR, welcher vorsieht, dass sich jegliche Datenbearbeitung durch den Arbeitgeber auf die Eignung für das Arbeitsverhältnis einzuschränken hat, ebenfalls als Bearbeitungsgrundsatz zu qualifizieren ist. Dies bedeutet, dass eine gegen Art. 328b OR verstossende Datenbearbeitung zwar rechtswidrig ist, sich allenfalls aber auf einen Rechtfertigungsgrund gemäss Art. 13 DSG stützen kann.

4. Das Verbot automatisierter Einzelentscheidungen

Wenn Entscheide, welche rechtliche Konsequenzen für die betroffenen Personen haben oder sie sonst in wesentlicher Weise beeinträchtigen, statt von einer Person durch ein algorithmusbasiertes System getroffen werden, spricht man von automatisierten Einzelentscheiden. Problematisch an solchen sind insbesondere die Entscheidfindungen anhand statischer Angaben, Berechnungen und schlussendlich eines Persönlichkeitsprofils (sog. Profiling). Verschiedene Nachbarländer der Schweiz sowie die EU haben Vorschriften zur Zulässigkeit solcher automatisierter Einzelentscheidungen erlassen. Der Schweizer Gesetzgeber plant nun im nDSG immerhin die Einführung einer Informationspflicht bei einer automatisierten Einzelentscheidung.

5. Zwischenfazit

Von praktischer Relevanz im Hinblick auf die Haftung des Arbeitgebers im Bewerbungsprozess sind für den Geschädigten hauptsächlich die Bestimmungen des Gleichstellungsgesetzes sowie allenfalls Art. 28 ZGB und die culpa in contrahendo. Diese Gesetzesbestimmungen sollen jedoch in erster Linie einen Schutz gegen ein rechtswidriges Verhalten des Arbeitgebers bieten. Was bedeutet es nun allerdings für diese Haftungsgrundlagen, wenn die Selektion der Bewerbenden nicht vom Arbeitgeber selbst, sondern durch eine KI vorgenommen wird?

IV. Haftung des Arbeitgebers für Handlungen der KI?

In der Schweiz gibt es heute noch keine explizite gesetzliche Regelung für die Haftung bei KI-Einsätzen. Eine interdepartementale Expertengruppe des Bundes kam sodann vor Kurzem zum Schluss, dass die bestehenden Rechtsnormen ausreichen würden, um sämtliche durch den Einsatz von KI beeinflussten Situationen rechtlich abzudecken. Diese Einschätzung wird in der Lehre jedoch zu Recht angezweifelt. Einem «gewöhnlichen» Roboter mangelt es an der Rechts- und Handlungsfähigkeit, womit er keine eigene rechtswirksame Willenserklärung abgeben kann. Solche Erklärungen und Handlungen sind dementsprechend einem Menschen zuzuordnen. Eine KI hingegen zeichnet sich dadurch aus, dass sie die Fähigkeit hat, aus eingespeisten Daten zu lernen und aus den daraus gezogenen Schlüssen mit einem gewissen Grad an Autonomie zu handeln. Aufgrund dessen wird die Kausalkette zwischen Handlungen der KI und deren Nutzer, hier dem Arbeitgeber, in der Gesellschaft als schwächer empfunden. Doch eine eigenständige Haftung der KI ist in unserem Rechtssystem nicht vorgesehen und momentan auch gar (noch) nicht umsetzbar – zuerst müssten zahlreiche Grundsatzfragen geklärt werden, wie zum Beispiel die Frage der Rechtsnatur einer KI, Beweislastregeln oder die Bestrafungsmöglichkeiten für KI.

Wird nun jedoch im Bewerbungsprozess das Persönlichkeitsrecht eines potentiellen Arbeitnehmers durch eine KI verletzt, müsste nach dem gängigen Rechtsempfinden jemand die rechtliche Verantwortung dafür übernehmen. Eine prominente Lehrmeinung vertritt dazu die Ansicht, dass dies der Arbeitgeber sein müsse. Andere sehen den Programmierer bzw. den Hersteller der KI oder deren Algorithmus-Trainer in der Pflicht.

1. Kausalitätsproblematik

Häufig wird bereits unklar sein, ob ein Schaden durch ein Produktfehler der KI oder ein Fehlverhalten des Arbeitgebers ausgelöst wurde. Verstärkt wird dies noch durch die Tatsache, dass die Daten für das kontinuierliche Training der KI aus Datenschutzgründen oftmals nicht oder nur in verschlüsselter Form verfügbar sind. Und selbst wenn die entsprechenden Daten abgerufen werden können, handelt es sich in der Regel um Millionen aus Codezeilen aus verschiedenen Quellen, was eine Rückverfolgung des Fehlers nahezu verunmöglicht. Erschwerend kommt noch hinzu, dass die einzelnen Daten nur einen Bruchteil der Funktionsweise einer KI beeinflussen. Damit wird die Kausalität zwischen der Persönlichkeitsverletzung und dem Verhalten der KI oder des Arbeitgebers oft nur sehr schwer nachzuweisen sein. Ohne Zugang zu allen vorhandenen Logdaten, zur Codierung der Software und unter Umständen sogar zu dem für das Training verwendeten Datensätzen wird es regelmässig unmöglich sein, den Entscheidungsprozess der KI transparent zu machen und damit die Kausalität nachzuweisen.

Ein möglicher, vielversprechender Ansatz zur Erleichterung der Beweisführung für die bewerbende Person wäre hier der Rückgriff auf die Doktrin des allgemeinen Gefahrensatzes. Damit müsste derjenige, der einen gefährlichen Zustand schafft, aufrechterhält oder anderweitig rechtsverbindlich zu vertreten hat, alle in seiner Situation erforderlichen und zumutbaren Schutzmassnahmen ergreifen, um eine Beeinträchtigung der gefährdeten Rechtsgüter zu verhindern. Wie der Arbeitgeber diese Schutzpflicht in der Praxis konkret umsetzen müsste, wäre von der Rechtsprechung zu etablieren.

Möglich wäre auch eine Angleichung der schweizerischen Gesetzgebung an die momentan in der EU diskutierte Beweislasterleichterung, welche in der Richtlinie über KI-Haftung vorgeschlagen wird. Diese sieht die Einführung einer «Kausalitätsvermutung» vor. Wenn Opfer beweisen können, dass eine Person eine für den Schaden relevante Verpflichtung nicht eingehalten hat und dass ein ursächlicher Zusammenhang mit einer KI-Leistung wahrscheinlich erscheint, darf das Gericht von einer Kausalität zwischen Nichteinhaltung der Verpflichtung und des Schadens ausgehen. Diese Vermutung wäre von der Gegenpartei zu widerlegen. Um an die einschlägigen Beweismittel zu gelangen, dürfen Kläger die Offenlegung von Informationen über Hochrisiko-KI-Systeme beantragen. Diese Handhabung der Problematik erscheint grundsätzlich sinnvoll, jedoch wäre für Arbeitnehmer eine Ausweitung der Informationsoffenlegung auf alle KI-Systeme notwendig.

2. Verschuldensabhängige Haftung

Grundsätzlich gibt es zwei mögliche Haftungssubjekte: der Arbeitgeber als Nutzer der KI und der Hersteller. Die Zuordnung einer ergangenen Persönlichkeitsverletzung in die Risikosphäre einer der beiden Haftungssubjekte gestaltet sich als überaus schwierig. Der Arbeitgeber wird sich bei der Frage nach der Haftung zweifellos auf den Standpunkt stellen, dass der KI-Hersteller durch seine Programmierung die Kontrolle über das Handeln der KI innehält. Die Lernfähigkeit der KI wird jedoch graduell mit der Zunahme der Nutzungsdauer zu einer Verminderung der Kontrolle des Herstellers führen. Entscheidend für eine verschuldensabhängige Haftung muss also schlussendlich sein, wie der Arbeitgeber mit dem KI-System interagiert und welche Kontrollmöglichkeiten er besitzt.

Für eine grundsätzliche Haftung des Arbeitgebers spricht, dass er die Entscheidungsgewalt darüber hat, wann, wo und zu welchen Zwecken er ein KI-System einsetzt. Gleichzeitig profitiert auch in erster Linie er von der Nutzung einer KI. Aus Sicht des Bewerbenden ist eine Haftung des Arbeitgebers natürlich einer Haftung des KI-Herstellers vorzuziehen, denn in Anbetracht der momentanen Rechtslage hat der Bewerber keine gesetzliche Haftungsgrundlage, mit welcher er direkt gegen den KI-Hersteller vorgehen könnte. Meist wird auch schon die Information, um welchen Hersteller bzw. Programmierer es sich im spezifischen Fall handelt, nur mit Mühe zu bekommen sein. Ebenfalls zu bedenken sind die arbeitnehmerschutzbedingten prozessualen Vereinfachungen im Arbeitsprozess.

Gegen eine Haftung des Arbeitgebers wird jedoch in den meisten Fällen sprechen, dass ohne besondere Sachkenntnisse die wenigsten Arbeitgeber in der Lage sein werden, über die KI Kontrolle auszuüben, geschweige denn ihre internen technischen Vorgänge nachzuvollziehen. Deshalb wird von einem Teil der Lehre auch dafür plädiert, die Haftung auf professionelle KI-Nutzer einzuschränken. Selbstverständlich sollte es aber in jedem Fall darauf ankommen, wie sehr der Arbeitgeber in den Entscheidungsprozess der KI eingebunden ist. Es muss differenziert werden zwischen Szenarien, in welchen die KI lediglich als Entscheidungshilfesystem fungiert («human in the loop»), die KI vom Arbeitgeber überwacht selbstständig Entscheidungen trifft («human on the loop») und völlig autonomen Entscheidfindungsprozessen der KI («human off the loop»).

Ein Verschulden des Arbeitgebers müsste in jedem Fall im Sinne einer Sorgfaltspflichtverletzung erfolgen. Eine solche könnte beim Einsatz der KI, bei der Datenauswahl für den Lernprozess, bei der Wartung oder bei der Überwachung auftreten. Eine praktische Schwierigkeit wird sich ergeben, wenn es darum geht, einen realistischen Sorgfaltsmassstab festzulegen. Für den technischen Laien wird es nämlich in der Regel sehr schwierig sein, eine vernünftige Einschätzung darüber zu treffen, in welchen Situationen die Entscheidungen der KI übersteuert werden sollen – sofern diese überhaupt als einzelständige Entscheidungen erkenntlich sind. Die kontinuierlichen technischen Fortschritte bei der Entwicklung von KI werden hier noch erschwerend hinzukommen. Vernünftig durchsetzbar wäre zum heutigen Zeitpunkt wohl lediglich die Feststellung eines Verschuldens, wenn der Arbeitgeber gegen die vom Hersteller bekanntgegebenen Informationen zum bestimmungsgemässen und sicheren Gebrauch der KI verstösst. Expertengruppen arbeiten seit Längerem daran, das Problem der mangelnden Nachvollziehbarkeit von KI-Entscheiden durch eine konkrete Aufgliederung der technischen Prozesse zu beheben (sog. Explainable AI). Dies mag für bestimmte Empfängerkreise durchaus von Nutzen sein und künftig eine Basis für eine entsprechende Haftungsgrundlage schaffen, durch die Heterogenität der Arbeitgeber in der Schweiz müssten die entsprechenden Erklärungen allerdings auf ein generelles technisches Niveau heruntergebrochen werden, dass schlussendlich am praktischen Mehrwert solcher Darstellungen zu zweifeln ist.

Von Teilen der Lehre wird aufgrund der genannten Gründe eine Verschärfung der Verschuldenshaftung von KI-Benützern befürwortet. Eine solche würde jedoch tiefgreifende rechtliche Änderungen wie beispielsweise die Subsumtion einer KI als Gehilfe im Sinne von Art. 55 OR oder eine Verschuldenshaftung mit einer widerlegbaren Vermutung des Verschuldens oder des Kausalzusammenhangs erfordern. Zum jetzigen Zeitpunkt sind dies jedoch (noch) rechtstheoretische Diskussionen, welche für die Haftung der Arbeitgeber beim Einsatz von KI keine praktische Relevanz haben dürften.

3. Verschuldensfrage bei spezifischen Persönlichkeitsverletzungen im Bewerbungsprozess

Die durch eine KI begangenen Persönlichkeitsverletzungen im Bewerbungsprozess werden bezüglich des Verschuldens eines Arbeitgebers im Einzelfall beurteilt werden müssen. In Fällen von unzulässigen Bewerbungsfragen sowie Datenschutzverletzungen dürfte wohl regelmässig derjenige verantwortlich sein, welcher die Programmierung vornimmt und dabei der KI keine angemessenen Schranken setzt. Dies wird in der Regel nicht der Arbeitgeber sein. Ausgenommen sind selbstverständlich Fälle, in welchen der Arbeitgeber konkret eine bestimmte unzulässige Bewerbungsfrage vorgibt, da hier die Kontrolle klar beim Arbeitgeber und nicht beim Programmierer der KI liegt.

Anders sieht die Situation allenfalls aus, wenn die KI aufgrund von Datensätzen, welche vom Arbeitgeber stammen, ein diskriminierendes Verhalten erlernt. Jede diskriminierende Entscheidung einer KI stellt letztendlich lediglich eine Wiederholung bzw. Vertiefung menschlichen Verhaltens dar. Demzufolge wäre in Fällen, in welchen aus den vom Arbeitgeber gelieferten und damit gutgeheissenen Daten bereits Diskriminierungen ersichtlich sind, eine Haftung des Arbeitgebers durchaus möglich. Falls der Arbeitgeber zusätzlich für eine bestimmte Stellenausschreibung noch Kriterien und Stichworte vorgibt, welche eine Diskriminierung weiter unterstützen, muss fast von einer Zurechnung in die Risikosphäre des Arbeitgebers ausgegangen werden.

4. Verschuldensunabhängige Haftung

Wie aufgezeigt ist der Verschuldensnachweis neben dem Kausalitätsbeweis eines der Hauptprobleme bei der Frage der Haftung für KI-Systeme. Eine verschuldensunabhängige Haftung wäre deshalb auf den ersten Blick eine einfache Lösung, birgt allerdings bei näherer Betrachtung ihre eigenen Probleme. Für Gefahrenquellen mit besonders hohem Risikofaktor existieren für KI im geltenden Recht bereits Haftungsregelungen, so beispielsweise im SVG bzw. LFG für KI-gesteuerte Fahrzeuge oder Drohnen. Für KI, wie sie ein Arbeitgeber im Bewerbungsprozess nützt, gibt es derzeit soweit ersichtlich noch keine spezifische anwendbare Haftungsnorm. Weitere Regulierungsansätze, wie beispielsweise die Idee, das schweizerische Datenschutzrecht an die neuen technischen Herausforderungen durch KI anzupassen, wurden bisher nicht gross weiterverfolgt.

V. Fazit und Ausblick

Zusammenfassend muss festgehalten werden, dass der zunehmende Einsatz von KI für die heutigen Schweizer Haftungsregelungen eine erhebliche Herausforderung darstellt. Klar ist, dass der Einsatz von KI im Bewerbungsprozess erweiterte Möglichkeiten für eine Persönlichkeitsverletzung schafft.

Bereits die Feststellung, ob überhaupt durch das Verhalten einer KI eine Persönlichkeitsverletzung ergangen ist und wem eine solche kausal zugerechnet werden kann, dürfte in der Praxis grösste Schwierigkeiten bereiten und überdies in der Regel zwingend ein vertieftes technisches Verständnis voraussetzen. Die Beweislast der Persönlichkeitsverletzung trägt zudem der Bewerbende, welcher ohne Einsicht in die Algorithmen oder zumindest in die eingespeisten Datensätze kaum Erfolg haben wird. Dazu kommt, dass sich der Hersteller der KI als nicht direkt in den Gerichtsprozess involvierte Partei regelmässig gegen eine Datenherausgabe sträuben wird. Generell befindet sich der Bewerbende durch das vorvertragliche Verhältnis in einer schwachen Position, da er in seiner Persönlichkeit hauptsächlich durch rechtliche Generalnormen und das Gleichstellungsgesetz geschützt ist. Aufgrund dieser Tatsachen dürfte es auch zukünftig kaum zu Haftungsfällen des Arbeitgebers basierend auf Persönlichkeitsverletzung durch den Einsatz von KI kommen. Dafür fehlen schlicht die gesetzlichen Grundlagen und eine Rechtspraxis. Einzig bei einer offensichtlich diskriminierenden Selektion der Bewerbenden durch eine KI kann zum heutigen Zeitpunkt eine Haftung des Arbeitgebers realistisch gesehen allenfalls eine erfolgsversprechende Rechtsverfolgung nach sich ziehen.

Trotz der eingeschränkten Haftung des Arbeitgebers durch fehlende rechtliche Regelungen sollte der Einsatz von KI im Bewerbungsprozess nicht verteufelt werden. Im Endeffekt ist es wohl schwierig zu beurteilen, ob eine KI oder ein Mensch einen Bewerbungsprozess objektiv betrachtet auf gerechtere Art und Weise durchführen kann. Eine KI wird nie durch Krankheit ausfallen, kann Bewerbungen viel gründlicher und schneller durchsehen und, falls gewünscht, in zahlreichen Sprachen agieren. Theoretisch können arbeitsrechtliche Vorgaben sogar besser umgesetzt werden als von einem menschlichen Arbeitgeber, weil die entscheidenden Algorithmen im Vorfeld kontrolliert werden können. Man könnte ausserdem argumentieren, dass der Einsatz von KI auch genutzt werden kann, um unbewusste menschliche Vorurteile im Bewerbungsprozess komplett auszuschliessen, indem der KI beigebracht wird, streng nach ausgesuchten objektiven Kriterien zu entscheiden. Beispielsweise könnte man eine Altersdiskriminierung vermeiden, indem der KI beigebracht wird, lediglich auf den Detailreichtum, die Geschwindigkeit sowie die grammatikalische Korrektheit der Antworten in einem Bewerbungsinterview zu achten. Dies wäre schlussendlich ein grosser Gewinn für Arbeitgeber und -nehmer.

Wie sehr Arbeitgeber im Bewerbungsprozess zukünftig von KI Gebrauch machen werden – und sich damit die Rechtsprechung zwangsläufig näher mit den sich damit stellenden Haftungsfragen beschäftigen muss -, bleibt abzuwarten. Momentan wird noch stark zu von Menschen geführten Bewerbungsgesprächen tendiert, während eine Vorselektion der Bewerbungsschreiben durch KI bereits teilweise umgesetzt und von der Gesellschaft auch mehrheitlich akzeptiert wird. Es bleibt stark zu hoffen, dass der Schweizer Gesetzgeber in naher Zukunft eine detailliertere Regelung für die rechtliche Handhabung von KI erlassen wird. Nur so können die KI-Hersteller und Arbeitgeber ausreichend motiviert werden, seriös und unter Beachtung der Rechte der Bewerber zu agieren. An der Wirksamkeit einer freiwilligen Selbstregulierung darf aufgrund der bisherigen Erfahrung gezweifelt werden. Durch klare Leitlinien wird ein rechtmässiger Einsatz von KI im Arbeitsumfeld gefördert, was wiederum zu neuen Erfahrungswerten und Erkenntnissen für die Wissenschaft und damit letztlich zu mehr technischer Innovation führt. Es erscheint essentiell, insbesondere die Kausalitäts- und Verschuldensthematik bei Haftungsfragen im Zusammenhang mit KI einer generellen, abstrakten Lösung zuzuführen, damit der Bewerber als schwächere Partei im Anstellungsprozess in seinen Rechten geschützt wird. Weiter wäre es sinnvoll, wenn der Bund durch gezieltes Informieren seiner Bürger, insbesondere der Arbeitgeber, zu einer Sensibilisierung der Bevölkerung für diese Thematik beitragen würde.

Zur einfacheren Lesbarkeit wurden die Quellverweise entfernt.

Fabia Stöcklin, Robot Recruiting, sui generis 2023, S. 1

https://doi.org/10.21257/sg.223

https://creativecommons.org/licenses/by-sa/4.0/


© Swiss Infosec AG 2024