Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Transparenz und Rechenschaftspflicht in KI-Systemen: Sicherung des Wohlergehens im Zeitalter der algorithmischen Entscheidungsfindung

Die rasche Integration von Systemen der künstlichen Intelligenz (KI) in verschiedene Bereiche hat Bedenken hinsichtlich ihrer Auswirkungen auf das individuelle und gesellschaftliche Wohlergehen geweckt, insbesondere aufgrund der mangelnden Transparenz und Rechenschaftspflicht bei ihren Entscheidungsprozessen. Diese Übersicht soll einen Überblick über die wichtigsten rechtlichen und ethischen Herausforderungen im Zusammenhang mit der Umsetzung von Transparenz und Rechenschaftspflicht in KI-Systemen geben. Dabei werden vier Hauptthemenbereiche identifiziert: technische Ansätze, rechtliche und regulatorische Rahmenbedingungen, ethische und gesellschaftliche Überlegungen sowie interdisziplinäre und Multi-Stakeholder-Ansätze. Durch die Zusammenfassung des aktuellen Forschungsstandes und den Vorschlag von Schlüsselstrategien für politische Entscheidungsträger trägt dieser Bericht zum laufenden Diskurs über verantwortungsvolle KI-Governance bei und legt den Grundstein für zukünftige Forschung in diesem wichtigen Bereich. Letztlich geht es darum, das individuelle und gesellschaftliche Wohlergehen zu fördern, indem sichergestellt wird, dass KI-Systeme auf transparente, verantwortliche und ethische Weise entwickelt und eingesetzt werden.

1 Einleitung

Diese narrative Literaturübersicht (im Folgenden als „Übersicht“ bezeichnet) soll einen Überblick über die wichtigsten rechtlichen Herausforderungen geben, die mit der Gewährleistung von Transparenz und Rechenschaftspflicht bei Systemen der künstlichen Intelligenz (KI) verbunden sind, um das individuelle und gesellschaftliche Wohlergehen zu schützen. Durch die Untersuchung dieser Herausforderungen aus verschiedenen Blickwinkeln, einschliesslich Nutzern, Anbietern und Regulierungsbehörden, möchte diese Übersicht einen Beitrag zum laufenden Diskurs über eine verantwortungsvolle KI-Governance leisten und die Bedeutung eines umfassenden Ansatzes für den Umgang mit den Risiken und Chancen von KI-Technologien hervorheben.

Um die Untersuchung von KI-Transparenz und -Rechenschaftspflicht in der breiteren Forschungslandschaft zu verorten, wird in dieser Übersicht der aktuelle Wissensstand in diesem Bereich untersucht. Diese Übersicht ist um vier zentrale Themenbereiche herum strukturiert (wie weiter unten erläutert). Im Gegensatz zu einer systematischen Übersichtsarbeit, die einem strengen Protokoll folgt und auf die Beantwortung einer bestimmten Forschungsfrage abzielt, bietet eine narrative Übersichtsarbeit einen breiteren Überblick über ein Thema und lässt mehr Flexibilität bei der Auswahl und Interpretation der Literatur zu.

Für die Zwecke dieser Übersicht wird KI als die Entwicklung und Nutzung von Computersystemen definiert, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie Lernen, Problemlösung und Entscheidungsfindung. Wohlbefinden bezieht sich im Kontext der KI-Governance auf die allgemeine Lebensqualität und das Wohlergehen des Einzelnen und der Gesellschaft und umfasst Aspekte wie körperliche und geistige Gesundheit, Sicherheit, Privatsphäre, Autonomie, Fairness und sozialen Zusammenhalt. Durch die Fokussierung auf die Überschneidung von KI und Wohlbefinden soll dieser Überblick die Bedeutung der Berücksichtigung der breiteren gesellschaftlichen Auswirkungen von KI-Technologien über ihre technischen Möglichkeiten hinaus unterstreichen.

Die rasante Entwicklung und der Einsatz von KI-Systemen in verschiedenen Bereichen wie Gesundheitswesen, Bildung, Beschäftigung und Strafjustiz haben drängende Fragen über ihre Auswirkungen auf das individuelle und gesellschaftliche Wohlbefinden aufgeworfen. Da KI-Algorithmen immer ausgefeilter und autonomer werden, können ihre Entscheidungsprozesse undurchsichtig werden, so dass es für den Einzelnen schwierig ist, zu verstehen, wie diese Systeme sein Leben gestalten. Dieser Mangel an Transparenz und das Potenzial von KI-Systemen, Vorurteile aufrechtzuerhalten, unbeabsichtigten Schaden anzurichten und die Menschenrechte zu verletzen, hat zu Forderungen nach mehr Verantwortlichkeit bei der KI-Governance geführt.

Transparenz und Rechenschaftspflicht sind weithin als wesentliche Grundsätze für die verantwortungsvolle Entwicklung und den Einsatz von KI anerkannt. Transparenz ermöglicht es dem Einzelnen zu verstehen, wie KI-Systeme Entscheidungen treffen, die sich auf sein Leben auswirken, während die Rechenschaftspflicht sicherstellt, dass es klare Mechanismen für die Zuweisung von Verantwortung und die Bereitstellung von Wiedergutmachung gibt, wenn diese Systeme Schaden verursachen. Die Umsetzung dieser Grundsätze in der Praxis ist jedoch eine Herausforderung, da sie oft mit anderen wichtigen Überlegungen wie dem Datenschutz, dem geistigen Eigentum und der Komplexität von KI-Systemen kollidieren.

In Anbetracht der entscheidenden Bedeutung von Transparenz und Rechenschaftspflicht in KI-Systemen und der derzeitigen Lücken in den Governance-Rahmenwerken versucht dieser Bericht, die Forschungsfrage zu beantworten: Wie können Transparenz und Rechenschaftspflicht in KI-Systemen umgesetzt werden, um das individuelle und gesellschaftliche Wohlergehen zu verbessern und gleichzeitig andere konkurrierende Interessen wie Datenschutz, geistiges Eigentum und Systemkomplexität auszugleichen? Die Überprüfung gruppiert die Literatur in einen Rahmen, um klare Themen und analytische Schwerpunkte aufzuzeigen und Schlüsselbereiche der Forschung und laufende Debatten zu identifizieren.

Die wichtigsten rechtlichen Herausforderungen, die in diesem Papier behandelt werden, wurden auf der Grundlage ihrer Bedeutung in der bestehenden Literatur, ihrer Relevanz für das Ziel der Förderung von Transparenz und Rechenschaftspflicht in KI-Systemen und ihrer potenziellen Auswirkungen auf das individuelle und gesellschaftliche Wohlergehen ausgewählt. Diese Herausforderungen wurden durch eine umfassende Durchsicht der juristischen, ethischen und technischen Fachliteratur über KI-Governance identifiziert. Bei der Auswahl wurden auch die Perspektiven verschiedener Interessengruppen berücksichtigt, darunter KI-Nutzer, -Anbieter und -Regulierer, um einen ausgewogenen und umfassenden Ansatz für die Analyse dieser Herausforderungen zu gewährleisten.

Das Hauptziel dieser Übersicht ist es, die besondere Rolle von Transparenz und Rechenschaftspflicht in KI-Systemen zu untersuchen, da sie sich auf das individuelle und gesellschaftliche Wohlergehen beziehen. Durch die Fokussierung auf diese beiden kritischen Aspekte der KI-Governance soll dieser Bericht eine gezieltere und tiefgreifendere Analyse der rechtlichen, ethischen und technischen Herausforderungen bieten, die mit der Umsetzung von Massnahmen zur Transparenz und Rechenschaftspflicht verbunden sind. Dieser eingeschränkte Fokus ermöglicht eine umfassende Untersuchung der aktuellen Landschaft, bestehender Rahmenwerke und potenzieller Lösungen, um die KI-Governance zu verbessern und die Risiken für das menschliche Wohlergehen zu mindern.

2 Technische Ansätze für Transparenz und Rechenschaftspflicht

2.1 Erklärbare KI (XAI) und Interpretierbarkeit

Technische Ansätze für Transparenz und Rechenschaftspflicht in KI-Systemen konzentrieren sich auf den Einsatz von technologischen Methoden, Werkzeugen und Techniken, um sicherzustellen, dass diese Systeme verständlich, interpretierbar und überprüfbar sind. Diese Ansätze zielen darauf ab, Einblicke in die Entscheidungsfindungsprozesse von KI-Systemen zu gewähren, potenzielle Verzerrungen oder Fehler zu identifizieren und die Nutzer in die Lage zu versetzen, die Ergebnisse dieser Systeme zu verstehen und zu hinterfragen.

KI-Techniken, die neuronale Netze für tiefes Lernen beinhalten, sind oft „Black Boxes“, deren Innenleben für Menschen undurchschaubar ist. Dieser Mangel an Transparenz und Erklärbarkeit bei KI-Systemen stellt die Rechenschaftspflicht vor erhebliche Herausforderungen. In der Rechtssache Houston Federation of Teachers v. Houston Independent School District 251 F. Supp. 3d 1168 (S.D. Tex. 2017) verklagte die Houston Federation of Teachers den Schulbezirk wegen der Verwendung des Educational Value-Added Assessment System (EVAAS), eines KI-gestützten Tools zur Bewertung der Lehrerleistung. Die Gewerkschaft argumentierte, dass der Algorithmus undurchsichtig sei und keine ausreichenden Erklärungen für seine Ergebnisse liefere, so dass es für die Lehrer schwierig sei, ihre Bewertungen anzufechten. Der Fall wurde schliesslich beigelegt, wobei der Bezirk zustimmte, für mehr Transparenz und einen angemessenen Prozessschutz zu sorgen.

Daher hat sich die erklärbare KI (XAI) zu einem wichtigen Forschungsbereich entwickelt, der darauf abzielt, KI-Systeme für den Menschen besser interpretierbar zu machen. Ribeiro et al. haben Techniken wie LIME (Local Interpretable Model-agnostic Explanations) eingeführt, die lokale, interpretierbare Modelle bereitstellen, um die Vorhersagen eines beliebigen Klassifikators zu erklären. LIME hilft den Benutzern, komplexe Modelle zu verstehen, indem sie sie durch einfachere, interpretierbare Modelle um einzelne Vorhersagen herum annähern. Trotz ihres Nutzens steht die XAI vor erheblichen Herausforderungen, insbesondere dem Kompromiss zwischen Modellkomplexität und Interpretierbarkeit. Wachter et al. betonen, dass komplexere Modelle zwar oft genauer, aber weniger interpretierbar sind, was es schwierig macht, vollständige Transparenz zu erreichen.

Neuere Studien haben die Anwendungen von XAI weiter ausgebaut. Rane et al. untersuchen die Auswirkungen von XAI-Ansätzen auf die Verbesserung der Transparenz bei finanziellen Entscheidungsprozessen. Ihre Studie zeigt, dass XAI zwar die Transparenz erhöhen kann, aber auch eine sorgfältige Kalibrierung erfordert, um ein Gleichgewicht zwischen Erklärbarkeit und der Vertraulichkeit sensibler Finanzdaten zu wahren. Baker und Xiang argumentieren, dass XAI integraler Bestandteil einer verantwortungsvollen KI (RAI) ist und zeigen, wie Erklärbarkeit die Vertrauenswürdigkeit und soziale Verantwortung von KI-Systemen erhöht. Sie betonen die Notwendigkeit branchenspezifischer Richtlinien, um sicherzustellen, dass XAI-Methoden in verschiedenen Sektoren angemessen angewendet werden.

Wenn KI bei wichtigen Entscheidungen eingesetzt wird, gibt es ein starkes gesellschaftliches Interesse daran, die Funktionsweise des Systems zu verstehen, seine Ergebnisse zu hinterfragen und eine Begründung für KI-beeinflusste Entscheidungen zu verlangen. Die Allgemeine Datenschutzverordnung der Europäischen Union (GDPR) enthält ein „Recht auf Erklärung“, das die Offenlegung der Logik hinter ausschliesslich automatisierten Entscheidungen verlangt, die sich erheblich auf Einzelpersonen auswirken. Es ist jedoch unklar, was eine sinnvolle Erklärung im Zusammenhang mit komplexen KI-Systemen ist und wie dieses Recht in der Praxis durchgesetzt werden kann.

Einige Länder gehen dazu über, Transparenz für bestimmte KI-Systeme mit hohem Risiko vorzuschreiben. Das KI-Gesetz der EU verlangt von Anbietern von KI-Systemen mit hohem Risiko die Offenlegung der wichtigsten Merkmale ihrer Modelle, einschliesslich der Trainingsdaten, der Modellarchitektur und der Leistungskennzahlen. In den USA wurde der Algorithmic Accountability Act of 2023 als Gesetzentwurf wieder eingebracht, der Folgenabschätzungen für hochriskante automatisierte Entscheidungssysteme in sensiblen Bereichen vorschreibt.

Transparenz allein reicht jedoch nicht aus, um Rechenschaft abzulegen, denn die Erklärungen zu KI-Systemen können immer noch sehr technisch und für Betroffene und Regulierungsbehörden schwer zu durchschauen sein. Verschiedene Interessengruppen haben möglicherweise auch unterschiedliche Erklärungsbedürfnisse, die verschiedene Arten und Formate von Erklärungen erfordern. Technische Ansätze für erklärbare KI zielen darauf ab, besser interpretierbare Begründungen für KI-Ergebnisse zu liefern, z.B. durch die Analyse der Bedeutung von Merkmalen, kontrafaktische Erklärungen und die Extraktion von Regeln. Andere technische Hilfsmittel für die KI-Prüfung sind „ethische Blackboxen“, die Schlüsselereignisse im Betrieb eines KI-Systems aufzeichnen, um eine nachträgliche Untersuchung zu ermöglichen.

2.2 Audits und Folgenabschätzungen

Algorithmische Prüfungen und Folgenabschätzungen sind entscheidend für die Verbesserung der Verantwortlichkeit in KI-Systemen. Kroll et al. schlagen Algorithmus-Audits als Mittel zur Aufdeckung von Diskriminierung und anderen Verzerrungen in KI-Systemen vor. Bei diesen Prüfungen werden die Eingaben, Prozesse und Ausgaben von KI-Systemen unter die Lupe genommen, um Voreingenommenheiten zu erkennen und abzuschwächen, die in den anfänglichen Entwicklungsphasen möglicherweise nicht offensichtlich sind. In ähnlicher Weise plädieren Reisman et al. für algorithmische Folgenabschätzungen, bei denen die gesellschaftlichen Auswirkungen von KI-Systemen vor ihrem Einsatz bewertet werden. Diese Bewertungen helfen dabei, potenzielle Risiken und Vorteile zu verstehen und dadurch bessere Design- und Governance-Praktiken zu finden.

Eine explorative Studie von Hohma et al. untersucht den Einsatz von Risiko-Governance-Methoden zur Verwaltung der KI-Rechenschaftspflicht. Durch Workshops mit KI-Praktikern identifiziert die Studie kritische Merkmale, die für ein effektives KI-Risikomanagement erforderlich sind, und bietet praktische Einblicke in den Umgang mit Risiken, die mit dem Einsatz von KI verbunden sind. Die Studie unterstreicht die Notwendigkeit eines anpassungsfähigen Rahmens für das Risikomanagement, der sich mit dem technologischen Fortschritt weiterentwickeln kann. Einige Wissenschaftler argumentieren jedoch, dass algorithmische Prüfungen durch die Komplexität von KI-Systemen und den proprietären Charakter vieler Algorithmen eingeschränkt werden können, was den Zugang zu den für gründliche Prüfungen erforderlichen Daten einschränken kann.

Um diese Perspektiven miteinander in Einklang zu bringen, müssen standardisierte Prüfungsprotokolle entwickelt werden, die ein Gleichgewicht zwischen der Notwendigkeit einer gründlichen Bewertung und den praktischen Beschränkungen des Zugangs zu geschützten Informationen herstellen. So könnten Unternehmen gesetzlich verpflichtet werden, externen Prüfern im Rahmen von Vertraulichkeitsvereinbarungen Zugang zu gewähren, um sowohl umfassende Prüfungen als auch den Schutz des geistigen Eigentums zu gewährleisten. Darüber hinaus könnte die Einrichtung unabhängiger Aufsichtsgremien die Glaubwürdigkeit und Effektivität von algorithmischen Prüfungen erhöhen.

3 Rechtliche und regulatorische Rahmenbedingungen

Die rechtlichen und regulatorischen Rahmenbedingungen spielen eine entscheidende Rolle bei der Förderung von Transparenz und Verantwortlichkeit in KI-Systemen. Datenschutzgesetze fördern die Transparenz, indem sie Unternehmen dazu verpflichten, Informationen über ihre Datenverarbeitungspraktiken offenzulegen und Einzelpersonen den Zugang und die Kontrolle über ihre persönlichen Daten zu ermöglichen. Diese Gesetze fördern auch die Rechenschaftspflicht, indem sie Einzelpersonen das Recht einräumen, automatisierte Entscheidungen anzufechten und Rechtsmittel bei Verletzungen ihrer Datenschutzrechte einzulegen. In ähnlicher Weise fördern Antidiskriminierungsgesetze die Rechenschaftspflicht, indem sie den Einsatz von KI-Systemen verbieten, die zu diskriminierenden Ergebnissen führen, und dem Einzelnen Mechanismen zur Verfügung stellen, um den Rechtsweg zu beschreiten. Durch die explizite Verknüpfung dieser Rechtsnormen mit Transparenz und Rechenschaftspflicht wird ein besseres Verständnis dafür ermöglicht, wie rechtliche und regulatorische Rahmenbedingungen zur Steuerung von KI-Systemen beitragen.

3.1 Gesetze zum Schutz von Daten und Privatsphäre

Gesetze zum Datenschutz und zum Schutz der Privatsphäre sind von entscheidender Bedeutung für die Verbesserung der Transparenz und Rechenschaftspflicht bei KI-Systemen. Kaminski erörtert das „Recht auf Erklärung“ der Datenschutzgrundverordnung, das für Transparenz bei der Entscheidungsfindung in der KI sorgen soll. Die praktische Umsetzung dieses Rechts ist jedoch umstritten und es gibt Debatten über seinen Umfang und seine Durchsetzbarkeit. In den Vereinigten Staaten stellt der California Consumer Privacy Act (CCPA) einen Schritt in Richtung grösserer Datentransparenz und Verbraucherkontrolle dar, indem er Unternehmen dazu verpflichtet, die Kategorien personenbezogener Daten, die sie sammeln, und die Zwecke, für die sie diese Daten verwenden, offenzulegen.

In der neueren Literatur werden diese rechtlichen Rahmenbedingungen weiter untersucht. Matulionyte untersucht 20 nationale, regionale und internationale politische Dokumente zu KI und vergleicht deren Ansätze zur Transparenz. Die Studie identifiziert bewährte Verfahren zur Definition von Transparenz, zur Abgrenzung von verwandten Begriffen wie Erklärbarkeit und Interpretierbarkeit und zur Abgrenzung des Umfangs der Transparenzpflichten für öffentliche und private Akteure. Die Arbeit von Matulionyte hebt die unterschiedlichen Transparenzanforderungen in den verschiedenen Rechtsordnungen hervor und schlägt vor, diese Standards zu harmonisieren, um die internationale Zusammenarbeit bei der KI-Governance zu erleichtern.

Trotz der Vorteile kritisieren einige Wissenschaftler, wie z.B. Wachter und Mittelstadt, das „Recht auf Erklärung“ der Datenschutz-Grundverordnung als zu vage und schwierig in der Durchsetzung. Sie argumentieren, dass es der Verordnung an klaren Richtlinien zur Tiefe und Breite der erforderlichen Erklärungen fehlt, was zu uneinheitlichen Anwendungen und Rechtsunsicherheiten führen kann. Um diese Ansichten miteinander in Einklang zu bringen, sind präzisere regulatorische Definitionen und Durchsetzungsmechanismen erforderlich, die klare Erwartungen an KI-Entwickler und -Betreiber stellen. Dies könnte die Entwicklung branchenspezifischer Leitlinien und bewährter Verfahren beinhalten, um eine einheitliche Anwendung der Transparenzanforderungen zu gewährleisten.

Big-Data-Analysen und maschinelles Lernen, die KI-Systemen zugrunde liegen, stehen oft in einem Spannungsverhältnis zu diesen zentralen Datenschutzprinzipien. KI gedeiht auf grossen, vielfältigen Datensätzen und findet einen Wert in der Wiederverwendung von Daten für zunächst nicht spezifizierte Zwecke. KI-Systeme stützen sich oft auf schlussfolgernde Analysen, um aus nicht sensiblen Daten sensible Erkenntnisse über Personen abzuleiten. Die Undurchsichtigkeit von „Blackbox“-Maschinenlernmodellen steht im Widerspruch zu den Datenschutzgesetzen, die den Schwerpunkt auf Transparenz, Interpretierbarkeit und individuelle Rechte legen.

Es gibt auch Lücken im Anwendungsbereich und der Anwendbarkeit der aktuellen Datenschutzgesetze auf KI-Systeme. Techniken zur De-Identifizierung, bei denen persönliche Identifikatoren entfernt werden, werden eingesetzt, um gesetzliche Verpflichtungen zu umgehen, aber KI kann oft Daten reidentifizieren oder sensible Attribute aus anonymisierten Datensätzen ableiten. Viele Datenschutzbestimmungen gelten nicht für Rückschlüsse auf Einzelpersonen, wenn sie nicht auf regulierten Kategorien personenbezogener Daten beruhen. Verbote für ausschliesslich automatisierte Entscheidungsfindung sind schwer durchzusetzen, wenn KI-Systeme menschliche Entscheidungen auf subtile Art und Weise informieren oder beeinflussen.

In der Klage gegen Clearview AI wurde Clearview AI, ein Startup-Unternehmen für Gesichtserkennung, von der American Civil Liberties Union (ACLU) verklagt, weil es gegen den Biometric Information Privacy Act (BIPA) von Illinois verstossen hat. Das Unternehmen hat Milliarden von Fotos aus sozialen Medien und anderen Websites gesammelt, um seine Gesichtserkennungsdatenbank aufzubauen, angeblich ohne die Zustimmung der Betroffenen einzuholen. Dieser Fall wirft wichtige Fragen zu den Auswirkungen von KI-Systemen auf den Datenschutz auf, die auf grossen Mengen persönlicher Daten beruhen. Er verdeutlicht das Spannungsverhältnis zwischen der Entwicklung von KI und den Grundsätzen des Datenschutzes, wie z.B. der Einwilligung und der Zweckbindung. Er verdeutlicht die Notwendigkeit eines stärkeren Rahmens für die Datenverwaltung, um sicherzustellen, dass KI-Systeme die Rechte des Einzelnen auf Privatsphäre respektieren.

Die Behebung dieser Spannungen und Lücken erfordert wahrscheinlich sowohl eine Verfeinerung des Datenschutzrechts als auch die Entwicklung neuer KI-Governance-Rahmenwerke. Dazu könnte die Ausweitung des Begriffs „personenbezogene Daten“ auf Rückschlüsse und abgeleitete Daten gehören, die Verpflichtung zu Datenschutz-Folgenabschätzungen und Algorithmus-Audits für KI-Systeme mit hohem Risiko und die Forderung nach einer detaillierten Modelldokumentation, um Transparenz zu schaffen.

Es werden auch neue Modelle und Praktiken für die Verwaltung von Daten benötigt, wie z.B. Datentreuhandgesellschaften, Datenkooperativen und föderierte Lernansätze, die datenschutzfreundliche Datenanalysen ermöglichen. Technische Lösungen wie differentieller Datenschutz, homomorphe Verschlüsselung und sichere Mehrparteienberechnungen können dazu beitragen, die Risiken für den Datenschutz bei der Entwicklung und dem Einsatz von KI zu minimieren. Technische und rechtliche Lösungen allein reichen jedoch nicht aus, um das gesamte Ausmass der durch KI aufgeworfenen Datenschutzprobleme zu bewältigen. Es sind proaktive Governance-Massnahmen erforderlich, um sich mit den breiteren gesellschaftlichen Auswirkungen der KI auf Privatsphäre, Autonomie und informationelle Selbstbestimmung auseinanderzusetzen. Dies erfordert die Einbindung verschiedener Interessengruppen, um kontextbezogene Normen und Werte zu ermitteln, die in die ethische Gestaltung und Überwachung von KI-Systemen einfliessen, die den Datenschutz betreffen.

Es gibt auch Spannungen zwischen Transparenzzielen und anderen wichtigen Werten wie dem Schutz der Privatsphäre und des geistigen Eigentums. Die Daten und Modelle, die den KI-Systemen zugrunde liegen, berühren oft die Interessen der Privatsphäre von Personen, die in den Trainingsdatensätzen enthalten sind. Die proprietäre Natur der meisten kommerziellen KI-Systeme stellt ein Hindernis für die Transparenz dar, da die Unternehmen Geschäftsgeheimnisse geltend machen, um ihre Modelle vor einer Überprüfung zu schützen.

3.2 Anti-Diskriminierungs- und Fairness-Vorschriften

Antidiskriminierungsgesetze werden zunehmend so ausgelegt, dass sie auf KI-Systeme anwendbar sind, um Bedenken über algorithmische Voreingenommenheit auszuräumen. So hat das US-Ministerium für Wohnungsbau und Stadtentwicklung (HUD) 2019 eine Regelung vorgeschlagen, die den Einsatz von KI und anderen algorithmischen Werkzeugen bei Wohnungsentscheidungen verbietet, wenn sie eine diskriminierende Wirkung haben, unabhängig von der Absicht. Diese Regelung soll verhindern, dass KI-Systeme bestehende Vorurteile aufrechterhalten oder verstärken. Im Beschäftigungskontext haben mehrere öffentlichkeitswirksame Fälle die Notwendigkeit eines robusten Regulierungsrahmens deutlich gemacht. So stellte Amazon 2018 sein KI-gestütztes Rekrutierungstool ein, nachdem festgestellt worden war, dass es Frauen diskriminiert, was die Bedeutung von Fairness und Verantwortlichkeit bei KI-Systemen für die Einstellung unterstreicht. Neuere Studien, wie die von Sareen, befassen sich mit der Überschneidung von KI und Wettbewerbsrecht. Sareen untersucht die Rolle der Erklärbarkeit bei der Identifizierung und Bekämpfung wettbewerbswidriger KI-Praktiken und betont die Notwendigkeit von mehr Transparenz und algorithmischer Rechenschaftspflicht, um einen fairen Wettbewerb zu gewährleisten.

Andere Ansichten vertritt Calo, der argumentiert, dass Antidiskriminierungsgesetze möglicherweise nicht ausreichen, um die nuancierte Art und Weise anzugehen, in der KI Vorurteile aufrechterhalten kann. Calo schlägt vor, dass gezieltere, speziell auf KI-Anwendungen zugeschnittene Regelungen erforderlich sind, um die algorithmische Diskriminierung wirksam zu bekämpfen. Er schlägt die Entwicklung von KI-spezifischen Antidiskriminierungsregelungen vor, die den besonderen Herausforderungen der algorithmischen Entscheidungsfindung Rechnung tragen. Houser erklärt, warum verantwortungsbewusste KI dazu beitragen könnte, Diskriminierung in menschlichen Entscheidungsprozessen abzuschwächen. Um diese Perspektiven miteinander in Einklang zu bringen, müssen bestehende Antidiskriminierungsregelungen mit neuen KI-spezifischen Vorschriften verknüpft werden, die sich mit den besonderen Herausforderungen algorithmischer Entscheidungsfindung befassen. Dieser Ansatz kann sicherstellen, dass für KI-Systeme die gleichen Standards der Fairness und Gerechtigkeit gelten wie für traditionelle Entscheidungsprozesse.

Wenn KI eingesetzt wird, um Entscheidungen zu treffen, die sich auf das Leben der Menschen auswirken, z. B. bei der Einstellung, der Kreditvergabe, der Gesundheitsfürsorge und der Strafjustiz, besteht die Gefahr, dass sie die Diskriminierung aufrechterhält und verstärkt. Es gibt zahlreiche Beispiele dafür, dass KI Voreingenommenheit zeigt und ungleiche Auswirkungen hat. Es hat sich gezeigt, dass Gesichtserkennungssysteme bei Menschen mit dunklerer Hautfarbe eine höhere Fehlerquote aufweisen. KI-basierte Einstellungsinstrumente haben Frauen und rassische Minderheiten diskriminiert. Algorithmen zur vorausschauenden Polizeiarbeit haben einkommensschwache und von Minderheiten bewohnte Viertel unverhältnismässig stark überwacht. Risikobewertungsinstrumente, die in der Untersuchungshaft, bei Verurteilungen und bei Bewährungsentscheidungen eingesetzt werden, weisen rassistische Verzerrungen auf.

Im Fall Staat gegen Loomis 881 N.W.2d 749 (Wis. 2016) wurde Eric Loomis zu 6 Jahren Haft verurteilt, die zum Teil auf einer Risikobewertung von COMPAS beruhten, einem KI-gestützten Tool zur Vorhersage von Rückfälligkeit. Loomis argumentierte, dass die Verwendung des Algorithmus seine Rechte auf ein ordnungsgemässes Gerichtsverfahren verletzte, da er aufgrund des geschützten Charakters des Tools nicht in der Lage war, dessen Genauigkeit und mögliche Verzerrungen anzufechten. Der Oberste Gerichtshof von Wisconsin bestätigte schliesslich die Verwendung des Algorithmus und stellte fest, dass dieser nur ein Faktor bei der Urteilsfindung war. Der Fall Loomis zeigt, dass KI-basierte Tools in einem so wichtigen Bereich wie der Strafzumessung zu Vorurteilen und diskriminierenden Ergebnissen führen können. Er wirft wichtige Fragen zur Fairness und Transparenz der algorithmischen Entscheidungsfindung auf und unterstreicht die Notwendigkeit robuster Rechenschaftsmechanismen.

Bestehende Antidiskriminierungsgesetze wie der Civil Rights Act, der Fair Housing Act und der Equal Credit Opportunity Act verbieten die Diskriminierung aufgrund von geschützten Merkmalen wie Ethnie, Geschlecht, Alter und Behinderung. Diese Gesetze konzentrieren sich jedoch grösstenteils auf vorsätzliche Diskriminierung und sind nicht gut geeignet, um die komplexen und oft unbeabsichtigten Wege, auf denen KI zu voreingenommenen Ergebnissen führen kann, anzugehen.

Es ist eine Herausforderung, KI-Verzerrungen zu erkennen und abzuschwächen, da sie aus verschiedenen Quellen stammen können: Verzerrungen in den Trainingsdaten, Verzerrungen bei den für die Vorhersageziele verwendeten Bezeichnungen, Verzerrungen bei der Auswahl der Merkmale und der Modellarchitektur sowie Verzerrungen bei der Interpretation und Verwendung der Modellergebnisse. Techniken zum Testen auf Verzerrungen und zum Abbau von Verzerrungen erfordern oft den Zugang zu sensiblen demografischen Informationen, was mit Antidiskriminierungsgesetzen in Konflikt geraten kann, die die Erhebung von Daten geschützter Gruppen verbieten.

Der Umgang mit algorithmischen Verzerrungen erfordert einen vielschichtigen Ansatz. Dazu gehören technische Lösungen wie Bias-Tests, algorithmische Fairness-Beschränkungen und kontrafaktische Fairness-Modelle. Er erfordert auch prozessbasierte Steuerungsmechanismen wie algorithmische Folgenabschätzungen, die Beteiligung von Interessengruppen an der KI-Entwicklung und die laufende Überwachung und Prüfung von KI-Systemen auf diskriminierende Auswirkungen. Einige haben sich für einen „diskriminierungsbewussten“ Ansatz für die KI-Governance ausgesprochen, der die begrenzte Verwendung von Daten geschützter Gruppen für die Prüfung von Vorurteilen und die Schadensbegrenzung erlaubt. Andere schlagen vor, KI-Entwickler zu verpflichten, mögliche negative Auswirkungen auf marginalisierte Gruppen während des gesamten KI-Lebenszyklus proaktiv zu berücksichtigen und die Schritte zu dokumentieren, die zur Identifizierung und Abschwächung von Risiken diskriminierender Schäden unternommen wurden.

Rein technische Ansätze für algorithmische Fairness sind jedoch von Natur aus begrenzt, da Fairness ein sehr kontextabhängiges und umstrittenes Konzept ist, das die Auseinandersetzung mit komplexen sozialen, politischen und ethischen Entscheidungen erfordert. Algorithmische Voreingenommenheit entsteht oft, wenn KI-Systeme für eine einzelne Kennzahl wie die Vorhersagegenauigkeit optimiert werden, während andere kontextbezogene Ziele und Werte ignoriert werden. Die Beherrschung von KI-Voreingenommenheit erfordert daher die proaktive Einbindung betroffener Gemeinschaften, um ihre Erfahrungen zu verstehen und auf KI-Systeme hinzuarbeiten, die Gleichstellungsziele positiv fördern. Es ist notwendig, die konventionellen Rahmenwerke zur Nichtdiskriminierung zu überdenken, um die systemischen und intersektionalen Auswirkungen der KI zu berücksichtigen. Zu den Vorschlägen gehören die Anpassung der Doktrin der unterschiedlichen Auswirkungen, um unbeabsichtigte Ergebnisse von KI-Systemen zu erfassen und den Schutz vor Diskriminierung auf KI-generierte Stellvertreter für geschützte Merkmale auszuweiten.

3.3 Produkthaftung

Da KI-Systeme in eine wachsende Zahl von Verbraucherprodukten und -dienstleistungen integriert werden, stellen sich Fragen zur Haftung, wenn KI Schäden verursacht. Die herkömmliche Produkthaftungslehre sieht eine verschuldensunabhängige Haftung der Hersteller fehlerhafter Produkte für Verletzungen vor, die durch Fabrikationsfehler, Konstruktionsfehler oder unzureichende Warnhinweise verursacht wurden. Die autonome und anpassungsfähige Natur der KI stellt jedoch die Anwendung dieses traditionellen Produkthaftungsrahmens in Frage. Bei einem herkömmlichen Produkt ist in der Regel klar, wie ein Herstellungs- oder Konstruktionsfehler dazu geführt hat, dass es unangemessen gefährlich war. Bei KI-Systemen kann der Schaden jedoch aus dem autonomen Verhalten oder den Entscheidungen der KI resultieren, die nicht speziell von den Entwicklern programmiert wurden, sondern sich aus dem Lernen der KI in ihrer Umgebung ergeben. Dies wirft komplexe Fragen der Vorhersehbarkeit und der unmittelbaren Verursachung bei der Bestimmung der Haftung auf.

Es ist auch schwierig zu definieren, was ein „Fehler“ in einem KI-System ist. Ist eine KI fehlerhaft, wenn sie verzerrte Ergebnisse produziert? Wenn ein KI-System wie beabsichtigt funktioniert, aber aufgrund der unbeabsichtigten Folgen seines Optimierungsziels Schaden verursacht, ist dies dann ein Konstruktionsfehler? Es ist schwierig festzustellen, ob das Verhalten einer KI ein „Fehler“ ist oder einfach ein inhärentes Risiko, das mit der beabsichtigten Funktionalität der KI verbunden ist. Ausserdem beschränkt die „Komponenten“-Doktrin im Produkthaftungsrecht die Haftung von Komponentenverkäufern für Schäden, die durch das integrierte Endprodukt verursacht werden. Bei KI-Systemen ist es aufgrund des Potenzials für emergente Eigenschaften, die sich aus dem Zusammenspiel verschiedener KI-Komponenten ergeben, schwierig, die Haftung auf die verschiedenen Akteure zu verteilen, die an den Trainingsdaten, der Modellentwicklung und der Integration beteiligt sind.

Einige haben vorgeschlagen, diese Lücken durch eine neue, speziell auf KI zugeschnittene Haftungsregelung zu schliessen, z. B. durch eine verschuldensunabhängige Haftung für kommerzielle Anbieter von KI-Systemen, um deren Rolle als Nutzniesser und deren Fähigkeit, die Geschädigten zu entschädigen, anzuerkennen. Andere plädieren für einen auf Fahrlässigkeit basierenden Haftungsstandard, bei dem KI-Entwickler haften würden, wenn sie den Sorgfaltsstandard verletzen, den ein vernünftiger KI-Entwickler anwenden würde.

Abgesehen von der Haftungszuweisung stellen die Komplexität und Undurchsichtigkeit von KI-Systemen auch eine Herausforderung für die Bewertung von Kausalität und Schaden in Produkthaftungsfällen dar. Kläger haben Schwierigkeiten, Beweise dafür zu erlangen, dass ein KI-System ihre angeblichen Schäden verursacht hat, da das Innenleben von KI-Systemen häufig als Geschäftsgeheimnis geschützt ist und möglicherweise nicht durch herkömmliche Offenlegungsprozesse zugänglich ist. Die Aufteilung des Schadensersatzes wird auch dadurch erschwert, dass KI-Systeme diffuse Schäden verursachen können, die für sich genommen geringfügig, aber in ihrer Gesamtheit signifikant sind, wie etwa kleinere Unannehmlichkeiten oder negative externe Effekte. Daher könnten Aktualisierungen der Verfahrensmechanismen erforderlich sein, um Transparenz in KI-bezogenen Rechtsstreitigkeiten zu ermöglichen. So könnten KI-Unternehmen verpflichtet werden, interne KI-Notfallteams einzurichten, um die Untersuchung von Produkthaftungsansprüchen zu koordinieren, oder die Offenlegung bestimmter Datenprotokollierungs-, Test- und Validierungsdokumente in Bezug auf angeblich fehlerhafte KI-Systeme zu erzwingen.

4 Ethische und gesellschaftliche Überlegungen

4.1 Ethischer Rahmen und Grundsätze

Ethische Rahmenwerke und Grundsätze bieten Orientierung für die verantwortungsvolle Entwicklung und den Einsatz von KI-Systemen. Die IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems hat Prinzipien für ethische KI vorgeschlagen, darunter Transparenz, Verantwortlichkeit und die Förderung des menschlichen Wohlergehens. Diese Prinzipien dienen als Grundlage für die Entwicklung von KI-Systemen, die mit gesellschaftlichen Werten und ethischen Standards in Einklang stehen. Die Gewährleistung von Fairness und Gerechtigkeit in KI-Systemen ist ebenfalls ein zentrales ethisches Anliegen. Mehrabi et al. betonen die Bedeutung von Fairness und schlagen Methoden vor, um Verzerrungen in KI-Systemen zu erkennen und abzuschwächen und so Diskriminierung zu verhindern und Inklusion zu fördern.

Floridi untersucht die ethischen Implikationen der KI und betont dabei die Verschärfung von Vorurteilen, Bedenken hinsichtlich der Privatsphäre und die Notwendigkeit von Transparenz und Rechenschaftspflicht. Floridi hebt „die globalen Herausforderungen der KI hervor, wie z.B. ihre Auswirkungen auf die Umwelt und Sicherheitsrisiken, und betont die Bedeutung internationaler Zusammenarbeit und kulturell sensibler ethischer Richtlinien.“ Seine Forschung unterstreicht die Notwendigkeit, ethische Überlegungen in den gesamten KI-Lebenszyklus einzubinden, von der Entwicklung bis zum Einsatz.

Im Gegensatz zum Konsens über ethische KI-Grundsätze argumentiert Floridi auch, dass ethische Grundsätze allein ohne durchsetzbare rechtliche Rahmenbedingungen unzureichend sind. Floridi betont, dass ethischen Richtlinien oft die notwendigen Durchsetzungsmechanismen fehlen, um ihre Einhaltung zu gewährleisten, und fordert rechtlich verbindliche Regelungen, die ethische Grundsätze ergänzen. Er schlägt vor, dass eine Kombination aus ethischen Richtlinien und gesetzlicher Aufsicht einen umfassenderen Ansatz für die KI-Governance bieten kann. Um diese Ansichten miteinander in Einklang zu bringen, ist ein dualer Ansatz erforderlich, der ethische Richtlinien mit robusten rechtlichen Rahmenbedingungen verbindet, um sowohl die moralische als auch die rechtliche Verantwortlichkeit in KI-Systemen zu gewährleisten. Dieser Ansatz kann sicherstellen, dass KI-Systeme ethische Standards einhalten und gleichzeitig einer regulatorischen Aufsicht unterliegen.

4.2 Öffentliches Vertrauen und Akzeptanz

Der Aufbau von öffentlichem Vertrauen in KI-Systeme ist entscheidend für ihre breite Einführung und Wirksamkeit. Studien haben gezeigt, dass undurchsichtige KI-Systeme zu öffentlicher Skepsis und Widerstand führen können, selbst wenn die Systeme das Potenzial haben, erhebliche Vorteile zu bieten. Floridi et al. argumentieren, dass Transparenz und Rechenschaftspflicht entscheidend sind, um das Vertrauen der Öffentlichkeit zu gewinnen, da sie es dem Einzelnen ermöglichen, die Entscheidungen, die sein Leben betreffen, zu verstehen und zu beeinflussen. Sie betonen, wie wichtig eine klare Kommunikation und der Dialog mit der Öffentlichkeit sind, um Vertrauen in KI-Systeme zu schaffen. Darüber hinaus unterstreicht Nemitz die Bedeutung der demokratischen Beteiligung an der KI-Governance, um sicherzustellen, dass die Entscheidungen über den Einsatz von KI die Werte und Prioritäten verschiedener Gemeinschaften widerspiegeln.

Andere Ansichten, wie die von Miller, legen nahe, dass vollständige Transparenz nicht immer wünschenswert oder notwendig ist. Miller argumentiert, dass zu viel Transparenz die Nutzer mit Informationen überhäufen kann, was eher zu Verwirrung als zu Klarheit führt. Er schlägt vor, dass die Transparenz kontextabhängig sein sollte, auf die Bedürfnisse der verschiedenen Interessengruppen zugeschnitten sein sollte und sich darauf konzentrieren sollte, umsetzbare Erkenntnisse zu liefern, anstatt erschöpfende Details zu liefern. Um diese Ansichten miteinander in Einklang zu bringen, ist ein Gleichgewicht zwischen ausreichender Transparenz, die Vertrauen schafft und Rechenschaft gewährleistet, und einer Überfrachtung der Nutzer mit übermässigen Details erforderlich. So können beispielsweise abgestufte Transparenzansätze allgemeinen Nutzern einen Überblick auf hohem Niveau bieten, während Experten detaillierte Erklärungen erhalten.

Neuere Studien, wie die von Oloyede, betonen die ethischen Überlegungen im Zusammenhang mit KI in der Cybersicherheit und konzentrieren sich auf die Bedeutung von Transparenz und Rechenschaftspflicht, um Vertrauen in KI-gesteuerte Systeme aufzubauen. Oloyede argumentiert, dass transparente KI-Systeme die Cybersicherheit verbessern können, indem sie die zugrundeliegenden Entscheidungsprozesse verständlich und überprüfbar machen und so das Vertrauen der Nutzer fördern. Kritiker wie Dignum argumentieren jedoch, dass der Aufbau öffentlichen Vertrauens mehr als nur Transparenz und Rechenschaftspflicht erfordert. Dignum schlägt vor, dass die aktive Einbindung und Aufklärung der Öffentlichkeit über KI-Technologien entscheidend ist, um Missverständnisse zu überwinden und informiertes Vertrauen zu fördern. Sie plädiert für öffentliche Bildungsinitiativen, die erklären, wie KI-Systeme funktionieren und welche Auswirkungen sie auf die Gesellschaft haben können. Um diese Ansichten miteinander in Einklang zu bringen, bedarf es einer umfassenden Strategie, die Transparenz und Rechenschaftspflicht mit Initiativen zur Aufklärung und Einbindung der Öffentlichkeit kombiniert. Dieser Ansatz stellt sicher, dass die Öffentlichkeit nicht nur Vertrauen in KI-Systeme hat, sondern auch deren Funktionsweise und Auswirkungen versteht. Öffentliche Foren, Workshops und Aufklärungskampagnen können bei der Erreichung dieses Ziels hilfreich sein.

5 Interdisziplinäre und Multi-Stakeholder-Ansätze

Interdisziplinäre und Multi-Stakeholder-Ansätze sind unerlässlich, um Transparenz und Rechenschaftspflicht in KI-Systemen zu erreichen. Die Zusammenarbeit zwischen verschiedenen Disziplinen wie Informatik, Recht, Ethik und Sozialwissenschaften kann dazu beitragen, die komplexen Herausforderungen im Zusammenhang mit der KI-Governance zu identifizieren und zu bewältigen.

5.1 Modelle der kooperativen Verwaltung

Effektive KI-Governance erfordert das Engagement verschiedener Interessengruppen, darunter politische Entscheidungsträger, Branchenführer, zivilgesellschaftliche Organisationen und die breite Öffentlichkeit. Ein solches Engagement stellt sicher, dass KI-Systeme in einer Weise entwickelt und eingesetzt werden, die eine Vielzahl von Perspektiven und Werten widerspiegelt. Lehr und Ohm schlagen vor, dass eine interdisziplinäre Zusammenarbeit zwischen Rechtswissenschaftlern, Ethikern und Datenwissenschaftlern unerlässlich ist, um ein umfassendes Rahmenwerk für KI-Transparenz und Rechenschaftspflicht zu entwickeln. Dieser interdisziplinäre Ansatz kann dazu beitragen, die komplexen und vielschichtigen Herausforderungen der KI-Governance anzugehen. Young et al. betonen auch die Bedeutung der öffentlichen Beteiligung an der KI-Governance und plädieren für Modelle, die Bürgerversammlungen, öffentliche Foren und andere deliberative Prozesse umfassen. Sie argumentieren, dass integrative Governance-Modelle sicherstellen können, dass KI-Systeme die Werte und Prioritäten der verschiedenen Gemeinschaften widerspiegeln. Die jüngste Literatur unterstreicht die Notwendigkeit solcher kooperativen Ansätze. Singhal et al. untersuchen die Anwendung von Fairness, Rechenschaftspflicht, Transparenz und Ethik (FATE) in der KI für soziale Medien und das Gesundheitswesen. Sie heben die Vorteile und Grenzen aktueller Lösungen hervor und zeigen zukünftige Forschungsrichtungen auf. Dabei betonen sie die Bedeutung interdisziplinärer Zusammenarbeit bei der Bewältigung der ethischen und gesellschaftlichen Herausforderungen der KI.

Wissenschaftler wie Nissenbaum argumentieren, dass Multi-Stakeholder-Ansätze aufgrund von Machtungleichgewichten zwischen den Interessengruppen ineffektiv sein können. Nissenbaum weist darauf hin, dass dominante Stakeholder, wie z.B. grosse Technologieunternehmen, unverhältnismässig grossen Einfluss auf die Ergebnisse der Politikgestaltung haben und die Interessen weniger mächtiger Gruppen untergraben können. Sie fordert Regulierungsmechanismen, die eine gerechte Beteiligung und Einflussnahme aller Interessengruppen gewährleisten. Um diese Ansichten miteinander in Einklang zu bringen, sind Mechanismen erforderlich, die eine gleichberechtigte Beteiligung und Einflussnahme aller Interessengruppen sicherstellen, möglicherweise durch regulatorische Aufsicht und strukturierte Beratungsprozesse. Die Einrichtung unabhängiger Regulierungsbehörden, die die KI-Governance überwachen und sicherstellen, dass die Stimmen aller Interessengruppen gehört werden, kann die Wirksamkeit von Multi-Stakeholder-Ansätzen erhöhen.

5.2 Abwägen konkurrierender Interessen

Der Ausgleich zwischen konkurrierenden Interessen wie Datenschutz, geistiges Eigentum und Transparenz ist eine der grössten Herausforderungen bei der Umsetzung einer effektiven KI-Governance. Fjeld et al. erörtern das Spannungsverhältnis zwischen Transparenz und Privatsphäre und stellen fest, dass Transparenzanforderungen sorgfältig ausgearbeitet werden müssen, um die Privatsphäre des Einzelnen nicht zu gefährden. Sie schlagen Lösungen vor, wie z.B. differenzierte Datenschutztechniken, um die individuelle Privatsphäre zu schützen und gleichzeitig Transparenz zu gewährleisten. Ananny und Crawford weisen auf die Herausforderung hin, geistiges Eigentum zu schützen und gleichzeitig Transparenz zu gewährleisten. Unternehmen zögern oft, proprietäre Algorithmen offenzulegen, was die Transparenzbemühungen behindern kann. Sie schlagen rechtliche und politische Lösungen vor, um diese konkurrierenden Interessen auszugleichen, z.B. die Gewährung von Zugang für externe Prüfer im Rahmen von Vertraulichkeitsvereinbarungen.

Im Jahr 2020 stimmte Facebook einem Vergleich in Höhe von 650 Millionen Dollar in einer Sammelklage zu, in der behauptet wurde, dass seine Gesichtserkennungstechnologie gegen den Illinois Biometric Information Privacy Act (BIPA) verstösst, indem sie biometrische Daten ohne Zustimmung der Nutzer erfasst und speichert. Dieser Vergleich wurde vom U.S. Court of Appeals for the Ninth Circuit in Patel v. Facebook, Inc. 932 F.3d 1264 (9th Cir. 2019) bestätigt. Darüber hinaus hat der Oberste Gerichtshof von Illinois im Jahr 2023 eine wichtige Entscheidung getroffen, die sich auf BIPA-Rechtsstreitigkeiten auswirkt. In der Rechtssache Cothron v. White Castle System, Inc. 2023 IL 128004 entschied das Gericht, dass jede Erhebung biometrischer Daten ohne ordnungsgemässe Zustimmung einen separaten Verstoss gegen den BIPA darstellt. Diese Entscheidung hat wichtige Auswirkungen auf die Berechnung des Schadensersatzes gemäss BIPA und kann zu erheblichen finanziellen Verpflichtungen für Unternehmen führen, die das Gesetz nicht einhalten.

Es müssen Rahmenwerke entwickelt werden, die Transparenz ermöglichen, ohne die Privatsphäre oder das geistige Eigentum zu gefährden. Dazu gehören die Anonymisierung von Daten zu Transparenzzwecken, die Anwendung von Techniken zum Schutz der Privatsphäre und die Sicherstellung, dass die Offenlegung der Transparenz so gestaltet ist, dass geschützte Informationen geschützt werden und gleichzeitig aussagekräftige Einblicke in den Betrieb von KI-Systemen gewährt werden. Rechtliche Mechanismen wie Vertraulichkeitsvereinbarungen für externe Prüfer und behördliche Aufsicht können helfen, diese konkurrierenden Interessen auszugleichen.

6 Der Weg nach vorn

Dieser Bericht zeigt die Herausforderungen auf, die mit dem Erreichen von KI-Transparenz und Rechenschaftspflicht verbunden sind. Es bedarf eines vielschichtigen Ansatzes, der technische Lösungen, rechtliche und regulatorische Rahmenbedingungen, ethische Grundsätze und die Zusammenarbeit mehrerer Interessengruppen kombiniert. Technische Ansätze, wie erklärbare KI und algorithmische Audits, bilden die Grundlage für das Verständnis und die Überwachung von KI-Systemen. Rechtliche und regulatorische Rahmenbedingungen, darunter Datenschutzgesetze und Antidiskriminierungsvorschriften, schaffen die notwendigen Schutzmechanismen und Durchsetzungsmechanismen. Ethische Grundsätze, wie die im Ethically Aligned Design des IEEE dargelegten, bieten Orientierung für die verantwortungsvolle Entwicklung und den Einsatz von KI-Systemen. Interdisziplinäre Zusammenarbeit und die Einbeziehung von Interessengruppen sind entscheidend, um sicherzustellen, dass die KI-Governance mit den gesellschaftlichen Werten übereinstimmt und das öffentliche Vertrauen fördert.

Die politischen Entscheidungsträger sollten die Entwicklung umfassender KI-spezifischer Antidiskriminierungsvorschriften in Erwägung ziehen, die die besonderen Herausforderungen der algorithmischen Entscheidungsfindung berücksichtigen. Eine wichtige Strategie besteht darin, regelmässige Überprüfungen von KI-Systemen vorzuschreiben, um diskriminierende Auswirkungen zu erkennen und abzuschwächen. Diese Audits sollten von unabhängigen Dritten durchgeführt werden, um Objektivität und Glaubwürdigkeit zu gewährleisten. Darüber hinaus kann die Verpflichtung von Unternehmen, detaillierte Transparenzberichte über die Fairness ihrer KI-Systeme zu veröffentlichen, einschliesslich Informationen über Trainingsdaten, Entscheidungsprozesse und Ergebnisse, die Rechenschaftspflicht fördern und das öffentliche Vertrauen stärken. Die Einrichtung klarer Rechtsmittel für Einzelpersonen, die glauben, durch voreingenommene KI-Entscheidungen geschädigt worden zu sein, ist ebenfalls entscheidend.

Die Beantwortung der Forschungsfrage, wie Transparenz und Rechenschaftspflicht in KI-Systemen effektiv umgesetzt werden können, erfordert einen vielschichtigen Ansatz, der rechtliche Doktrinen, ethische Grundsätze und technische Lösungen integriert. Die Entwicklung präziser rechtlicher Definitionen und Richtlinien für Transparenz und Rechenschaftspflicht, insbesondere im Hinblick auf das „Recht auf Erklärung“ gemäss der Datenschutz-Grundverordnung und ähnlicher Bestimmungen in anderen Rechtsordnungen, ist von wesentlicher Bedeutung. Der Ausgleich konkurrierender Interessen durch rechtliche Reformen, die Transparenz ermöglichen, ohne das geistige Eigentum zu gefährden, wie z.B. Vertraulichkeitsvereinbarungen und standardisierte Berichterstattung, ist eine weitere wichtige Strategie. Die Umsetzung gezielter Antidiskriminierungsvorschriften, die sich mit den besonderen Herausforderungen von KI-Systemen befassen, ist ebenfalls entscheidend. Dies kann Prüfungen von Vorurteilen, Transparenzberichte und Entschädigungsmechanismen umfassen. Durch die Integration dieser Strategien können politische Entscheidungsträger, Branchenführer und die Zivilgesellschaft einen robusten Governance-Rahmen schaffen, der das individuelle und gesellschaftliche Wohlergehen fördert und gleichzeitig die konkurrierenden Interessen, die mit KI-Systemen verbunden sind, ausgleicht.

Fortgesetzte interdisziplinäre Forschung und Zusammenarbeit sind unerlässlich, um diese Rahmenwerke als Reaktion auf die sich entwickelnde technologische und gesellschaftliche Landschaft anzupassen und zu verfeinern. Entscheidend für eine sinnvolle KI-Rechenschaftspflicht ist die Auseinandersetzung mit dem Machtungleichgewicht zwischen KI-Entwicklern und den von ihren Systemen Betroffenen. Dies erfordert vor allem, dass marginalisierte und gefährdete Bevölkerungsgruppen, die am meisten von KI-Schäden bedroht sind, in die Prozesse der KI-Governance und -Aufsicht einbezogen werden. Partizipatorische Ansätze zur Gestaltung der KI-Politik und zur Festlegung der Agenda sind für die Demokratisierung der KI-Rechenschaftspflicht unerlässlich.

Institutionelle Steuerungsmechanismen sind ebenfalls wichtig für die KI-Rechenschaftspflicht. Dazu gehören spezielle Aufsichtsgremien mit der technischen Expertise und den Ermittlungsbefugnissen, um KI-Systeme zu prüfen und Transparenzanforderungen durchzusetzen. Die Einrichtung von KI-Ombudsleuten und öffentlichen Fürsprechern könnte dazu beitragen, dass betroffene Gemeinschaften ihre Bedenken äussern und Wiedergutmachung für KI-bedingte Schäden verlangen können. Whistleblower-Schutz und ethische KI-Eide könnten ebenfalls dazu beitragen, die Rechenschaftspflicht innerhalb von KI-Organisationen zu fördern.

Jeder vorgeschlagene Rahmen für die Verbesserung der Transparenz und Rechenschaftspflicht von KI muss auf den grundlegenden ethischen Prinzipien der Achtung der Autonomie, des Wohlverhaltens, des Nicht-Malheurs und der Gerechtigkeit beruhen. Transparenz ist für die Achtung der Autonomie des Einzelnen unerlässlich, da sie es den Menschen ermöglicht zu verstehen, wie KI-Systeme Entscheidungen treffen, die ihr Leben beeinflussen, und sie in die Lage versetzt, diese Entscheidungen bei Bedarf anzufechten. Rechenschaftspflicht hingegen ist entscheidend, um sicherzustellen, dass KI-Entwickler und -Einrichter die Prinzipien des Wohlverhaltens und des Nicht-Malheurs einhalten, indem sie die Verantwortung für die Auswirkungen ihrer Systeme übernehmen und potenzielle Schäden abmildern. Darüber hinaus fördert der Fokus auf die Einbeziehung von Stakeholdern und kooperative Governance den Grundsatz der Gerechtigkeit, indem er sicherstellt, dass die Vorteile und Risiken der KI gerecht auf die Gesellschaft verteilt werden. Durch die Verankerung des Diskurses auf diesen ethischen Kernprinzipien bietet diese Überprüfung eine starke normative Grundlage für die Empfehlungen und unterstreicht deren Bedeutung für die Förderung des menschlichen Wohlergehens.

7 Schlussfolgerung

Auch wenn dieser Überblick eine Grundlage für die Verbesserung der KI-Transparenz und -Rechenschaftspflicht bietet, ist dies ein fortlaufender Prozess, der eine kontinuierliche Verfeinerung und Anpassung erfordert. Da sich die KI-Technologien weiterentwickeln und neue Herausforderungen auftauchen, sollte sich die zukünftige Forschung auf die Entwicklung robusterer und flexiblerer Governance-Mechanismen konzentrieren. Dies kann die Erforschung neuer technischer Lösungen für Erklärbarkeit und Prüfung, die Verfeinerung rechtlicher und regulatorischer Rahmenbedingungen zur Bewältigung neu auftretender Risiken und die Entwicklung effektiverer Mechanismen für die Beteiligung der Öffentlichkeit und die Einbeziehung von Interessengruppen umfassen. Darüber hinaus sollte künftige Forschung die praktische Umsetzung des vorgeschlagenen Rahmens in verschiedenen Bereichen und kulturellen Kontexten untersuchen, um seine Anwendbarkeit und Wirksamkeit bei der Förderung des menschlichen Wohlbefindens sicherzustellen.

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise sowie die Angaben zur Methodologie entfernt.

Cheong, Ben Chester, Transparenz und Verantwortlichkeit in KI-Systemen: Sicherung des Wohlbefindens im Zeitalter der algorithmischen Entscheidungsfindung (01. Juni 2024).

Frontiers in Human Dynamics, Band 6, 2024 [10.3389/fhumd.2024.1421273]

http://dx.doi.org/10.3389/fhumd.2024.1421273

http://creativecommons.org/licenses/by/4.0/


© Swiss Infosec AG 2026