Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Machine-Learning-Leitlinien des Bundes

Entscheidende Gefahren nicht benannt

Der Bund will sich klare Leitplanken beim Einsatz künstlicher Intelligenz in der Verwaltung setzen. Dies ist erfreulich und könnte eine dringend notwendige Regulierung dieser Technologie befördern. Doch bei näherer Betrachtung wird deutlich, dass offenbar der Mut fehlt, entscheidende Zielkonflikte klar zu benennen. So werden die wesentlichen Gefahren, etwa des Einsatzes neuronaler Netze oder der Kompetenzauslagerung an private Dienstleister, nicht näher behandelt.

Ende November 2020 hat der Bundesrat die «Leitlinien für den Umgang mit künstlicher Intelligenz in der Bundesverwaltung» verabschiedet. Diese thematisieren den zukünftigen Umgang mit künstlicher Intelligenz (KI) und basieren auf dem Bericht «Herausforderungen der künstlichen Intelligenz», der gegen Ende des letzten Jahres veröffentlicht wurde. Die Leitlinien gelten formal zwar nur als «allgemeiner Orientierungsrahmen» für die Bundesverwaltung, dürften aber Signalwirkung auf Industrie und internationale Partner entfalten.

Die insgesamt sieben Leitlinien sind aufgrund des frühen Entwicklungsstadiums der Technologie und der daraus resultierenden Unsicherheit sehr allgemein formuliert und folgen dem liberalen Credo, Rahmenbedingungen ohne übermässige Regulation zu schaffen. Sie fordern an vorderster Stelle eine Gewährleistung der Würde und des Wohls des einzelnen Menschen sowie des Gemeinwohls. Die Verwendung von künstlicher Intelligenz soll transparent kommuniziert und die automatisierten Entscheidungen sollen nachvollziehbar sein. Ausserdem soll bei Schadensfällen oder Gesetzeswidrigkeiten die Haftung klar definiert sein. Zusätzlich will der Bund die globale Gouvernanz von KI aktiv mitgestalten und dabei alle relevanten nationalen und internationalen Akteure miteinbeziehen.

Die Forderung nach Transparenz, Nachvollziehbarkeit und Erklärbarkeit ist begrüssenswert und bildet die Grundlage der ebenfalls geforderten klar definierten Haftung. Denn ohne die Einsicht, wie eine automatisierte Entscheidung zustande kam, kann auch nicht bestimmt werden, welcher Teil davon fehlgeschlagen ist und dementsprechend haften muss. Allerdings steigt die Komplexität dieser Algorithmen seit Jahren rasant (siehe Infobox). Speziell bei den immer häufiger eingesetzten (weil sehr flexiblen) «neuronalen Netzen» steht die Forschung vor einer Herausforderung: Sie kann leider nur unzureichend erklären, warum spezifische Inputs (Daten) zu gewissen Outputs (Entscheidungen) führen.

Beispielsweise sind «Adversarial Examples» (dt. feindliche Beispiele) unvermeidbar. Diese speziell designten Eingaben in neuronale Netze provozieren gezielte Fehler und sind quasi optische Illusionen für Maschinen. Ausserdem können wir erst unzureichend bestimmen, welchen Eigenschaften der Daten sich derart komplexe Algorithmen genau bedienen, um Entscheide zu treffen. Bekannt aus der Forschung ist der Fall, wo Bilder von Hunden und Wölfen nicht etwa an deren Aussehen unterschieden wurden, sondern am Schnee im Hintergrund, der hauptsächlich bei Wölfen zu finden war.

Die Vermutung liegt nahe, dass wenn bereits die Forschung vor diesen Hürden steht, auch die unter Kostendruck agierende Entwicklung in der Bundesverwaltung und der Industrie diese Probleme nur beschränkt wird berücksichtigen können. Damit fällt die Erklärbarkeit und Nachvollziehbarkeit von komplexen automatisierten Entscheidungen. Und damit fällt auch die eindeutig definierte Haftung, welche in der Leitlinie 4 gefordert wird. Zusätzlich stehen die zwei oben eingebrachten Schwächen von neuronalen Netzwerken auch im Gegensatz zur in Leitlinie 5 geforderten Sicherheit, Robustheit und Resilienz der eingesetzten Algorithmen.

Zudem lernen alle datenbasierten Klassifikations-Algorithmen (also nicht nur neuronale Netzwerke) lediglich die Verteilung der Trainingsdaten, also das Klassifizieren basierend auf dem jeweiligen Input. Daher reproduzieren sie die gesellschaftlichen Konventionen, die implizit in die Trainingsdaten eingeschrieben sind. Durch die drohende Technologiegläubigkeit der Anwender, die Ausgaben der Algorithmen ohne grosses Hinterfragen zu verwenden, werden sich gesellschaftliche Probleme, wie z. B. Diskriminierung basierend auf Herkunft oder Geschlecht, sogar noch verstärken. Dies wird in der Leitlinie 3 mit der «ausreichenden Qualität der Daten» zwar gefordert, jedoch wird dieser Aspekt unzureichend diskutiert. Leider reicht es nicht, einfach nur die Informationen zu Herkunft oder Geschlecht aus den Trainingsdaten zu löschen, da sehr oft andere Einträge – wie z. B. Wohnort oder Muskelmasse – damit stark korrelieren und zusammen mit weiteren Einträgen implizit einen Rückschluss darauf erlauben.

Zu den derzeit bekannten Methoden zur künstlichen Reduktion diskriminierender Klassifizierung hat die Forschung gezeigt, dass sich viele Fairness-Definitionen gegenseitig ausschliessen. Dies verdeutlicht, dass dieses Problem nicht technologisch, sondern gesellschaftlich gelöst werden muss.

Erfreulich ist der Wille des Bundes, sich in die globale Gouvernanz von KI einzubringen und sich für die Stärkung aller relevanten Anspruchsgruppen einzusetzen (Leitlinien 6 und 7). Die Entwicklung von Standards und der Technologie wird im Moment vor allem von den fünf US-amerikanischen Technologie-Riesen Google, Amazon, Facebook, Apple und Microsoft vorangetrieben und richtet sich dementsprechend nach ihren Geschäftsinteressen.

Momentan wird verstärkt auf «Machine Learning as a Service» (MLaaS, dt. Maschinelles Lernen als Dienstleistung) gesetzt. Bei diesem Geschäftsmodell stellt der Kunde seine Daten dem entsprechenden Anbieter zur Verfügung, und der Anbieter wählt dann ohne Mitwirkung des Kunden Modell und Art der Algorithmen aus. Dies bedeutet zum einen, dass das Know-how bei diesen grossen Anbietern generiert wird – und dort verbleibt – und zum anderen, dass auch die Verantwortung zu Nachvollziehbarkeit und Robustheit an sie ausgelagert wird. Dies reduziert den regulatorischen Spielraum der Schweiz erheblich. Ein weiteres Problem bei global agierenden Konzernen wird auch der Datenschutz sein, auf welches aber an dieser Stelle nicht weiter eingegangen werden soll. Der Bund ist gut beraten, sich bei der Gouvernanz zu beeilen, bevor alle relevanten Standards bereits gesetzt sind und sich nur noch schwer ändern lassen.

Im Fazit führen die Leitlinien zwar in die richtige Richtung, sie sind jedoch bei Weitem nicht streng genug und gehen die oben illustrierten Probleme nur unzureichend an. Die Forderung nach Transparenz sollte strikter sein. Der gegenwärtige Trend, überkomplexe und fragile Algorithmen auf schlecht strukturierte Datensammlungen anzuwenden, nur weil es schnell zu verwertbaren Ergebnissen führt und sich dazu marketingtechnisch noch gut verkaufen lässt, sollte gewendet werden. Auch das Problem der blinden Technologiegläubigkeit muss gezielt angegangen werden. Automatisierte Entscheide sollten uns nicht die Denkarbeit und damit die Selbstreflexion abnehmen, sondern uns positiv dabei unterstützen. Und nicht zuletzt sollten diese Änderungen zeitnah kommen, bevor die Big Players den Rahmen gesetzt haben und dem Industriestandort Schweiz kaum etwas anderes übrig bleibt, als sich den internationalen Standards anzupassen. Um die Strategie des Bundes umzusetzen, sollten wir verantwortungsvolles Machine-Learning-Know-how in der Schweiz generieren und damit die Gouvernanz von KI aktiv mitgestalten.

Digitale Gesellschaft Schweiz; David Sommer; 17.01.2021

https://www.digitale-gesellschaft.ch/2020/12/17/machine-learning-leitlinien-des-bundes-entscheidende-gefahren-nicht-benannt/

http://creativecommons.org/licenses/by-sa/4.0/deed.de


© Swiss Infosec AG 2024