Künstliche Intelligenz: Bericht warnt vor den Auswirkungen von Gesichtserkennung

Künstliche Intelligenz: Bericht warnt vor den Auswirkungen von Gesichtserkennung

02/2019

Zu schreiben, es sei ein dramatisches Jahr in Sachen Künstliche Intelligenz gewesen, ist vermutlich noch untertrieben. 2018 war das Jahr, in dem öffentlich wurde, dass Cambridge Analytica Millionen Menschen auf Basis ihrer Facebook-Daten algorithmisch analysierte. Ein selbstfahrendes Uber-Fahrzeug tötete eine Fussgängerin, Google wollte Künstliche Intelligenz für das Drohnenprogramm des US-Verteidigungsministeriums liefern und brachte damit seine eigenen Leute auf. In Grossbritannien wurden tausenden Studenten durch eine Spracherkennungssoftware die Visa entzogen und in Österreich diskriminiert ein Algorithmus der Jobcenter nun Ausländerinnen und Ausländer, Mütter und Ältere bei der Vergabe von Förderung. Das waren nur einige Schlagzeilen aus den vergangenen zwölf Monaten.

 

2018 war auch das Jahr, in dem automatisierte Gesichtserkennung mächtig Fahrt aufnahm. Nach Amazon bieten jetzt auch Facebook und Microsoft die Technologie als Dienstleistung an, die sich jeder mit genug Geld einkaufen kann. In den USA arbeiten bereits die Polizeibehörden von Orlando und New York mit einer solchen Software. In Deutschland nutzt neben dem Bundeskriminalamt zum Beispiel auch Hamburg Software zur automatisierten Gesichtserkennung. Am Berliner Bahnhof Südkreuz läuft die zweite Phase eines Pilotprojektes zur „intelligenten Videoüberwachung“.

 

Gesichtserkennung: Wer schützt die Öffentlichkeit?

Das New Yorker Forschungsinstitut AI Now warnt jetzt in seinem Jahresbericht (hier als PDF) vor den Folgen für die Öffentlichkeit, wenn diese Technologie nicht streng reguliert wird. Staaten seien in der Pflicht, enge Grenzen für den Einsatz zu ziehen. Es reiche nicht aus, auf die Verwendung von Gesichtserkennung im öffentlichen Raum hinzuweisen. Mit Blick auf die Massenüberwachung, die durch die Technologie möglich wird, müsse die Zustimmung aller eingeholt werden, die davon betroffen sein könnten. Communities sollten das Recht haben, sich der Gesichtserkennung nicht auszusetzen, egal ob in privaten oder in öffentlichen Zusammenhängen.

 

Besondere Sorgen machen sich die Forscherinnen und Forscher auch um die so genannte „Affekterkennung“, eine Unterkategorie der Gesichtserkennung, die behauptet, mit Hilfe von Fotos oder Videos Aussagen über die Persönlichkeit, die Gefühlslage oder die Motivation einer Person treffen zu können. Es existierten keinerlei verlässliche Studien, die diese Behauptungen stützen, warnt der Report. Trotzdem werde diese Technologie bereits in Bewerbungsgesprächen, bei der Vergabe von Versicherungen oder in der Polizeiarbeit eingesetzt.

 

Die Frage nach der Verantwortung

Am Ende läuft jede neue Schlagzeile, jeder öffentliche Skandal auf die gleiche Frage hinaus, schreiben die Autorinnen und Autoren des Reports: Wer trägt eigentlich die Verantwortung? Wer kann also zur Rechenschaft gezogen werden, wenn eine Künstliche Intelligenz Menschen tötet, fälschlicherweise zu Kriminellen erklärt, falsche Diagnosen ausstellt oder ihnen auf andere Arten Schaden zufügt? Sind es die Hersteller, die die Algorithmen bauen und mit Daten trainieren? Sind es die Behörden oder Firmen, die die Technologien einsetzen? Oder etwa der Algorithmus selbst, wie es das Europäische Parlament in einer Resolution vorgeschlagen hat, das Roboter gerne zu „elektronischen Personen“ erklären würde, die selbst für ihr Fehlverhalten haften? Diese Frage sei noch weitgehend ungeklärt, schreiben die Autorinnen und Autoren des US-Reports, werden sich aber immer drängender stellen, je weiter maschinelles Lernen und Künstliche Intelligenz in unsere Gesellschaft hineinwirken.

 

Detailwissen statt grosse KI-Aufsicht

Interessant ist dabei eine Empfehlung, die AI Now in Hinblick auf die Regulierung gibt. Sie empfehlen Regierungen, keine nationale Aufsicht für alle möglichen Einsatzfelder von Künstlicher Intelligenz zu schaffen, sondern die Befugnisse von sektorspezifischen Behörden auszuweiten. In Bereichen wie Gesundheit, Bildung, Sozialhilfe oder Justiz müssten je eigene Strukturen geschaffen werden, um den Einsatz von Künstlicher Intelligenz zu regulieren, zu beaufsichtigen und im Zweifel zu korrigieren. Eine nationale Aufsichtsbehörde könne gar nicht genug Detailwissen in all diesen Bereichen bündeln, um nuanciert regulieren zu können.

 

Der Bundesregierung schwebt anderes vor. In der Ende November vorgestellten KI-Strategie geht es an sehr vielen Stellen darum, wie die deutsche Forschung und der Einsatz von KI in deutschen Unternehmen gefördert werden soll, um Deutschland im internationalen Wettbewerb hinter China und den USA nicht ganz so schmächtig aussehen zu lassen. Nur an einigen wenigen Stellen dreht sich die Strategie überhaupt um die Frage von Regulierung. Dafür ist unter anderem vorgesehen, ein deutsches „Observatorium für künstliche Intelligenz“ einzurichten, das die Verbreitung und Auswirkungen von KI beaufsichtigen soll, vor allem in Hinblick auf Arbeit. Deutschland plant also genau das, wovon der Report abrät.

 

Die vielen drängenden Fragen zu Rechenschaft und Verantwortlichkeit aus dem Bericht, die sich stellen, wenn künstliche Intelligenzen Entscheidungen über das Leben von Menschen treffen, beantwortet die Regierung in ihrer Strategie nicht. Diese delegiert sie in die Enquete-Kommission Künstliche Intelligenz der Bundestages, die darüber hinter verschlossenen Türen diskutiert.

 

Netzpolitik.org; Chris Köver; 11.12.2018

https://netzpolitik.org/2018/kuenstliche-intelligenz-bericht-warnt-vor-den-auswirkungen-von-gesichtserkennung/

https://creativecommons.org/licenses/by-nc-sa/4.0/

 

Hinweis zur Verwendung von Cookies
Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Sie können die Verwendung von Cookies annehmen oder ablehnen. Weitere Informationen hierzu erhalten Sie in unserer Datenschutzerklärung