Überwachen und konsumieren - Teil 7

Überwachen und konsumieren - Kontrolle, Normen und soziale Beziehungen in der digitalen Gesellschaft - Teil 7

11/2021

 

Bilder II: Nadeln im Heuhaufen – KI, Algorithmen und die Produktion der Wirklichkeit

Wir kombinieren Daten wie Alter, Geschlecht, Standort, Tages- oder Jahreszeit mit Clustern von Künstlern, die einem Nutzer vermutlich gefallen, und Empfehlungen unser Musikredakteure. Der Algorithmus verknüpft die Datenpunkte und errechnet darauf Vorschläge. Unser Traum ist es, unseren Kunden irgendwann genau die Musik zu empfehlen, die ihrer momentanen Gemütslage entspricht. Wir haben deshalb eine Kooperation mit dem Fitnessuhranbieter Fitbit geschlossen, um Körperdaten unserer Nutzer zu messen und so Rückschlüsse auf ihre Stimmung zu ziehen.

 

(Hans-Holger Albrecht, Chef des Musikdienstes Deezer)

Die Steuerung des Alltages ist im Zuge der Digitalisierung sehr umfassend geworden und beschränkt sich nicht mehr nur auf verbesserte Versionen alter Technologien – schnellere Computer, bessere Telefone, effizientere Motoren, Maschinen. Vielmehr geht es darum, mit den Möglichkeiten der digitalen Auswertung der Welt, erfahrbar über die von ihr produzierten oder vorgefundenen Daten, neue Erkenntnisse über diese Welt zu generieren und sie einerseits gründlicher zu begreifen und zu verstehen, andererseits auch um sie besser zu steuern. Die damit verbundenen technologischen Bilder- und Vorstellungswelten sind vor allem die der Künstlichen Intelligenz (KI) sowie die damit einhergehenden Algorithmen – mathematische Beschreibungsanweisungen, die mittlerweile zu einem geflügelten Wort geworden sind, ohne dass die meisten Menschen genau wüssten, was sich dahinter verbirgt oder wie diese genau arbeiten würden.

 

Ging es im vorangegangen Kapitel um die Bedienungsflächen und Interfaces zur (digitalen) Welt sowie die Optionsmaschinen, mit denen die Welt kontrolliert, formatiert und übersetzt wird, so prägen die mit KI und Algorithmen evozierten Bilder die Vorstellungen, wie die Welt neu geprägt, verbessert und vor allem automatisiert werden kann. Die Idee der Domestizierung von Umwelt, die Verfeinerung der digitalen Domestiken und die komplette Automatisierung – auch und gerade von gesellschaftlichen Prozessen – sind sehr eng mit diesen Technologien verbunden. Ausgangspunkt dafür ist die Vorstellung, dass es mit der Digitalisierung endlich möglich sei, die unüberschaubaren Daten, die in einer modernen, komplexen und weitgehend in dieser Komplexität unüberschaubaren Welt anfallen, verstehen zu können. Dabei reicht es allerdings nicht aus, diese Daten nur neu und besser zu ordnen, vielmehr ergeben sich aus den Daten selbst neue Ideen: objektivere Handlungsoptionen werden ersichtlich, menschlicher Bias könnte beseitigt und die »richtigen« Entscheidungen gefällt werden. Menschen seien dazu, so meine Verkürzung vieler dieser Ideen, nicht in der Lage, gerade weil sie Interessen haben und sich nicht vorurteilsfrei entscheiden können.

 

Viktor Mayer-Schönberger vertritt gar die These, dass die Daten uns die Welt zeigten, wie sie wirklich sei. Das ist in der Tat eine verlockende Aussicht, allerdings auch ein vergebliche, denn Wirklichkeit ist eine soziale Konstruktion, bei der objektiv erfahrbare Phänomene und eine Vielzahl von objektiven Daten einer subjektiven oder intersubjektiven Bewertung unterzogen werden. Es überwiegt jedoch die Verlockung angesichts der technischen Versprechen. Das viel und bisweilen überstrapazierte Bild der »Nadel im Heuhaufen«, die man mit dieser Technologie nun besser oder überhaupt erst finden kann, scheint hier insgeheim handlungsleitend zu sein.

 

KI soll vor allem eine Hilfe bei komplexen Entscheidungsprozessen sein, wo es gilt, eine Vielzahl an Variablen miteinzubeziehen – sowie bei Prozessen, die so etwas wie einen Blick in die Zukunft wagen wollen. Hier gilt es in besonderem Maße die Nadel im Heuhaufen zu identifizieren. Es stellt sich allerdings die Frage, ob und wie objektiv das tatsächlich passiert, wenn solche Systeme mit vermeintlich objektiven Daten auf die Wirklichkeit treffen. Ob nicht vielmehr die zu untersuchende Wirklichkeit durch diese Art der Prozesse mitgestaltet wird? In Abwandlung des Bildes von der Nadel im Heuhaufen (und um es einmal überzustrapazieren) könnte man auch fragen, wie viele Nadeln durch die Verfahren überhaupt erst produziert und somit auch in einem Haufen von Nadeln gesucht werden? Das betrifft vor allem solche Verfahren, die Voraussagen über die Zukunft treffen wollen und häufig im Bereich von Sicherheit und Gefahrenabwehr anzutreffen sind – etwa im Zusammenhang mit den Prognosetechnologien der Polizei, die damit zukünftige Verbrecher identifizieren wollen. Auf der anderen Seite wollen die Unternehmen künftige Kund:innen und Konsument:innen erkennen, indem sie ihre Wünsche aus ihrem digitalen Verhalten ablesen – wenn sie dieses nicht ohnehin schon beeinflussen oder gar bewusst über die Optionsmaschinen steuern können, wie das obige Zitat von Hans-Holger Albrecht sehr eindrücklich veranschaulicht. Technologien waren und sind nie nur Werkzeuge, sondern dienen auch als Symbole und Projektionsflächen für Wünsche und Hoffnungen. Das ist auch bei digitalen Technologien so, und je mehr Fähigkeiten diese haben und unseren Alltag mitgestalten, desto umfangreicher werden auch solche sozialen Utopien des Digitalen.

 

Diese Utopien beschreiben Entwürfe einer Zukunft, die eben auf diese digitalen Technologien zur Verbesserung der Welt setzen. Dabei handelt es sich insbesondere um Konzepte und Vorschläge, wie man unter Zuhilfenahme von Algorithmen und KI bessere Vorhersagen über die Zukunft sowie das menschliche und soziale Verhalten machen kann, um so letztlich die Gesellschaft besser planen und effektiver regieren zu können. Dass solche Entwürfe vielfach aus dem Umfeld der großen, im Silicon Valley (Kalifornien, USA) ansässigen Unternehmen stammen, ist nicht verwunderlich. So unterhält Google das Government Innovation Lab: Der Internetentrepreneur Peter Thiel hat in der Vergangenheit Vorschläge zu einem Libertarian Island gemacht und darin auch neue Formen des Regierens und Führens von Staaten und Gesellschaften angeführt. Vereinzelt wurden auch ähnliche Modelle von Wissenschaftler:innen wie Parag Khanna vorgeschlagen: »Technocracy in America. Rise of the Info-State«.

 

Auf den Punkt bringt es Lobe, wenn er analysiert, worum es sich – bei näherer Betrachtung all der Prognosetechnologien – im Kern wirklich handelt, wenn er die Kehrseite der Vorausschau und Planung thematisiert; es geht hier nämlich um die Minimierung des Risikos und damit auch um die Einschränkung all dessen, das eben nicht berechenbar erscheint und somit geschäftsschädigend wäre: Was an diesem datengetriebenen, deterministischen Governance-Modellen irritiert, ist ja nicht nur die materielle Aushöhlung des Politischen und Ausschaltung diskursiver Verfahren, sondern auch, dass die Zukunft nicht mehr als gestaltbarer Möglichkeitsraum begriffen wird, sondern als latente Bedrohung, ein Risiko, das es zu »managen« gilt – mit der bitteren Pointe, dass Utopien unter dem Datenregime unter Ideologieverdacht stehen, weil sie nicht berechenbar sind.

 

In solchen Idealvorstellungen einer neuen und durch Technik bestimmte Welt, lassen sich durchaus auch die Ideen ihrer Regelung ablesen, also die Vorstellungen davon, wie eine Gesellschaft (nicht nur in der Zukunft) sein sollte. Denn mehr noch als auf die Zukunft verweisen diese Ideen auf gegenwärtig wirkmächtige Weltbilder, die im Zuge einer Digitalisierung gesellschaftlich relevant werden könnten und die zumindest Teil der Erzählungen von Technologie und ihrer unaufhaltbaren Bedeutung für alle gesellschaftlichen Lebens- und Alltagsbereiche sind. Teil dieser Erzählungen ist auch, dass die Technologie objektiv und somit viele Entscheidungen, die im Prozess politischer Auseinandersetzungen getroffen werden, interessengesteuert, langwierig und ineffektiv seien und demnach verbessert sowie fairer gemacht werden könnten. Damit wird nicht nur die Idee von Politik ad absurdum geführt, sondern auch eine Allmacht und Vorstellung von Technologie transportiert, die einer Überprüfung wohl eher nicht standhalten würde. Es lohnt sich also darüber nachzudenken, welche Wirklichkeiten durch algorithmisierte Verfahren und durch die Steuerung von Gesellschaft geschaffen und welche möglichen Dynamiken sich ergeben werden – insbesondere, wenn, wie im Falle der Künstlichen Intelligenz, oft wenig klar ist, worum es dabei genau geht.

 

Der Begriff KI allein wird für eine Reihe von Technologien und Verfahren oft sehr ungenau bemüht und mit vielfältigen Vorstellungen verknüpft. Informatiker:innen sprechen deshalb auch von automatisierten Entscheidungssystemen. Hiermit sind Verfahren gemeint, die auf algorithmischer Verarbeitung beruhen, also sowohl immaterielle Verfahren (Massendaten, »Big Data«) als auch materielle Voraussetzungen (Hardware, Robotik) implizieren. Die begriffliche Distanz verweist auf eine Skepsis seitens der mit diesem Thema befassten Informatiker:innen hin. Im Kern handelt es sich bei KI um statistische Verfahren und Mustererkennung, welche eigene Entwicklungs- bzw. Optimierungsprozesse durch Prozesse des Maschinenlernens und neuronaler Netze durchlaufen. Dafür wird der Begriff der Künstlichen Intelligenz verwendet, um mögliche Ähnlichkeiten zum menschlichen Denken und Handeln (von Individuen, Teams, Organisationen und Gesellschaft) zu suggerieren. Insgesamt sollte KI aber nicht auf maschinelles Lernen, Algorithmen usw. reduziert werden. Vielmehr wird das Konzept der automatisierten Entscheidungsunterstützung vor allem hinsichtlich ihrer gesellschaftlichen Nutzung bzw. ihres (Nicht-)Einsatzes relevant, z.B. wenn es um Datenschutz, Datensparsamkeit oder menschengerechte Gestaltung geht.

 

Gerade bei der Polizei lässt sich zeigen, dass ihre klassische Arbeit durch das Digitale auch in Bezug auf Überwachung neu zu denken ist, z.B. wenn es um ein über Datenbanken vermitteltes Management von Risiken und weniger um klassische Polizeiarbeit der Verbrechensaufklärung geht. Es kann hier von einer Informatisierung der sozialen Kontrolle durch staatliche Institutionen gesprochen werden, d.h. dass in zunehmendem Maße Abweichungen aufgrund digitaler, computergestützter Analyse festgestellt, aber gleichzeitig auch die Kategorien entworfen werden, die die Normgrundlage für Abweichungen bieten. Diese Analysen und Datensammlung bestimmen die polizeiliche (und auch gerichtliche) Praxis und verlagern die Basis von Entscheidungen ganz konkret auf diese Systeme. Beispiele sind algorithmisch errechnete Wahrscheinlichkeiten von Rückfallquoten z.B. bei Gerichtsentscheidungen und die Vorhersage von Verbrechensorten oder potenziellen Verdächtigen in Verbindung mit Verfahren von Crime Mapping oder Predictive Policing. Die Strategien zielen auf eine verbesserte Kriminalitätsbekämpfung, in der die Tatorte und möglicherweise auch die Deliktarten selbst – im Idealfall sogar die Identität der Täter:innen – vorhergesagt werden können.

 

Erste Entwürfe, wie mithilfe von Algorithmen und KI Recht gesprochen werden kann, gibt es bereits. Eine automatische Feststellung von Schuld bei Gericht, die auf Daten und errechneten Wahrscheinlichkeiten basiert, ist mehr als nur eine Zukunftsvision, sondern ist auf technisch niedriger Basis bereits Teil der Strafverfolgung und staatlichen Normkontrolle. Die Diskussion über solche Verfahren und ihre grundlegenden Technologien kritisiert vor allem die in Algorithmen häufig eingebauten Vorurteile, z.B. hinsichtlich der Hautfarbe, ethnischer Zugehörigkeit oder Geschlecht. Es ist alles andere als ersichtlich, wie diese Vorurteile zustande kommen, aber es ist wahrscheinlich, dass KI und Algorithmen gesellschaftliche Muster und Voreinstellungen eher verstärken als diese zu neutralisieren: Ihre Grundannahmen beruhen auf den Normen und Mustern der Programmierer:innen sowie auf den gesellschaftlichen Bedingungen, in denen sie programmiert und dessen Vorgaben erfüllt werden mussten.

 

In diesem algorithmischen Zustand wird das Regieren zu einer Art technokratisches Risiko- und Prozessmanagement, das nach dem Muster »Input, Output, fertig« operieren würde. Soziale Dynamiken, die von einer gewissen Beweglichkeit sozialer und gesetzlicher Normen bestimmt werden, frieren ein. Die Gesellschaft verliert die Möglichkeit einer eigenen sozialen und politischen Entwicklung, in der sich die vielfachen Brüche und Aushandlungen über gerade diese Normen und ihrer Anwendung widerspiegeln. Unter diesen Prämissen muss dann auch die Einführung solcher Technologien in sehr sensiblen gesellschaftlichen Bereiche diskutiert werden. Nur weil eine Technologie existiert, rechtfertigt dass noch längst nicht ihre Anwendung in Bereichen wie der Rechtsprechung, insbesondere vor Gericht, wo Urteile gesprochen werden. Wenn die Begründung für die Technologie dann »effizient« lautet oder man an einen nicht näher definierten »Fortschritt« anknüpfen will, dann sollte das nicht die abschließende Antwort darauf sein. Gesellschaftliche Imperative bestimmen die Definition von »gut«, »brauchbar«, »modern«, oder »pragmatisch« und nicht etwa naturgesetzliche Effekte. Ebenso sind es langwierige Aushandlungsprozesse innerhalb von Gesellschaften, bei denen »Fortschritt«, Glaube an Fortschritt, vorhandene Technologie, Utopien, Vorstellungen von Hierarchien usw. eine Rolle spielen. Insofern ist auch »pragmatisch« eine solchermaßen ausgehandelte und durch gesellschaftliche Diskursprozesse gewordene Bewertung. Sicherlich orientiert sich die Rechtsprechung vor allem an ausformulierten Regeln, weshalb es so scheint, als ob mancher Aspekt sich gut und vielleicht sogar besser über Algorithmen regeln ließe. Und es mag im Recht Aspekte geben, die so schnell und besser abzuarbeiten sind. Generell bräuchte es allerdings keine Gerichte und Verhandlungen, wenn jeder Sachverhalt tatsächlich so klar vorläge, wie es für Algorithmen vonnöten wäre. Wären sie also »gerechter«, wenn nur die Regeln wie im Gesetzestext beschrieben, auch befolgt würden, oder was macht sie im Kern eigentlich aus?

 

Was macht überhaupt ein Gesetz aus, wie kommt es zustande und was wird hier reflektiert? In der praktischen Rechtsprechung spielt das zwar keine entscheidende Rolle, für eine Rechtssoziologie und die Beantwortung der Frage, wie Gesellschaft mit ihren Werten und Normen umgeht, sind diese Fragen jedoch zentral. Ein Algorithmus kann bestimmt innerhalb der Logik der Regel die Norm »fair« anwenden, aber möglicherweise liegt eine potenzielle Ungerechtigkeit bereits in der Norm selbst vor bzw. war Teil ihrer Entstehung. Ohne ein Wissen über die Bezüge von Wissen, Technologie und Normen hinsichtlich der Ausgestaltung von Wirklichkeit zu haben, lassen sich weder die Technologien selbst bewerten, noch die möglichen Wechselwirkungen, die mit der Gesellschaft als solche einhergehen. Grundsätzlich möchte ich festhalten, dass bei vielen dieser Strategien auch immer Vorstellungen einer Neuordnung von Welt enthalten sind, insbesondere der sie steuernden Normen mithilfe derer neue Möglichkeiten geschaffen und Kontrolle ausgeübt werden. Da es der Polizei und Justiz obliegt, Normen und ihre Einhaltung durch die Bürger:innen zu überprüfen – also Kontrolle auszuüben – sowie Verstöße zu sanktionieren, sind die Auswirkungen digitaler Verfahren von zentraler Bedeutung, wenn u.U. durch automatische, nichtmenschliche Entscheidungen in den Prozess einer Normgenese eingegriffen werden könnte.

 

Der technische Deutungsrahmen wirkt hier mit seinen inhärent normativen Orientierungen prägend auf die Wahrnehmung von Gesellschaft. So können durch Algorithmen verstärkte Diskriminierungen sich zu festen Vorstellungen und selbsterfüllenden Prophezeiungen entwickeln, die als relevant und real innerhalb einer Gesellschaft wahrgenommen werden. Damit stellt sich nicht nur die Frage nach einem ethischen Umgang mit Algorithmen, ihrer notwendigen Transparenz und nachvollziehbaren Verwendung, sondern auch inwiefern hier eine technische Konstruktion der gesellschaftlichen Wirklichkeit mit und über KI stattfindet. Da Technologien immer auch sozial konstruiert sind – durch die von verschiedenen sozialen Gruppen geteilten Bedeutungen und sozialen Implikationen – besteht hier ein Wechselspiel innerhalb dessen Gesellschaft und ihre Mitglieder mit Technik umgehen, aber sich ebenso an ihre Bedingungen und Erfordernisse anpassen müssen. Je wirkmächtiger die Technologie wird, gar eigene Entscheidungen generiert, die dann bindend für Verfahren, Entscheidungen oder die Ausgestaltung von Normen sind, desto mehr produzieren sie gesellschaftlich relevante und folgenreiche Wirklichkeiten.

 

Daraus folgt, dass Algorithmen und KI als Technologien eben nicht nur Verfahren sind, sondern als ein Teil der Kultur begriffen werden müssen, wenn sie sich als Träger normativer Orientierungen und korrespondierender gesellschaftstransformierender Funktionen zu Metaphern für Beschreibungen von Gesellschaft bzw. zu einer Interpretationsfolie von sozialen Tatsachen entwickeln. Dabei sind die Fragen, wie KI wahrgenommen wird, welche epistemischen Prämissen, Menschen- und Gesellschaftsbilder hinter den technischen Ideen stecken und inwiefern KI kulturell verankert ist, wichtig, um die gesellschaftliche Bedeutung jenseits einer wirtschaftlichen Verwertbarkeit zu verstehen. So zeigt Feustel sehr detailliert am Beispiel einer Genealogie der Informationstheorie, wie diese im Verlauf ihrer Existenz immer wieder den Blick auf Gesellschaft geprägt hat, z.B. über den Gebrauch von Metaphern, die Gehirn und Computer miteinander vermischen. Sein Beispiel, wie die Maschinisierung vom Menschen gedanklich aufgebaut wird und gleichzeitig Information als solche eine religiöse Überhöhung erfährt, ist sehr anschaulich. Vor dem Hintergrund eines solchen, zugegeben hier vereinfachten dargestellten Vergleiches, verschieben sich die Bezugsmaßstäbe für KI Systeme; von der bloßen Computertechnik hin zu einer übergeordneten gesellschaftlichen Wirklichkeit, innerhalb derer der Mensch Teil einer, wenn auch hochkomplexen, beherrschbaren Maschine ist.

 

Die erwähnten Ideen eines effektiven Regierens durch Algorithmen reflektieren diese Tendenzen. Datengläubigkeit, Machbarkeitsfantasien und Imaginationen einer durch KI gesteuerte Zukunft werden hier adressiert. Die Metapher der »Black Box« zeigt zugleich, wie mit der Unwissenheit über den Entscheidungsmechanismus gleichzeitig Hoffnungen und Ängste verbunden sind. Da Metaphern mit Durchsetzungsmacht normative Orientierungen transportieren und verbreiten können, stellt dies eine aus demokratiepolitischer Sicht bedenkliche Tendenz dar. Somit müssen die Technologien und damit verbundenen Vorstellungen als Träger, Motor und Projektion von Gesellschaftsentwürfen begriffen und analysiert werden. Die tatsächlichen Möglichkeiten, Limitierungen oder Komplexitäten von Algorithmen und Prozessen des Machine Learning werden in der Euphorie oder Kritik dabei oft zu wenig beachtet. Um auf das Bild der Nadel im Heuhaufen zurückzukommen, lässt sich nach den Ausführungen zu Recht sagen, dass Algorithmen und KI-basierte Verfahren nicht nur dazu in der Lage sind, aus großen Datenmengen etwas Bestimmtes herauszufiltern, sondern auch neue Verbindungen daraus zu produzieren, mögliche Zusammenhänge und neue Beziehungen zu konstruieren und als Teile einer vermeintlich objektiven Wirklichkeit wirkmächtig zu präsentieren. Sie suchen und finden nicht nur Nadeln, sondern sind Urheber derselben. Dabei hilft es, dass diese Technologien symbolisch aufgeladen sind und als Einlösung von Versprechen verstanden werden, durch die sich die Welt besser verstehen oder überhaupt erst in ihrer »tatsächlichen Wirklichkeit« sehen lässt.

 

Die Abkoppelung der Technologien von bestehenden sozialpolitischen Diskursen, Dynamiken und Verwerfungen ermöglicht zum einen ihre symbolische Überhöhung, zum anderen wird dabei ihre kulturelle Einbettung verschleiert und die möglichen Effekte der Ungleichheit, Diskriminierung und ihre Fehlerhaftigkeit ausgeblendet. Ihre Einbettung in den digitalen Alltag, in die uns umgebenden Services, Technologien, digitalen Hilfsmittel und Infrastrukturen, erschweren sie zu erkennen und ihre Nutzung angemessen zu reflektieren. Es sind eben keine Maschinen, die deutlich sichtbar zu einer Auseinandersetzung anregen, so wie ein Atomkraftwerk, Auto o.ä. Sie sind der Hintergrund bzw. die kaum greifbare technosoziale Struktur der Alltagswelt, in der und mit welcher die Menschen sich täglich bewegen – ohne beständig den Eindruck einer permanenten Kontrolle zu haben. Das mag banal sein, erscheint mir aber im Hinblick auf die Bewertung dieser Technologien hinsichtlich der Frage nach Überwachung, Kontrolle und warum diese gerade unter den Bedingungen eines Konsumismus so hervorragend, vor allem häufig unbemerkt und weitgehend unwidersprochen stattfindet, ein zentraler Aspekt zu sein. Wenn es in der Saline von Chaux der Alltag war, der in der baulichen und politischen Architektur diese Kontrolle möglich machte, wäre es nun zu fragen, ob und inwieweit eine Übertragung dieses Bildes heute noch passend wäre?

 

Nils Zurawski; 2021

https://www.transcript-verlag.de/978-3-8376-5606-0/ueberwachen-und-konsumieren/

https://creativecommons.org/licenses/by-sa/4.0/deed.de

Zur einfacheren Lesbarkeit wurden die Quellenverweise entfernt.

 

Cybersecurity

 

Cybersecurity


Schutz vor Cyber-Bedrohungen

Reagieren auch Sie früh genug und richtig auf die massiv zunehmenden Cyber-Bedrohungen und -Angriffe. Schützen Sie Ihr Unternehmen. Schützen Sie Ihre Informationen.

Kontaktieren Sie uns und überzeugen Sie sich von unserem Know-how im Bereich der Cybersecurity.

Wir beraten Sie gerne und unverbindlich. +41 41 984 12 12, infosec@infosec.ch

Mehr lesen