Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Digitale Subjekte in der Plattformökonomie: Datenschutz als zentrale Machtfrage

05/2023

1. Überwachungskapitalismus, Datafizierung und Algorithmen

Edward Snowden legte 2013 die flächendeckende Überwachung des Internets durch staatliche Geheimdienste offen. Damit kam aber auch sukzessive ans Licht, inwieweit die Big-Tech-Unternehmen, die unser Leben durch diverse digitale Gadgets prägen, Teil dieser Überwachungsmaschinerie sind. Die ehemals großen Hoffnungen auf eine Demokratisierung der Welt durch das Internet sind lädiert und das Internet wurde als Herrschaftsinstrument demaskiert. Doch nicht nur staatliche Akteur:innen sammeln (il-)legal Daten, um politische Repression oder den Schutz ihrer zentralen Machtinteressen auszuüben – natürlich im Dienste der allgemeinen Sicherheit (Stalder 2016) –, sondern auch immer mehr privatwirtschaftliche Unternehmen. Dabei fällt auf, dass die wertvollsten Unternehmen der Welt (die sogenannten Big-Five: Microsoft, Apple, Amazon, Alphabet (Google) & Meta (Facebook)) gleichzeitig diejenigen sind, die über besonders viele und tiefgreifende Daten über einzelne Subjekte verfügen. Denn die Nutzung ihrer Hard- und/ oder Software erzeugen immense Datensammlungen.

Auf Servern und Datenbanken auf der ganzen Welt werden all unsere digitalen Spuren, Handlungen und Interaktionen registriert, getrackt, gespeichert, aggregiert und ausgewertet sowie weiterverkauft. Das Sammeln der Daten war ursprünglich zur Verbesserung des jeweilig angewandten Dienstes gedacht. Die gesammelten Daten bestehen nach Shoshana Zuboff aus zwei Teilen: eine Datenmenge, die in direktem Bezug zur digitalen Funktion steht. Diese Datenmenge stellt nach Zuboff den ‚Rohstoff‘ dar, der in den „Verhaltenswert-Reinvestitionszyklus“ fließt. Dieser Zyklus dient der „Verbesserung von Tempo, Genauigkeit und Relevanz“. Allerdings entsteht bei jeder Nutzung eine Art „Kielwelle von Kollateraldaten wie etwa Anzahl und Muster der Suchbegriffe, wie eine Suche formuliert, buchstabiert, interpunktiert ist, Verweildauer, Klickmuster, Ort usw. usf.“. Diese Daten sind nicht notwendig für die Funktion und wurden zum Zeitpunkt der Entwicklung der digitalen Dienstleistungen zu Beginn unsortiert gespeichert. Im sogenannten ‚Überwachungskapitalismus‘, wie ihn Zuboff beschreibt, ist es nun jedoch genau dieser zweite, nicht notwendige Teil der Daten, der den ‚Verhaltensüberschuss‘, also den Mehrwert, generiert.

Überwachungskapitalismus rekurriert auf die Aneignung von persönlichen Daten und menschlicher Erfahrung als Ware, woraus der Verhaltensüberschuss sowie marktfähige Produkte generiert werden. Dabei wird das erfasste Verhalten mit der Überführung in eine verwertbare Ware über mehrere Schritte tiefgreifend aufbereitet und verändert. In Anlehnung an die Informatik spricht Zuboff von einer technisch aufbereitenden ,Rendition’ der Informationen über Menschen. Erst auf diesem Weg sei der Rohstoff ,Verhalten’ weiter verwendbar. Es geht nicht mehr nur um die Gewinnung und datenanalytische Aufbereitung der Information zu einzelnen Verhaltensakten und Personenmerkmalen, sondern um die Erfassung und Verarbeitung der Gesamtheit des menschlichen Lebens, um eine „Rendition des Selbst“. Verhaltensweisen werden so – auf Basis von Persönlichkeitsprofilen – zum Produkt.

Eine Folge davon ist eine immer engmaschigere Überwachung der Menschen, um mehr Daten und damit (vermeintlich) bessere Ergebnisse zu produzieren. Die Datensuche dringt in immer privatere Bereiche vor. Die Überwachung wird tendenziell totalitär. Die Analyse des Verhaltensüberschusses ermöglicht es menschliches Verhalten, mit stetigem Datenvolumen exakter, vorherzusagen. Dabei liefern bereits Metadaten ein sehr umfassendes Bild. Denn sie beschreiben den Kontext einer Kommunikation. Aus diesen Daten können Rückschlüsse auf das gesamte Leben, die Beziehungen und das Beziehungsverhalten gezogen werden und etwa durch einen Assoziationsgraph visualisiert werden. „Metadaten sind bei der Überwachung der gesamten Bevölkerung wesentlich aussagekräftiger, wichtiger und nützlicher“. In Verbindung mit Text Mining generieren sie ein ‚vertieftes‘ Wissen durch die Erkennung und Verknüpfung von Mustern. Beispielsweise können so politische Einstellungen, kultureller Hintergrund und Religiosität oder die sexuelle Orientierung destilliert werden, woraus die auswertenden Organisationen eine „Echtzeit-Marktanalyse mit individueller Kundenansprache“ an die Hand bekommen. Aber nicht nur können so ‚neue‘ Märkte adressiert werden, vielmehr werden auf der Basis dieser datentechnischen Aufbereitung und Analyse von Informationen Mechanismen entwickelt, die zur Steuerung von Verhalten dienen.

Um die Praxis der Analyse des Verhaltensüberschusses zu forcieren, er­ zeugen digitale Infrastrukturen „einen hohen Druck, ja, faktischen Zwang zur ‚Einwilligung‘“, mittels sogenannter ‚Click Warp-Verträge‘. Damit sind Nutzungsbedingungen und Datenschutzrichtlinien von digitalen Angeboten gemeint, die ohne die ‚Zustimmung‘ der Nutzer:innen nicht funktionieren. Zuboff bezeichnet dies als „privates Enteignungsrecht und spricht von einer einseitigen Beschlagnahme von Rechten ohne Einwilligung“. Daraus erwachse der Überwachungskapitalismus.

Digitale Identitäten stehen somit im Zentrum von wirtschaftlichen und politischen Interessen. Die Subjektivität der Einzelnen wird quantifiziert und ist somit Ausgangspunkt der riesigen Datenerhebungsmechanismen, die durch die beispielslose Durchdringung der Digitalisierung hervorgebracht wurde. Sie erfolgt im öffentlichen und halböffentlichen Raum (z.B. in Verkehrsmitteln sowie bei zunehmend eingeführten „Smart City“-Technologien, bei Behörden oder Pflegeeinrichtungen), in der Konsumsphäre (online und offline durch das Tracking innerhalb von Verkaufsräumen, wie Mensch sich dort bewegt, Angebote begutachtet usw.) wie auch bei der Erwerbsarbeit bzw. im Betrieb (bspw. durch Office 365, das Intranet oder wearables). Die enormen Datensammlungen, die durch die Beobachtungstechnologien entstehen, wurden nicht nur aus Sicherheitsgründen eingesetzt, vielmehr werden sie intensiv als Datenquellen genutzt. Diese Vorgänge fasst der Begriff ‚datafication‘.

Datafizierung beschreibt die Fähigkeit und den Prozess der Erfassung und Quantifizierung nahezu jeder Form und Aktivität in beinahe jedem Alltagsbereich als ‚totale‘ Vermessung von Individuum und Gesellschaft. Diese Durchdringung forciert die Auflösung der Grenzen zwischen privaten, öffentlichen und ökonomischen Raum. Datafizierung als Paradigma steht somit ideologisch zwischen Sozialität, Wissenschaft und Wirtschaft. Die analoge Welt wird in abzählbare Größen „übersetzt“, aufgelöst in Einser und Nullen, damit sich der Computer darin „zurechtfindet“. Während nun Plattformen verschiedenster Couleur mittels algorithmischer Infrastrukturen die Datafizierung vorantreiben, inszenieren sich dieselben Organisationen als ‚neutrale‘ Vermittlungsinstanzen und propagieren, dass ihre Datensammlungen eine Form der ‚höheren‘ Intelligenz, die Wissen, Wahrheit und Objektivität herstellen würden. Die Asymmetrie zwischen den Nutzenden und den datensammelnden Organisationen sowie das Ausmaß, der Umfang und Zweck dieser Bemühungen werden durch Zahlen und statistische Daten verdeckt, die ihren Anweisungen und Aussagen den Anstrich von Genauigkeit und Unbestechlichkeit verleihen.

Algorithmen sind die Grundlage jeglicher Suche und Information, Kommunikation und Interaktion im Internet. Algorithmen sind aber ‚nur‘ Handlungsvorschriften zur Lösung eines Problems. Diese Problemlösung wird in modulare Einheiten Schritt für Schritt gegliedert. Ein Algorithmus führt somit vorgefertigte Schritte mit vorhandenen oder zugeführten Daten aus, um das gewünschte Ergebnis zu produzieren. Aus kulturphilosophischer Sicht sind Algorithmen nicht durch technische Komponenten oder dem strikten Vorgehen definiert. Vielmehr ist hier der „Entdeckungs- und Verwendungszusammenhang in kulturellen, also bedeutungskonstituierenden Kontexten“ von Interesse. Sie fungieren als Referenzsystem für soziale Organisationen und bringen durch ihre Erzeugung und Betreibung eine Eigenlogik hervor, die soziale Tatsachen generiert. Die in Algorithmen eingeschriebenen Regeln, Normen und Handlungsanleitungen wirken auf die Aktivitäten ihrer Nutzer:innen wie soziale Institutionen und strukturieren ihr Handeln so stetig mit. Algorithmen sind hochpolitisch, da sie distinkte, selektive und zunehmend personalisierte soziale Wirklichkeiten auf der Grundlage von sozialen Kriterien schaffen und verhaltensprägend wirken.

Algorithmen erfassen somit nahezu jede Form von (digitaler) Aktivität und quantifizieren diese, wodurch das einzelne Subjekt als Datenwolke einen digitalen Schatten zugeschrieben bekommt. Dieser Prozess ersetzt das ‚Wie und Warum‘ des Einzelnen durch das ‚Was als Das‘. Das Individuum tritt sodann nur noch als Datenwolke in Erscheinung. Jedoch ist das algorithmisch generierte Abbild des digitalen Subjekts in seiner Komplexität reduziert, da nur, was ihm durch die Datenspuren seiner elektronischen Aktivitäten, Verbindungen, Transaktionen und Bewegungen, seinem „digitalen Schatten“, zugeschrieben wird, erfasst werden kann. Algorithmen kategorisieren Personen. Ihr Verhalten wird dadurch antizipiert und (Vor-)Entscheidungen getroffen. Sie schaffen und prägen dadurch eine eigene Wirklichkeit und generieren soziale Bedeutung. Darüber hinaus ergeben sich durch die Rekombination von Daten Muster, die während der Datenerfassung so nicht absehbar waren. Die inhärente Möglichkeit zur Verhaltensmanipulation tangiert die Selbstbestimmung, wodurch die informationelle Selbstbestimmung gefährdet wird. Dies ebnet den Weg hin zu einer algorithmischen Gesellschaft („algorithmic society“), in der die Lebensführung von Individuen sowie ihren sozialen Beziehungen stark durch algorithmische Systeme vermittelt sind. Die algorithmische Gesellschaft ist ein kybernetisches Modell der Steuerung und Herrschaft mittels Datafizierung. Beachtung findet dort nur, was sich digitalisieren und messen, klassifizieren und einordnen, zahlenmäßig bewerten und skalieren lässt.

2. Digitale Subjekte, Privatsphäre und Datenschutz

Endnutzer:innen agieren auf der Ebene der Benutzerschnittstellen, also auf einer Oberfläche technischer Artefakte und besitzen in den meisten Fällen kaum die Möglichkeit Einblicke in oder Verständnis für das was dahinter passiert zu erhalten. Die vermeintlich neutralen Plattformunternehmen nutzen dies um die Monopolisierung von Interpretationen zu forcieren. Denn algorithmische Entscheidungssysteme kategorisieren Personen, um ihre Wünsche und Verhaltensweisen zu antizipieren. Sie treffen so für sie (Vor-)Entscheidungen und bieten Erleichterung bei der individuellen Lebensführung, indem sie Menschen die Entscheidung darüber abnehmen, was für sie am besten sei. Die daraus resultierenden Anreiz- und Empfehlungssysteme zur Optimierung eines Entscheidungsprozess werden durch Algorithmen induziert, die wiederum durch personalisierte Wahlen auf ein Individuum zugeschnitten werden. Diese Form von ‚Dataveillance‘ setzt auf Big Data (Mining) als den ‚heiligen Gral‘ zur Generierung von Verhaltenswissen. Denn nicht die Daten alleine, sondern vielmehr die Extraktion von Mustern aus den gesammelten Datenvorräten kreieren den eigentlichen Wert von Big Data.

Die destillierten Muster dienen sodann dazu durch Nudging und Nudges ein Anreizsystem als Wahlarchitektur (mittels Lob oder Tadel) für die Nutzenden zu gestalten. Nudges nutzen psychologische Mechanismen, um die Entscheidungsfindung zu steuern und treten dabei nur auf einer unterschwelligen Ebene ins Bewusstsein. Sie sollten transparent sein, jedoch sind ihre Absichten tendenziell opak. Daher können diese auch Verhaltens- und Bewusstseinsveränderung evozieren, die so subtil sind, dass die Grenze zur Manipulation fließend ist. Sogenannte Hypernudges basieren auf live data streams, die mit der persönlichen Datengeschichte der Nutzer:in gekoppelt sind sowie den Abgleich mit Empfehlungen und Entscheidungen, die Menschen wie Du getroffen haben, wodurch ein Vergleich mit einer ganzen Population möglich wird. Hypernudges sind versteckt und perfekt in die digitale Umgebung eingebaut. Sie beruhen auf Scoring als einem selbstlernenden System, das auf personenbezogenen Daten zurückgreift, die Erfahrungswerte aus der Vergangenheit und Gegenwart bündelt und daraus zukünftiges Verhalten statistisch prognostiziert. Scoring schafft Verhaltensanreize, indem vergangenes Verhalten – nach unternehmenseigenen Vorstellungen –, beispielsweise durch spieltheoretische Elemente, belohnt oder bestraft wird. Darüber hinaus verdecken sie die ökonomischen Anreize der dahinterstehenden Unternehmen.

In einer algorithmischen Gesellschaft wird vordergründig nicht gegen Widerstände gearbeitet, sondern bei den Motiven und Wünschen von Personen angesetzt, um sie mittels geeigneter Stimuli anzuleiten. Verhalten wird so nicht mittels einschränkender Vorschriften reguliert. Vielmehr wird die Entscheidungslast von einer Instanz abgenommen, die sodann vorteilhafte oder nachteilige Folgen für eine Person evoziert. Opak bleibt in diesem Prozess, mit welchem Wissen und mit welcher Autorität eine Instanz bestimmt, was für Nutzer:innen am besten ist. Insofern ist es von zentraler Bedeutung, welche soziale Beziehung und welche Abhängigkeiten daran gebunden sind, wenn ein Akteur für Individuen Entscheidungen strukturiert oder deren Entscheidungen trifft.

Eine algorithmische Wirklichkeit sui generis würde die informationelle Selbstbestimmung empfindlich tangieren, da die Möglichkeit zur Verhaltensmanipulation die Selbstbestimmung großflächig darin angelegt ist. Etwa, weil sich die Nutzenden überhaupt keinen „Überblick über die eigene Datenspur“ mehr verschaffen können. Privatsphäre im Sinne von Privatheit ist ein mehrdeutiges Konzept, rekurriert zuvörderst auf die Kontrolle über den Zugriff auf die eigenen Informationen einer Person. Es geht also um die Kontrolle, welche Informationen aus den Datensammlungen gewonnen werden können und welche Folgen für die/den Einzelne:n daraus entstehen. Datenschutz bezieht sich jedoch nur auf die Verarbeitung personenbe­ zogener Daten.

Die Auflösung der Privatsphäre im Sinne der informationellen Selbstbestimmung ist im virtuellen Raum aber vor allem durch die Aggregation nicht-personenbezogener Daten bedingt, da durch Korrelation von enormen Mengen an Daten personenbezogene Daten abgeleitet werden können. Die algorithmisch generierten Auswertungen erzeugen weitere Muster, die wiederum in weiteren algorithmischen Entscheidungsprozessen als Fremdzuschreibung auf das Selbst treffen und die Möglichkeit zur Verhaltensmanipulation beinhalten. Diese Art von „Daten-Behaviorismus“ leistet einer algorithmischen Governance weiter Vorschub und das daraus resultierende digitale Panoptikum ist unsichtbar, schmerzfrei und tritt diskursiv mit Schlagworten wie Transparenz, Vernetzung und Sharing auf. Denn das Wissen über vergangene, gegenwärtige und zukünftige Präferenzen, Einstellungen und Verhalten, ohne auf psychologische Motivationen zurückgreifen zu müssen, allein auf Basis der Daten, führt bei den betroffenen Subjekten zu einer Internalisierung des Machtverhältnisses sowie zu einer Selbstkontrolle und proaktiven Änderung des Verhalten, wodurch die Grenze zwischen Privatem und Ökonomischem (noch weiter) verwischt wird.

Die Verschmelzung sozialer Lebenswelten mit digitalen Technologien findet in der digitalen Selbstvermessung einen weiteren Anknüpfungspunkt für die Datafizierung. Die digitale Selbstvermessung erfasst menschliches Leben in Echtzeit, indem Daten digital gesammelt, vorrätig gehalten werden und ein Deutungsangebot bereitgestellt wird. Die sogenannte quantified self community mit ihrem Slogan: ‚self-knowledge through numbers’ verspricht den Nutzenden durch die Quantifizierung ihres Lebens Werkzeuge zur Verbesserung und zur Kontrolle des Selbst an die Hand zu geben. Die Wirklichkeit wird so von Zahlenreihen erfasst, beschrieben und durch konkrete Entscheidungen bewertet. Beispielsweise in Bezug auf Gesundheit durch Fitness Gadgets wie Smartwatches oder sozialer Netzwerke wie strava, zuhause durch Smart Home Anwendungen, Accounts bei YouTube, Apple Music, Spotify etc., oder unterwegs, die Selbstüberwachung im Straßenverkehr, zwecks einer günstigeren Versicherungspolice. So wird auf individueller Ebene dazu beigetragen, dass die Datenbasis des digitalen Schattens des eigenen Selbst immer präziser wird. Die vermeintliche Präzision, Eineindeutigkeit, Vereinfachung, Nachprüfbarkeit und Neutralität durch Zahlen lassen die Überwachung der eigenen Gesundheit, des Musikgeschmacks oder des Fahrstils rational und wünschenswert erscheinen, da diese zumeist mit Belohnungen (Vorteilen, Erleichterungen) einhergehen.

Die Empfehlungen, Ratschläge und Sanktionen – positiv wie negativ – in solchen Arrangements bilden allesamt verhaltenskontrollierende und -lenkende Maßnahmen, die das Verhalten an bestimmten Normen und Zielen ausrichten. Die Quantifizierungen bringen manifeste Formen der Zuschreibung von Wertigkeit hervor. Algorithmische Prozesse bestimmen soziale Konstrukte wie Risiko, Gesundheit, Produktivität, Glaubwürdigkeit oder Popularität. Der Umstand, dass quantifiziert wird, ist offensichtlich; opak bleibt, wie die Konstrukte operationalisiert wurden. Denn die digitale Erfassung von Daten, deren algorithmische Indikatorisierung zur Kondensierung und Extraktion von Informationen aus dem Datenpool, enthalten im Vorfeld diverse Entscheidungsschritte. Diese Vorgänge sind hochgradig selektiv und normativ. Welche Daten einbezogen werden, wie sie gewichtet und auf welche Weise sie miteinander verknüpft werden, generiert eine je spezifische Bedeutung und Komplexitätsreduktion. Selbstvermesser:innen lassen es damit de facto zu, konditioniert zu werden, wobei dies allerdings nach Kriterien stattfindet, die sie nicht bestimmt haben.

Datenschutz im Sinne des Schutzes von personenbezogenen Daten als Voraussetzung für ein autonomes Leben rückt die informationelle Selbstbestimmung in den Fokus. Die Preisgabe der Privatsphäre aufgrund der alles durchdringenden Digitalisierung wird häufig mit dem Verlust der Autonomie gleichgesetzt. Jedoch wird außer Acht gelassen, dass die über­ wachten Subjekte auch eine aktive Rolle bei der Überwachung spielen. Sie sind Teil der Konstruktion der Überwachungswirklichkeit, indem sie selbstverständlich – selbstzensiert – ‚gewünschtes‘ Verhalten antizipativ re­ produzieren. Die Datensammlungen von (Groß-)Unternehmen und Geheimdiensten zielen nun aber – wie oben beschrieben – nicht nur darauf ab, einzelne Subjekte zu disziplinieren, sondern ermöglichen es Verhalten vorherzusagen und zu steuern. Wohl auch deswegen geht heute kaum jemand ohne Smartphone aus dem Haus, verzichtet auf die verschiedenen Dienste von Alphabet (ehemals Google) oder auf soziale Medien aus dem Hause Meta (ehemals Facebook).

Vielmehr sind Alexa und Co. aus dem Alltag kaum mehr wegzudenken, und das trotz diverser Datenskandale in den letzten Jahren. Diskussionen über Datenschutz und Überwachung werden zudem häufig mit dem Satz: „Ich hab´ ja nichts zu verbergen (und von daher auch nichts zu befürchten!)“ abgetan. Diese Legitimationsstrategie wurde passiv internalisiert und impliziert, dass es im Kontext der Dataveillance um ‚die Anderen‘, nicht aber um das eigene Selbst geht. Durch die Rezeption wird das Recht auf Privatsphäre sukzessive entwertet und zurückgedrängt.

Trotz der (fatalistischen oder vermeintlichen) Resignation hinsichtlich des informationellen Kontrollverlusts sollten Konzepte wie die informationelle Selbstbestimmung, Privatheit und Privatsphäre sowie Datenschutzes als eine der zentralen Machtfragen im 21. Jahrhundert betrachtet werden. Denn Privatheit und Privatsphäre changiert zwischen Autonomie und Kontrolle und konzentriert sich nicht mehr unmittelbar auf Subjekt, sondern den relationalen sozialen Raum. Die Etablierung einer ‚digitalen Souveränität‘, die das Gegenteil der beschriebenen digitalen Vulnerabilität darstellt, soll eine Möglichkeit an die Hand geben, der mehr oder weniger ‚totalen‘ digitalen Kontrolle der Subjekte entgegenzuwirken. Digitale Souveränität rekurriert auf die Agency als Handlungs- und Gestaltungsfähigkeit der Subjekte. Dazu ist es notwendig, eine Digitalkompetenz auf der individuellen Ebene zu etablieren, etwa durch Schulungen, aber auch durch stärkere Regulierung digitaler Dienste und Verbraucherschutz durch verbesserte Transparenz. Wissen und Transparenz über die Erhebung, Verarbeitung und Nutzung von persönlichen Daten sowie über algorithmische Entscheidungssysteme und deren Funktionsweise öffentlich zugänglich zu machen, verändert auch den Blick auf die Nutzenden. Sie sind dann nicht mehr nur die vermeintlich passiven und verwundbaren Ziele der Datafizierung. Vielmehr können sie sich organisieren, Wissen aneignen und dadurch eine Handlungsfähigkeit erlangen, die sie befähigt, den Kampf um Privatsphäre und Datenschutz für sich zu entscheiden.

Proaktiver Datenaktivismus sieht in offener/ freier Software eine Möglichkeit einen sozialen Wandel der Digitalität zu initiieren, der die Befähigungsperspektive der Subjekte stark macht und sie zur Partizipation animiert. Proaktive Datenaktivist:innen agieren in unterschiedlichen Konstellationen und Organisationen, um die ungleiche Machtverteilung und Monopolisierung der Datenanalyse zu brechen. Etwa indem sie sowohl mittels ‚open data‘ und freier Software gegen die „Landnahme der Algorithmen“ vorgehen und aktiv und öffentlichkeitswirksam informationelle Selbstbestimmung einfordern. Sowohl gesetzlich, indem der Gesetzgeber die Gefahren, die aus der Datenverarbeitung für Subjekte hervorgehen, einhegt durch Fest­ schreibung von Missbräuchen der Privatsphäre, als auch durch öffentlichkeitswirksame Aktionen, Aufklärung zum Selbstschutz und politische Handlungsempfehlungen.

3. Plattformbasierte Arbeitskoordination im Fahrradkurierwesen

Der Grundgedanke von digitalen Plattformkonzepten beruht u.a. auf der großflächigen, automatisierten und vernetzten Sammlung und Nutzung von (Persönlichkeits- und Meta-)Daten als Geschäftsmodell. Die digitale Plattformökonomie kann als paradigmatisch für den oben beschriebenen Überwachungskapitalismus verstanden werden. Daher soll anhand zwei konträrer Beispiele von Plattformunternehmen, die im Fahrradkurierwesen tätig sind, das Spektrum der Dataveillance zwischen kommerzieller oder aktivistischen Datennutzung beleuchtet werden. Das erste empirische Beispiel rekurriert auf ein kommerzielles Plattformunternehmen, dass sich auf die regionale, nationale und internationale Bereitstellung einer Fahrradkurierlieferflotte für Essensauslieferung spezialisiert hat und diese über ein algorithmisches Management koordiniert. Die andere empirische Fallstudie nimmt ein Fahrradkurierkollektiv in den Blick, dass sich nach eigenen Angaben von der Anreizpolitik und Disziplinierung durch automatisierte Prozesse emanzipieren will. Die Nutzung algorithmischer Infrastrukturarchitekturen zur Arbeitskoordination stellt eine verbindende Gemeinsamkeit des kommerziellen und des gemeinschaftlich geführten Kurierunternehmens dar.

Die Ausgestaltung der Überwachung, Verdatung und Quantifizierung des Arbeitsalltages variiert in der Praxis und ist je nach Ausrichtung des Plattformunternehmens unterschiedlich. Allerdings birgt die Datafizierung im Arbeitskontext eine Brisanz, der sich auch das gemeinschaftlich geführte Kollektiv nicht komplett entziehen kann. Vor allem in Bezug auf Nudges, Gamification und des Daten-Behaviourismus insgesamt lassen sich so unterschiedliche Maßnahmen zur (Selbst-)Disziplinierung und Steuerung der Mitarbeiter:innen beobachten, die wiederum unterschiedliche Reaktionen hinsichtlich Privacy- und Datenschutzkonzepte evozieren. Im Folgenden sollen daher die Spannungen, Ambivalenzen und Herausforderungen, die durch die Datafizierung möglich geworden sind, in den verschiedenen empirischen Ausgangssituationen vergleichend diskutiert werden.

Eine bedeutende Gemeinsamkeit der beiden doch sehr unterschiedlichen Plattformunternehmen bezieht sich auf die für die Arbeitskoordination wesentliche algorithmische Infrastruktur, wodurch der Arbeitsprozess kleinteilig überwacht werden kann. Der kommerzielle Kurierdienst setzt bei der Mitarbeiter:innenführung auf eine Steuerung und Herrschaft durch ein algorithmisches Management, das mittels technikvermittelter Regelsetzung und Modularisierung die Handlungsspielräume der Arbeitskräfte massiv begrenzt. Die algorithmisch induzierte Quantifizierung der Arbeitsleistung und die lückenlose Ablaufkontrolle sowie das automatisierte Tracking sorgt für eine Reduktion der Subjektivität der Fahrer:innen des kommerziellen Lieferdienstes auf ihren Datenschatten und ermöglicht es dem algorithmischen Management eine umfassende Dataveilance zu installieren. Das so erzeugte rigide Kontrollregime erzeugt mitunter eine hohe Fluktuation im Unternehmen aber auch selbstorganisierten Widerstand seitens der Fahrer:innen. Während zu Beginn des selbstorganisierten Widerstandes Datenschutz kaum ein Thema war, formierte sich über den Zeitverlauf, animiert von Einzelkämpfer:innen – die juristisch gegen das Unternehmen vorgegangen waren –, auch Interessenvertreter:innen zu diesem Thema.

Das kollektiv geführte Plattformunternehmen wurde von ehemaligen Fahrer:innen des kommerziellen Lieferdienstes gegründet und verfolgt den Anspruch, aufgrund der Erfahrungen der algorithmischen Steuerung diese Art von Führung zu vermeiden. Ziel des Kollektivs ist es, einen sozialen Wandel durch den Einsatz von digitalen Technologien, die zur Partizipation und Mitbestimmung in allen geschäftlichen Bereichen befähigen, zu initiieren. Die algorithmische Infrastruktur für die Arbeitskoordination ist auch im Kollektiv zentral für den Auslieferungsprozess. Das Besondere dabei ist jedoch, dass die Software von CoopCycle, der ‚Kooperative der Kooperativen‘ – ein gemeinwohlorientiertes Fahrradkurier-Netzwerk – programmiert wurde und ausschließlich an demokratisch verfasste Kollektive weitergegeben wird. Das Kollektiv hat – wie alle anderen angeschlossenen Kooperativen – keine direkte Zugriffsmöglichkeit auf den Code der Software. Durch beständige Feedbackschleifen durch ein Online-Portal und Sofort-Support bei Problemen besteht jedoch die Möglichkeit die Software weiterzuentwickeln und den eigenen Bedürfnissen anzupassen.

Bei beiden Unternehmen garantieren die Algorithmen der Plattform die effiziente Gestaltung des Arbeitsablaufs. Das algorithmische Management des kommerziellen Plattformunternehmens übernimmt die gesamte Koordination und schaltet die jeweiligen Arbeitsschritte sukzessive frei. Diese Modularisierung ermöglicht eine niederschwellige Partizipation aller Beteiligten. Die damit einhergehende Standardisierung lässt sodann aber keine Abweichung von den vorgegebenen Pfaden zu. Die Fahrer:innen haben somit keine Möglichkeit in ablaufende Prozesse einzugreifen oder zu der Lösung etwaiger Probleme im Lieferablauf beizutragen (wie beispielsweise ihr qualitatives Wissen über regionale Umwelterfordernisse, da es durch das algorithmische Management nicht wahrgenommen werden kann).

Im Gegensatz zu der kooperativen Software stellt die vollautomatisierte und prozessumspannende Arbeits- und Ablaufkontrolle entlang standardisierter Kennziffern keine Kommunikations- und Feedbackschnittstellen zur Verfügung. Während die Kommunikation dort auf allen Ebenen begrenzt wird, ist im Kollektiv Kommunikation das alles übergreifende Koordinationsprinzip. Dies liegt auch in der Maxime begründet allen Mitgliedern eine selbstbestimmte Arbeit durch die Verteilung von Gestaltungsmacht zu ermöglichen. Regelsetzungen werden über Konsens (idealiter) oder Mehrheitsentscheid (realiter) hergestellt. Die alltägliche Kommunikation findet vorrangig über Onlinedienste und -plattformen (wie Slack, für die situative Abstimmung, und Zello, als Push-to-Talk-Kommunikation während des Auslieferungsprozesses) statt. Das Zusammenspiel aller verwendeten kommunikationstechnischen Tool sowie intensive kommunikative Abstimmungen in regelmäßigen face-to-face Plenarmeetings garantiert die Funktionsfähigkeit des Kollektivs. Sie gründet sich somit nicht allein auf die algorithmische Infrastruktur zur Arbeitskoordination, die zwar in ihrer Funktionsweise ähnlich der kommerziellen Variante ist, jedoch deutlich flexiblere Handlungsspielräume, aufgrund geringer Modularisierung, beinhaltet. Allerdings sind die kostenlosen Software-Lösungen mitunter Teil der Überwachungsunternehmen wie oben beschrieben, wodurch die Mitglieder des Kollektivs auch durch ihre Arbeit ihre Datenspur vertiefen und den Herrschaftsmodus und die daraus resultierende Asymmetrie zwischen Beobachter:innen und Beobachteten reproduzieren, ohne dies zu reflektieren.

Alle Aktivitäten der Fahrer:innen, ihre Verweildauer auf der Plattform bzw. in der Smartphone-Applikation, ihre Durchschnittsgeschwindigkeiten, ihre Reaktionszeiten und weitere Faktoren können durch die technische Infrastruktur der Plattform registriert, gespeichert und aggregiert werden. Während der kommerzielle Anbieter die ‚Zustimmung‘ zu einer solchen Datenpraxis quasi mittels eines Click Warp-Vertrags bei Einstellung sowie bei der – für die Arbeit notwendigen – Nutzung der Smartphone-Applikation einholt, werden diese Funktionen in dem kooperativen Unternehmen nicht verwendet. Das bedeutet, dass die Daten nur gesammelt werden, aber durch das Kollektiv nicht abgerufen werden. Dies ist zum einen der Einsicht geschuldet, dass die Quantifizierung des Arbeitsprozesses qualitative Faktoren nicht berücksichtigen kann (wie beispielsweise einen Platten am Fahrrad oder etwa kurzfristige und notwendige Pausen aufgrund der Witterungsbedingungen). Zum anderen würde die Standardisierung der Leistung der Individualität der Arbeitenden nicht gerecht und wirke durch die Vergangenheitsfixierung in den Leistungsdaten als zusätzliche Stressquelle.

Die Datafizierung der Arbeitsleistung stellt für das algorithmische Management eine Notwendigkeit der Funktionsfähigkeit dar, da es nur auf der Basis der Quantifizierung und Kategorisierung der Fahrer:innen diese auch steuern kann. Das detaillierte Echtzeit-Tracking-System nudged die Fahrer:innen anhand von Nachrichten, die in der App während der Auslieferungsprozesses lanciert werden. Anhand von Vergleichswerten aus früheren Auslieferungsfahrten werden so Verhaltensempfehlungen abgegeben, die die eigene Leistung steigern sollen. Darüber hinaus sind sowohl das Bonussystem, das ab einer bestimmten Anzahl von Auslieferungen einen Zusatzverdienst gewährt, als auch das Schichtbuchungssystem von den Leistungsdaten der Arbeitnehmenden abhängig. Die Leistungsprofile der Arbeitnehmer:innen bilden die Grundlage dafür, wer wann Zugang zum Schichtbuchungssystem bekommt. Werden die Daten vom algorithmischen Management als ‚schlecht‘ eingestuft, bedeutet dies gleichzeitig auch, dass diejenige Arbeitskraft erst später die noch verfügbaren Schichten buchen kann, wodurch unter Umständen wiederum ein finanzieller Nachteil entsteht.

Die Disziplinierung über die erhobenen Daten wird außerdem zusätzlich über die firmeninterne Veröffentlichung in Form eines monatlichen Newsletters forciert. Die grafische Aufbereitung einzelner Leistungsdaten sowie interne Bestenlisten und überregionale Rankings der Standorte sollen als Anreizsysteme die Motivation der Fahrer:innen steigern, jedoch werden dabei weder regionale Unterschiede noch divergente Bedingungen im Straßenverkehr berücksichtigt. Diese Form von Gamification wird im Kollektiv nicht durch die verwendete algorithmische Infrastruktur induziert. Jedoch vergleichen die Fahrer:innen sich und ihre Leistungen über das soziale Netzwerk Strava zum online Tracking sportlicher Aktivitäten. Auch Strava motiviert seine Nutzer:innen etwa mit Belohnungs- und Warnsystemen. Es kreiert aus einer einsamen Übung ein spannendes Spiel, in das Freund:innen wie auch unbekannte Nutzer:innen (aufgrund von Alter, Ort, Geschlecht, ähnlicher Leistungsdaten etc.) involviert werden können. Diese Spielelemente sind konzipiert, die Nutzenden zu animieren sich stetig zu vermessen und mit anderen zu konkurrieren, um laufend Daten zu generieren. Auch hier wird mit spieltheoretischen Elementen wie Bestenliste anhand der Leistungsdaten operiert und Belohnungen wie Auszeichnungen und Abzeichen vergeben, um die Nutzer:innen zu motivieren und sie dazu anzuhalten, ihre Leistungen stetig zu protokollieren und zu verbessern.

Durch das Livetracking in Kombination mit Scoring entsteht eine detaillierte individuelle ‚Leistungsübersicht‘, die jede auf der Plattform registrierte Aktivität speichert. Während dies für die Fahrer:innen des kommerziellen Unternehmens bedeutet, dass auch jeder Unfall, jeder Konflikt oder jede Verspätung als Referenz für künftige Bewertungen, Disziplinierung und Steuerung hergenommen wird, trifft dies im Fall des kooperativ geführten Unternehmens nur insofern nicht ebenso zu, da es nicht unternehmensintern aufgesetzt wurde. Die Verhaltenskonditionierung erfolgt somit im Fall des Kollektivs ‚freiwillig‘ und unternehmensextrem. Da die Algorithmen von Strava nicht wissen können, dass die Mitglieder des Kollektivs sich im Arbeitskontext selbstvermessen und die Nudges zur Verbesserung der Leistungen animieren, kann es durchaus sein, dass die Anreize daraufhin wirken, dass die Fahrer:innen schneller und gefährlicher fahren. In beiden Fällen ermöglicht es – unabhängig von der Ausgestaltung und Konsequenzen für die digitalen Subjekte – die Sammlung, Kombination und Analyse von Daten in Echtzeit. So wird eine personalisierte Auswahl an Optionen geboten, die bereits auf Verhaltensvorhersagen basieren und so eine hohe Wahrscheinlichkeit erzielen das gewünschte Verhalten zu evozieren. Die vermeintliche Objektivität der Daten verschleiert die zugrundeliegenden Absichten (der dahinterstehenden Unternehmen). Zusätzlich bleibt unklar, wie die jeweiligen Kennziffern genau zustande kommen und welche Aussagekraft ihnen zukommt. Es zeigt sich also auch im Kollektiv, das sich von den Arbeitsbedingungen der Plattformökonomie durch die Ausgründung emanzipieren wollte, dass der Überwachungskapitalismus durch die Hintertür weiterhin zumindest indirekt relevant ist.

Während sich die Essenskurier:innen weder einen Überblick über ihre eigene Datenspur verschaffen können, noch in irgendeiner Form Kontrolle darüber ausüben können, welche Informationen erhoben und dann aus der Datensammlung mittels Muster und Cluster gewonnen werden, ist Transparenz für die Mitglieder des Kollektivs bei allen anfallenden Daten ein wichtiges Kriterium der täglichen Arbeit. Das bedeutet, dass alle Firmendaten für alle Mitglieder jederzeit offen zugänglich sind. Da es keine (formale) Hierarchie gibt und jede:r alle Aufgaben übernehmen kann, erfolgen darüber hinaus regelmäßig stattfindende Überblicksrunden aus den jeweiligen Arbeitsbereichen. Diese Transparenz sorgt dafür, dass die Mitglieder selbstbestimmt entscheiden und partizipieren können und stellt das Gegenteil der digitalen Vulnerabilität der Fahrer:innen des kommerziellen Unternehmens dar. Im Vergleich zu den kommerziellen Fahrer:innen, deren informationelle Selbstbestimmung innerhalb des Arbeitsverhältnisses massiv eingeschränkt ist, da sie bisher keinerlei Einsichtnahme, auch nicht über kollektive Interessenvertretungsstrukturen, in die Datensammlungen des algorithmischen Managements, durchsetzen konnten, zeigen sich bei den Mitgliedern der Kooperative erste Anklänge einer digitalen Souveränität. Allerdings nur in Bezug auf die verwendete algorithmische Infrastruktur zur Arbeitskoordination. Die verschiedenen kostenlosen Apps sowie die Nutzung von Strava konterkarieren jedoch die im Arbeitskoordinationskontext entstandene digitale Souveränität bzw. stehen dem diametral entgegen. Dadurch sind die Mitglieder des Kollektivs der gleichen digitalen Vulnerabilität ausgesetzt wie die Fahrer:innen des kommerziellen Lieferdienstes, jedoch ohne dies im Kollektiv kommunikativ adressieren zu können, da die Nutzung dieser Dienste aus einer finanziellen Notwendigkeit heraus als ‚alternativlos‘ wahrgenommen werden. An diesem Punkt zeigt sich, dass gezielte Aufklärung und Förderung von digitalem Wissen über die Datenpraxis der großen Digitalkonzerne dezidiert forciert werden muss, damit die Subjekte die informationelle Selbstbestimmung in den verschiedenen Arbeits- und Lebensräumen aktiv praktizieren (können).

4. Abschließende Betrachtung

Algorithmische Plattforminfrastrukturen vergrößern die Handlungs- und Erfahrungsspielräume und vereinfachen die Koordination und Abstimmung. Sie strukturieren und prägen individuelle, kollektive und organisationale Beziehungsmuster sowie Arbeits- und Austauschzusammenhänge und können soziale Kontrolle ausüben. Persönliche Daten und die zugrundeliegende menschliche Erfahrung werden kommodifiziert, wenn jede Internetsuche, jeder Klick und jedes Like getrackt, gespeichert und aggregiert wird. Die Quantifizierung der Subjektivität reduziert das digitale Subjekt auf seinen Datenschatten, da technisch nur wahrgenommen werden kann, was messbar ist. Die umfassende Datafizierung generiert individuelle Persönlichkeitsprofile, kategorisiert Personen und ihr Verhalten, antizipiert deren Entscheidungen und bietet somit die Möglichkeit zur Verhaltensmanipulation. Der daraus resultierende Überwachungskapitalismus fordert die informationelle Selbstbestimmung als Preis für ‚kostenlose‘ Internetdienste. Die ungleiche Machtverteilung und die Monopolisierungstendenzen der Datenanalysen verweisen auf die Wichtigkeit der Zentralstellung von Datenschutz im 21. Jahrhundert und der Etablierung einer digitalen Souveränität. Denn das Wissen um die digitale Vulnerabilität evoziert sodann eine doppelte Verhaltensänderung: zum einen erfolgt diese proaktiv, indem die Machtverhältnisse internalisiert werden, wodurch es vermehrt zu selbstinszenierten (vermeintlich) gewünschtem Verhalten kommt. Zum anderen wird das individuelle Verhalten reaktiv durch Nudging und Hypernudges herausgefordert. Diese können unter Umständen sogar über eine Verhaltensänderung hinausreichen und eine Bewusstseinsveränderung wie auch eine Realitätsverschiebung zeitigen. Die Förderung und der Ausbau einer digitalen Kompetenz einhergehend mit einer stärkeren Regulierung von Internetunternehmen im Sinne des Verbraucherschutzes sowie eine verbesserte Transparenz könnte die Grenzverschiebung von privat-öffentlich und ökonomisch zumindest partiell rückgängig machen.

Am Beispiel des kommerziellen Auslieferungsunternehmens wurde verdeutlicht, dass die vollautomatisierte und modularisierte Arbeitskoordination die Autonomie der einzelnen Fahrer:innen deutlich einschränkt. Die Beschäftigten werden zu informationstechnisch ausgeleuchteten Ausführungsvariablen, die durch umfassende Leistungskontrollen gesteuert und diszipliniert werden. Die algorithmische Governance mündet in einem Datenbehaviorismus, der vordergründig mit Anreizen und Belohnungen operiert, jedoch auch sanktioniert und bestraft. Die Arbeitnehmer:innen haben dabei keine Möglichkeit ihre Datenspur einzusehen oder zu verändern. Sie können sich noch nicht einmal sicher sein, dass ihre Daten nicht – bestenfalls in anonymisierter Form – weiterverwendet und verkauft werden.

Aber die Fahrer:innen sind nicht nur passive Rezipient:innen algorithmischer Kontrollstrategien, sondern entwickelten vielfach auch eigen- und widerständige Reaktionen. Während zu Beginn des selbstorganisierten Widerstandes Datenschutz kaum ein Thema war, forderten die Arbeitnehmer:innen zuerst vereinzelt (vor allem auf dem juristischen Weg) und sukzessive auch kollektiv ihre informationelle Selbstbestimmung zurück. Der erfolgreiche internationale selbstorganisierte Widerstand hat diverse Verbesserungen der Arbeitsbedingungen mit sich gebracht. Mitunter folgte aus der Selbstorganisationsbewegung auch die Gründung eigener Initiativen und Kollektive, wie das Beispiel des gemeinschaftlich geführten Kollektivs exemplarisch zeigt. Während das Kollektiv als gemeinschaftlich geführtes Unternehmen Hierarchien und algorithmische Disziplinierung ablehnen und Kommunikation als umfassendes Koordinationsprinzip installierten, zeigt sich jedoch auch hier, dass die überwachungskapitalistischen Unternehmen fest in den gesamten Arbeitsprozess integriert sind. Nicht nur die Koordination über die kostenlosen Apps zur Erleichterung der Kommunikation, sondern vor allem auch die freiwillige Selbstvermessung durch Strava beinhaltet die Möglichkeit der unbewussten Steuerung und Konditionierung.

Zusammenfassend kann gesagt werden, dass die Etablierung einer umfassenden digitalen Souveränität der einzelnen digitalen Subjekte weiterhin mit diversen individuellen und kollektiven Lernprozessen verbunden ist. Es ist noch ein langer Weg die digitale Vulnerabilität nicht nur sichtbar zu machen. und sie sodann sukzessive zu überwinden.

Jasmin Schreyer in: Künstliche Intelligenz, Demokratie und Privatheit; Nomos Verlag, Baden-Baden; 2022

https://doi.org/10.5771/9783748913344

https://creativecommons.org/licenses/by/4.0/deed.de

Zur einfacheren Lesbarkeit wurden die Quellenverweise entfernt.


© Swiss Infosec AG 2024