Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Digitale Ethik – Worthülse oder beachtliches Konzept?

1. Vorbemerkung

Die Digitalisierung verändert unsere Gesellschaft und stellt sie vor enorme Herausforderungen. Das haben wir in den vorangegangenen Kapiteln bereits vielfach gesehen. Nicht zuletzt, wenn man davon ausgeht, dass die Digitale Transformation ihrem Wesen nach mehr ist, als eine technologische bzw. betriebliche Lösung. Denn dann erfordert sie ein auf sie passendes Verständnis von Verantwortung, um die entfesselten, beschleunigten Kräfte der Digitalisierung so gut es geht zu kanalisieren und sowohl für die Wirtschaft, als insbesondere auch für die Gesellschaft produktiv zu nutzen. Aus der Perspektive von Unternehmen kommt dabei der Begriff der Corporate Digital Responsibility (CDR) ins Spiel, in dessen Zusammenhang die Verantwortung von Unternehmen unter den Bedingungen der Digitalisierung diskutiert wird. Denn die Digitalisierung zieht auch eine Veränderung der häufig unter dem Label der Corporate Social Responsibility (CSR) verorteten Unternehmensverantwortung nach sich und erfordert entsprechende praktische Lösungen. Gerade in Unternehmen, aber auch darüber hinaus mit Blick auf die Gesellschaft, ist durch diese Veränderungsdynamik immer auch die IT-Sicherheit herausgefordert, die als Garant für die notwendige Stabilität des insgesamt noch fragilen Systems einer digitalisierten Gesellschaft fungiert.
Digitale Ethik indes geht über den Fokus der Corporate Digital Responsibility hinaus. Bereits im vierten Kapitel haben wir festgestellt: Wenn nun eine Digitale Ethik das Ziel verfolgt, Menschen zu einem angemessenen Umgang mit den digitalen Technologien und deren Auswirkungen zu befähigen; wenn es darum geht, Probleme der Digitalität zu erkennen, Lösungen zu entwickeln sowie ethische Dilemmata zu sehen und zu beurteilen, dann schwingen ethische Fragestellungen in der IT-Sicherheit immer auch in die Digitale Ethik hinein.


2. Was Digitale Ethik sein kann

Ethik ist die Reflexion der Moral, die ihrerseits als faktisch gelebtes Wertesystem einer Gemeinschaft verstanden werden kann. Das heißt Ethik hinterfragt die in einer Gemeinschaft geltenden (moralischen) Regeln und unterzieht sie einer kritischen ethischen Bewertung. In letzter Konsequenz fragt die Ethik nach dem guten Leben und mithin danach, wie man handeln soll, damit man dieses gute Leben erreichen kann, und zwar in Gemeinschaft mit anderen. Es geht also letztlich immer auch darum, wie die Gesellschaft aussehen soll, in der wir leben wollen und wie wir diese Gesellschaft aufrechterhalten können. Das gilt auch für die Gesellschaft unter den Bedingungen der Digitalität. Denn die Digitale Transformation verändert unsere Gesellschaft und führt zu neuen Herausforderungen, die unter ethischer Perspektive zu betrachten sind. Digitale Ethik, so könnte man folglich aus einer lebensweltlichen Perspektive sagen, fragt danach, wie unsere digitalisierte Gesellschaft aussehen soll, so dass ein gutes Leben in ebendieser Gesellschaft verwirklicht werden kann.

Was aber ist ein gutes Leben in der sogenannten „Digitalen Gesellschaft“ bzw. grundlegender, was ist eine gute Digitale Gesellschaft? Und wie soll ich mit den Anforderungen und Problemen, die diese Gesellschaft mit sich bringt nicht nur in technologischer, sondern eben auch in ethischer Hinsicht adäquat umgehen? Aus Perspektive der Cybersecurity kann man zuspitzen: Wie können die digitalisierte Gesellschaft und ihre Teilbereiche vor Angriffen auf ihre IT-Strukturen geschützt und diesbezüglich weiterentwickelt werden?
Ein markantes Beispiel dafür ist die Sorge vor Wahlmanipulationen durch ausländische Dienste, die unter Umständen einen signifikanten Einfluss auf den Ausgang einer Wahl haben können, etwa indem sie über die Verbesserung bzw. Verschlechterung der Wahlchancen einer Partei oder einer Person in das politische Kräftefeld eingreifen. So können sie sogar in die kommende Amtsperiode hineinwirken, was letztlich wiederum für die Entwicklung der Gesellschaft insgesamt relevant ist. Die zahllosen strittigen Diskussionen um die Unterstützung des US-amerikanischen Expräsidenten Trump durch den russischen Präsidenten Putin sind ein prominenter Beleg dafür. Auch Deutschlands Demokratie und ihre Wahlen bleiben nicht verschont von Hackerangriffen. „Das reicht von der IT in den Parlamenten über die Rechner der Politiker und ganz wichtig, auch die IT der Medien und nicht zuletzt der Bürger. Und alle diese Systeme können einen Einfluss auf den Ausgang der Wahl haben.“

Weder auf die technologischen, noch auf die ethischen Herausforderungen, die mit dem Schutz der Digitalen Gesellschaft und ihren Teilbereichen verbunden sind, wird es eine einzige oder gar einfache Antwort geben. Zumal in komplexen modernen Gesellschaften mit ihren Pluralitäten und Diversitäten. Viel wichtiger wird es aus ethischer Perspektive sein, (sich) einen offenen Zugang zu einem Diskurs zu ver/schaffen, in dem die virulenten ethischen Fragen, die die Digitale Gesellschaft aufwirft, verhandelt werden können. Um in diesem Diskurs bestehen zu können, und nicht der Meinungsmache selbsternannter oder vermeintlicher Autoritäten anheim zu fallen, braucht es ein Bewusstsein für ethische Problemlagen, aber auch für die Vielfalt von Wertehaltungen, die darin vertreten sind. Es braucht die Kompetenz, kritische Sachverhalte zu erkennen und ethisch begründet einschätzen und gegebenenfalls auch vertreten zu können. Doch das ist eine bisweilen unbequeme und aufreibende Angelegenheit, die persönliches Engagement erfordern kann.

„Faulheit und Feigheit sind die Ursachen, warum so ein großer Teil der Menschen […] gerne zeitlebens unmündig bleiben, und warum es anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein.“ Das stellt der Philosoph der Aufklärung, Immanuel Kant, schon im 18. Jahrhundert fest und fordert: „Habe den Mut, dich deines eigenen Verstandes zu bedienen!“ Gerade die Digitale Gesellschaft mit ihren Verführungen und Versprechungen erfordert im Sinne Kants ein besonderes Maß an Mut zum eigenständigen Denken und Handeln. Ein aufgeklärter Umgang mit der Digitalisierung, bei man sich die Mühe macht, sich seines eigenen Verstandes zu bedienen und die Digitalität in unseren diversen Lebensbereichen kritisch zu beleuchten, anstatt ihre Produkte unterhinterfragt zu nutzen, kann eine zentrale Forderung einer Digitalen Ethik sein. Einerseits geht es darum, der Versuchung einfacher Antworten auf komplexe Fragestellungen zu widerstehen. Andererseits muss es auch darum gehen, sich nicht in der Komplexität der Herausforderungen zu verlieren und handlungsfähig zu bleiben.
Angesichts der Vielzahl der ethisch relevanten Fragen, die die Digitale Transformation bzw. die Digitale Gesellschaft mit sich bringen, wird es unmöglich sein, eindeutige und abschließende Bewertungen zu einzelnen Themen und Sachverhalten zu geben. Insofern kann die Klärung und Reflexion der eigenen Werte eine notwendige Orientierung geben. Eine begründbare Werteorientierung kann man die Basis sein, auf der man eine eigene belastbare Haltung entwickeln und mit der man der digitalen Welt begegnen kann. Die Entwicklung einer wertebasierten Orientierung und einer daraus abgeleiteten Haltung kann eine weitere zentrale Forderung einer Digitalen Ethik sein.

Wenngleich man die Digitale Ethik auch als eine Bereichsethik verstehen kann, in der allgemeine ethische Erkenntnisse mit bereichsspezifischem Wissen verbunden werden, sind die Herausforderungen der Digitalität und ihre Wirkungen auf unsere Welt so tiefgreifend, dass viele grundsätzliche Fragen der Ethik tangiert sind und unter den Bedingungen der Digitalität überprüft, teilweise ergänzt und neu bewertet werden müssen. Insofern geht die Digitale Ethik über eine Bereichsethik hinaus. Im Folgenden sollen drei bedeutsame Aspekte, die im Kontext der Digitalen Ethik auftauchen und die zugleich grundsätzlichen Charakter haben, benannt und kurz angerissen werden.


3. Drei grundlegende Aspekte der Digitalen Ethik

Von der aktuellen Diskussion um die ethischen Herausforderungen, die die Digitale Gesellschaft mit sich bringt, sind sehr viele Lebensbereiche betroffen. Entsprechend umfangreich ist die Liste an Aspekten, die man in diesem Kapitel behandeln könnte. Letztlich könnte man diese Liste auch immer weiter ergänzen, je nachdem welche Perspektive man einnimmt und wie detailliert und ausdifferenziert man vorgehen möchte. Insofern können die nachfolgenden Aspekte einer Digitalen Ethik nur einen exemplarischen Charakter haben und sie erheben nicht den Anspruch vollständig oder abschließend zu sein. Gleichwohl scheinen sie besonders dafür geeignet zu sein, ethische Konfliktlinien aufzuzeigen und das Problembewusstsein zu schärfen.


3.1. Strukturierung

Die digitale Welt ist keine bloße in sich und für sich abgeschlossene Sphäre, sondern sie hat auch konkrete und spürbare Auswirkungen auf die physische Welt in der wir als körperliche Wesen leben. Bekannte Beispiele etwa sind algorithmische Berechnungen, die unser Handeln oder unsere Möglichkeiten in der echten Welt beeinflussen, sei es im beruflichen oder privaten Bereich. Man denke beispielsweise an die Optimierung von Fahrtstrecken bei Speditionen, deren Fahrerinnen bei Abweichungen von der Wegstrecke oder bei Zeitüberschreitungen sanktioniert werden. Oder man denke an die Algorithmen basierte Berechnung der Kreditwürdigkeit, die sowohl auf dem bisherigem – in Daten hinterlegten – Konsumverhalten beruht, aber auch auf sozioökonomischen Daten aus der Nachbarschaft, in der man lebt und von deren Struktur auf die eigene Kreditwürdigkeit geschlossen wird. Es handelt sich hierbei um eine Verwobenheit der digitalen Welt, in der Daten aus der physischen Welt verarbeitet werden, mit der physischen Welt, in der Berechnungen aus der digitalen Welt strukturgebend wirksam werden. Und zwar, wie an den beiden Beispielen gezeigt, auch zum unmittelbaren Vor- oder Nachteil von Individuen. Vorstrukturierungen der physischen Welt, die aus der digitalen Welt kommen, können wir uns kaum noch entziehen. Nicht zuletzt in der Verwobenheit von physischer und digitaler Welt liegt ein wesentliches Charaktermerkmal der Digitalen Gesellschaft. Mit diesen Aspekten sind in der Folge auch Fragen der Gerechtigkeit und der Verantwortung verbunden. Wie gerecht sind solche Strukturen, mithin also: wie gerecht ist diese Gesellschaft? Gibt es Gruppen, die bevorzugt und oder benachteiligt werden? Und wer ist verantwortlich für die Gestaltung der Strukturen und deren Ausprägungen in der physischen Lebenswelt, die bisweilen massiv in unser individuelles sowie gemeinschaftliches Leben eingreifen können? Sollte man sich solchen Strukturen und auch grundlegenden Diensten – wie etwa dem Onlinebanking – überhaupt noch entziehen können bzw. entziehen dürfen? Immerhin wird die Flut der Apps auf unseren Smartphones zunehmend größer und der Druck von Anbietern, die ihre Kunden in die Onlinewelt drängen, wird schleichend immer überwältigender. Sicher fallen jedem Restaurants oder Bars ein, in denen die Speisekarte nur noch via QR Code auf dem Handy einsehbar ist, um nur ein Beispiel von vielen aufzuzeigen. Muss man sich unhinterfragt auf solche Entwicklungen und Nötigungen aus der digitalen Welt einlassen? Oder soll es aus ethischer Sicht die Möglichkeit der Digital Detox geben und ein Recht auf eine analoge Welt? Immerhin gibt es Stimmen, die davon ausgehen, dass dieser digitaler Entzug gar nicht mehr möglich und sinnvoll ist, weil die herrschenden digitalen Strukturen nach der digitalen Entgiftung sowieso wieder dominieren und auf uns einwirken. Damit wäre letztlich jeder selbst für den Umgang und die Nutzung digitaler Geräte und Anwendungen verantwortlich – und damit auch für die Teilhabe oder Selbstausgrenzung aus dem gemeinschaftlichen Leben. Aber kann das ethisch wünschenswert sein? Wenn es nun eine Aufgabe der IT-Sicherheit ist, digitale erzeugte Strukturen zu schützen, so liegt dahinter die ethische Frage, ob das, was geschützt werden soll, überhaupt schützenswert ist. Wenn wir hier weiterdenken, kommen wir zu Fragen der individuellen Verantwortung. Beispielsweise ob eine Expertin der IT-Sicherheit nur für die korrekte technische Umsetzung ihres Auftrags verantwortlich ist, oder ob sie nicht doch das, was sie tut, auch unter sehr grundlegender ethischer Perspektive verantworten, mindestens aber reflektieren und bewerten, müsste.


3.2 Zugang

In seinem Vortrag bei einem wissenschaftlichen Fachgespräch an der Berliner Hochschule für Technik im Juni 2021 diskutiert der brasilianische Philosoph Luiz Carlos Bombassaro ein grundlegendes Thema der Digitalen Ethik wie folgt: „Beleuchten wir nun das Thema der Ungleichheit beim Zugang zur digitalen Welt. Betrachtet man zunächst die wirtschaftliche und technologische Ungleichheit, so stellt man fest, dass es zunächst einmal eine tiefe Kluft zwischen den verschiedenen Regionen der Welt gibt. In Fall der Digitalen Transformation müssen wir nicht nur den sozioökonomischen Unterschied berücksichtigen, sondern auch den Unterschied in Bezug auf Bildung und technologische Produktion. Wir haben also einen abgrundtiefen Unterschied zwischen denen, die Zugang zur digitalen Welt haben, und denen, die keinen Zugang dazu haben. Wenn wir nun aber nur die Gruppe derjenigen nehmen, die Zugang haben, stellen wir auch fest, dass sie nicht in gleicher Weise und auf gleichem Niveau Zugang haben. Es gibt große technologische Unterschiede und oft sind auch die Kosten des Zugangs zur digitalen Welt unverhältnismäßig hoch. So kostet beispielsweise eine Internetverbindung für jemanden, der in einer Metropole in den USA lebt, viel weniger als für jemanden, der im Landesinneren von Afrika lebt. Entsprechend kann der Prozess der Digitalisierung selbst auch dazu führen, dass sich die Ungleichheit vergrößert. Somit kann das Problem der Ungleichheit des Zugangs sowohl eine Ursache als auch eine Folge von noch größerer Ungleichheit sein. Die These von der Chancengleichheit beim Zugang und der Nutzung der Vorteile der digitalen Welt ist angesichts der wirtschaftlichen und technologischen Unterschiede nicht haltbar. Wir haben also ein Problem zu lösen: Die Förderung des Zugangs zur digitalen Bildung bei denjenigen, die durch wirtschaftliche und soziale Bedingungen weniger begünstigt sind. Ich glaube, das ist es, worauf Regierungen, Unternehmen, Universitäten, Schulen und Gemeinden auf der ganzen Welt ihre Projekte und Aktionen ausrichten sollten.“ Der Zugang zum Internet und die damit verbundene Teilhabe an der digitalen Welt haben eine sehr grundlegende Bedeutung für die Behebung von Ungleichheiten und zur Herstellung von Gerechtigkeit in der digitalen Gesellschaft – sei diese national oder global gedacht. Zunächst einmal hat man als Bürgerin eines Staates eine bestimmte Nationalität und ein Heimatland. Doch mit der digitalen Gesellschaft werden nationale Grenzen transzendiert. „Das Internet ist ein Werkzeug, das eine Art von Weltbürgerschaft ermöglicht.“ Diese Einschätzung verweist auf die besondere Qualität des transnationalen Miteinanders, das durch die Digitalität und den digitalen Raum gesehen wird. Wie brisant und von grundlegend ethischer Relevanz damit der Zugang zu diesem Digitalen Raum ist, kommt in der Forderung nach dem „Internetzugang als Menschenrecht“ sowie der damit verbundenen Diskussion um Zensur und Meinungsfreiheit im Internet zum Ausdruck. Dass der Zugang zum Internet und damit zur Digitalen Welt sehr anfällig für Angriffe, Manipulationen und gar Zerstörung ist und damit in den grundsätzlichen Schutzbereich der Cybersecurity fällt versteht sich von selbst.


3.3. Bildung

In Zusammenhang mit dem Zugang zum Internet und der daraus resultierenden Frage nach der Gerechtigkeit in der Digitalen Gesellschaft steht die Frage der Bildung. Als Bildung kann man die Formung des Menschen bezeichnen, die notwendig und wünschenswert ist, um das jeweils gesellschaftsspezifische Menschsein zu realisieren. Damit ist gemeint, dass jede Gesellschaft eine Vorstellung eines ihr gemäßen Zusammenlebens hat, für das die Menschen in dieser Gesellschaft entsprechend gebildet sein müssen. Es geht also um die Formung des Menschen hin zu einem Mitglied einer wünschenswerten Gesellschaft. Dafür braucht es bestimmte erwünschte geistige, physische, soziale und kulturelle Eigenschaften und Fähigkeiten der Menschen, um ebendiese Gesellschaft zu erhalten. Insofern ist Bildung als abhängig von einer betrachteten Gesellschaft zu verstehen.
Es liegt im Wesen unserer modernen pluralistischen Gesellschaft, dass es in vielen Feldern umstritten ist, was das Wünschenswerte ist. Dennoch gibt es auch hier feststehende Werte, die als unumstößlich gelten. So ist beispielsweise Pluralität ein konstitutiver Grundwert einer modernen pluralistischen Gesellschaft an sich, da er ja die pluralistische Gesellschaft überhaupt erst ermöglicht – das klingt trivial, ist es aber nicht. Weitere unumstößliche Werte kann man aus den im Grundgesetz garantierten Grundrechten ablesen. Gleich im ersten Artikel des Grundgesetzes für die Bundesrepublik Deutschland ist die Würde des Menschen als unantastbar verbrieft und damit als einer der höchsten Werte in unserer Gesellschaft ausgewiesen. Es ist diese Würde des Menschen, die wir bereits im ersten Kapitel als das eigentliche Schutzgut der IT-Sicherheit ausgemacht haben und auf die sich in unserer Gesellschaft letztlich alle weiteren Schutzgüter die IT-Sicherheit zurückführen lassen.
Wenn wir nun die Digitale Gesellschaft im Blick haben, stellt sich die Frage, was Bildung in der digitalen Gesellschaft bedeutet und wie sie erreicht werden kann. Versteht man die Digitale Gesellschaft gewissermaßen als digitalen Zwilling (also als eine Art Kopie der analogen Gesellschaft im digitalen Raum) der nationalen Gesellschaft, dann dürften in hohem Maße die Werte der nationalen Gesellschaft in ihr adaptiert sein. Und Bildung würde auf diese Werte abzielen.
Geht man indes davon aus, dass die Digitale Gesellschaft transnational ist, also die Grenzen der Nationalstaaten überschreitet, dann können kulturell unterschiedliche Vorstellungen von Bildung – die von den nationalen Gesellschaften abhängen – kollidieren. Oder es entsteht im Laufe der Zeit eine neue, eigene Vorstellung davon, was Bildung in der Digitalen Gesellschaft ist. Damit sind wir wieder zu der Frage zurückgekehrt, was die wünschenswerte Digitale Gesellschaft ist und wie die Menschen die in ihr leben, geformt (also gebildet) werden müssen, um ebendiese Gesellschaft hervorzubringen bzw. zu erhalten.
Mit Blick auf die kritische Beobachtung und Reflexion der Entwicklungen in dieser Gesellschaft wird es nicht hinreichend sein, die Bildung und Formung nur auf die Anwendungskompetenzen digitaler Tools zu richten. Es wird mindestens genauso wichtig sein, ein Mindestmaß an Wissen über die damit einhergehenden Zusammenhänge und ethischen Herausforderungen zu haben. Die „Gebildeten“ in der Digitalen Gesellschaft brauchen ein Verständnis davon, womit sich Digitale Ethik befasst.
Für die sogenannten Digital Natives, die jungen Leute, die um die Jahrtausendwende geboren und mit dem Internet aufgewachsen sind, ist das Internet bereits eine neue Sozialisierungsinstanz, die sie auf ihre gesellschaftliche Rolle mitvorbereitet und formt. Doch nur, weil sie einen sehr geübten Umgang mit der Digitalität und ihren Anwendungen haben, bedeutet das nicht, dass diese in die Digitalität eingeborenen Menschen deshalb die digitale Welt und die digitalisierte Gesellschaft, in der sie leben, besser verstehen, als digitale „Einwanderer“ aus früheren Generationen. In die digitale Gesellschaft hineingeboren zu sein bedeutet nicht automatisch, dass man als digital Eingeborener ohne weiteres in der Lage ist, verantwortlich in und mit der digitalen Welt zu agieren. Das gilt nicht minder für Digital Natives, die sich in der IT-Sicherheit engagieren und durch ihre Arbeit die digitale Gesellschaft schützen. Es braucht folglich ein Wissen um (Digitale) Ethik allgemein und in dem Bereich der Cybersecurity ein Wissen um Ethik in der IT-Sicherheit.


4. Einige Themen der Digitalen Ethik

Die IT-Sicherheit bietet Schutz gegen Angriffe auf die digitale Sphäre unserer Gesellschaft. Am unmittelbarsten wird das wohl durch die IT-Sicherung des politischen Systems gegen Angriffe aus dem In- und Ausland deutlich. Doch auch die Abwehr von Cyberattacken auf Unternehmen oder Institutionen dient letztlich der Stabilisierung unseres gesellschaftlichen – und damit auch wirtschaftlichen, politischen, wissenschaftlichen etc. – Systems. Kurzum, in allen Bereichen, in denen digitale Technogien eingesetzt werden, ist auch die IT-Sicherheit gefragt, um Schaden abzuwehren bzw. entsprechende Angriffe in weiser und professioneller Voraussicht möglichst vorab zu verhindern. Da Technologien und gesellschaftliche Entwicklungen miteinander verwoben sind, schwingen immer auch ethische Fragen mit; Fragen, die je nach Bereich mehr oder weniger brisant sind. So ergeben sich Themen, die unter dem Dach der Digitalen Ethik diskutiert werden und die auch die IT-Sicherheit in unterschiedlichem Maße betreffen können.
Neben den bisher in diesem Kapitel entwickelten Forderungen und den identifizierten grundlegenden Aspekten einer Digitalen Ethik werden zahlreiche konkrete Themen und Entwicklungen unter ihrer Überschrift diskutiert. Zusätzlich zu den grundlegenden ethischen Fragen hinsichtlich der Datensouveränität und des Datenschutzes bringen spezifische technologische Entwicklungen häufig spezifische ethische Konfliktfälle und Fragen mit sich. Einige solcher virulenten und kontrovers diskutierten Themen sind nachfolgend genannt und ihr jeweils spezifischer Konfliktpunkt betont.


4.1. Autonome Fahrzeuge

Ein spezifischer Punkt, an dem sich die kritischen Diskussionen entfachen, ist der Frage nach der Verantwortung im Falle eines Unfalls. Wer haftet, wenn ein Fahrzeug, dass durch Algorithmen gesteuert wird, einen Unfall baut. Sehr brisant ist dabei die Abwägung des Schadens, der im Falle des Falles minimiert werden soll. Wenn ein Unfall mit Personenschäden unausweichlich ist: Soll das Fahrzeug dann eher in die Gruppe mit Seniorinnen am Straßenrand oder auf das einzelne Kind, das plötzlich auf die Straße springt, steuern? Es steht hier der Wert des Menschen im Zentrum und die Frage, ob man individuelle Menschen mit je unterschiedlichen Werten versehen darf, so dass der Algorithmus den Wagen in die Menschengruppe mit dem geringsten Wert steuert. Denn dadurch würde (rechnerisch) der unausweichliche Schaden minimiert.


4.2. Mensch-Maschine-Interaktion

Brisante ethische Herausforderungen entzünden sich leicht an der unmittelbaren Schnittstelle zwischen Menschen und Maschinen. Das ist dann der Fall, wenn ein Roboter als Ersatz für einen anderen Menschen, mit dem eine Person in einem bestimmten Zusammenhang interagieren würde, dient. Roboter in der Pflege sind ein vieldiskutiertes Beispiel für eine Mensch-Maschine-Interaktion. Unsere Gesellschaft altert und mit der Anzahl älterer Menschen steigt auch der Bedarf an Pflege in unterschiedlichem Ausmaß. In Zeiten knappen und schlecht bezahlten Pflegepersonals können Roboter wertvolle Dienste bei der Pflege leisten. Wie steht es aus ethischer Perspektive dabei um die Selbstbestimmung der Patienten und wie weit darf die Bevormundung durch einen Roboter gehen? Kann eine pflegebedürftige Person, die rund um die Uhr von einem Roboter betreut wird, auf die Einnahme der festgelegten Medikamente verzichten, die der Roboter ihr andient? Beispielsweise wenn sie ein Medikament ablehnt und dafür bewusst gesundheitliche Nachteile in Kauf nehmen würde. Man kann darüber hinaus auch grundsätzlich infrage stellen, ob es mit der Würde und Selbstachtung eines Menschen vereinbar ist, von einem Roboter gepflegt zu werden. Moralische Kontroversen wirft auch der Einsatz Sexrobotern auf. Am ehesten findet diese Mensch-Maschine-Interaktion Zustimmung, wenn es sich um medizinische Zwecke bzw. zur Unterstützung körperlich beeinträchtigter Personen handelt. Doch sollte die intime Liaison mit einem Roboter auch ohne medizinischen Befund eine gesellschaftliche Legitimität erfahren? Vor allem dann, wenn die Maschinen zunehmend menschenähnlicher gestaltet werden können, wodurch die Nutzerinnen Gefühle für die Roboter entwickeln könnten. Oder wenn sie umgekehrt sogar den Robotern Gefühle ihnen gegenüber unterstellen würden. Müsste man überdies den Robotern eine Moral einprogrammieren, so dass sie sich bei bestimmten Praktiken verweigern würden?
In die Kategorie Mensch-Maschine-Interaktion fallen auch Kampfroboter, die in unterschiedlichen Graden an Autonomie für Kampf- und Kriegszwecke eingesetzt werden können. Sogenannte LAWS (Letale autonome Waffensysteme) könnten dabei selbständig Ziele ausmachen und bekämpfen, ohne dass eigene Soldatinnen in Gefahr kämen. Der Mensch würde in diesem Falle die Steuerung abgeben, was Vorteile bei der Reaktionsgeschwindigkeit bringen könnte. Doch damit gäbe er auch Kontrolle aus der Hand. Allerdings wäre ein Roboter emotionslos und würde bei „moralisch guter“ Programmierung frei von beispielsweise Angst oder Hass agieren. So würde der Roboter womöglich völkerrechtliche Regeln besser einhalten, als Menschen dies in einer kriegerischen Extremsituation könnten.


4.3. Algorithmen in der Medizin

Durch die Digitalisierung und Auswertung des Gesundheitszustands sowie von Verhaltensweisen von Patientinnen, können Algorithmen basierte Systeme Ärzte und Ärztinnen bei der Behandlung unterstützen. So kann die Auswertung der Patientendaten beispielsweise bei der Diagnosestellung helfen. Eine Datenrepräsentation des Patienten (ein digitaler Zwilling) könnte auch eine Art digitale Fernüberwachung des Patienten ermöglichen, womit dessen Gesundheitszustand kontrolliert und gesteuert werden könnte. In ökonomischer Hinsicht könnten sich daraus erhebliche Kosten-Nutzen Vorteile ergeben. Allerdings würde dadurch die Möglichkeit unterlaufen, ein beziehungsorientiertes Arzt-Patienten-Verhältnis herzustellen, das den Menschen als Ganzes, mit eigener Geschichte und eigenen Werten erfasst, für das keine berechenbare Lösung sinnvoll ist.


4.4. Games

Computerspiele sind aus der digitalen Welt nicht wegzudenken, sie gehören von Anfang an dazu. Auch wenn Spielen eine zutiefst menschliche Eigenschaft ist, gegen die grundsätzlich nichts einzuwenden ist, werden digitale Games vor allem mit zwei Problemen in Verbindung gebracht. Zum einen ist es die vielfach explizit dargestellte und im Spiel ausgeübte Gewalt, die für moralische Empörung sorgt. Zum anderen ist es der Sog bis hin zu einer Abhängigkeit und Weltentfremdung, in die Computerspiele ihre Spielerinnen ziehen können und die sogar zu einer Kostenfalle werden können. Gerade die Verlagerung des sozialen Lebens der Spielerinnen in die virtuelle Welt, in der sie unter Umständen neue Identitäten ausformen und eine höhere Anerkennung erfahren können, als sie es aus ihren sozialen Gemeinschaften in der physischen Welt kennen, birgt ein immenses Suchtpotenzial mit Realitätsflucht. Das ist ein Phänomen, dessen Tolerierbarkeit unter ethischer Perspektive geprüft werden muss, zumal auch positive Effekte, wie beispielsweise die Schulung strategischen Denkens oder die Entwicklung von virtueller Kooperationskompetenz, dagegenstehen.


4.5. Fake News

Fake News werden ihrem Wesen nach in manipulativer Weise dafür eingesetzt, das öffentliche Meinungsbild zu beeinflussen. Es handelt sich dabei um eine bewusste strategische Platzierung von gefälschten Informationen und nicht um eine versehentliche Falschmeldung aufgrund eines journalistischen Fehlers. Fake News imitieren den Stil echter Nachrichten und können sehr schnell und kostengünstig über die Sozialen Netzwerke verbreitet werden; sie dienen der Desorganisation und Propaganda. Digitale Filterblasen und Echokammern, in denen sich die Nutzerinnen der digitalen Welt bewegen, verstärken den Effekt der Meinungsmache bis hin zu falschen Gewissheiten, die auf das Handeln in der physischen Welt durchschlagen. Artikel 5 des Grundgesetztes für die Bundesrepublik Deutschland verbrieft die Meinungsfreiheit als Grundrecht der Bürgerinnen und Bürger. Fake News indes fordern dieses Grundrecht heraus. Denn man könnte argumentieren, dass Fake News die Meinung ihrer Absender widerspiegeln, was ebenso wie die Übernahme dieser Ansichten durch andere Menschen durch die Meinungsfreiheit gedeckt sein sollte. Gleichwohl sorgen die Fake News gezielt für Unsicherheit und sie sind dazu angetan, den öffentlichen Frieden und das demokratische System zu unterlaufen. In diesem Zusammenhang zeigt sich die Bedeutung der Bildung in der digitalen Gesellschaft, wie bereits weiter oben diskutiert.


4.6. Online-Gewalt

Auch Cyber-Mobbing hat wie Fake News eine bewusste und gezielt schädigende Absicht. Wie bei Mobbing in der physischen Welt werden auch beim Cyber-Mobbing einzelne Personen durch Beleidigungen, Bloßstellungen und Demütigungen drangsaliert. Im Gegensatz zum Mobbing in der physischen Welt haben die Opfer keine geschützten Rückzugsräume. Gerade bei jüngeren Nutzerinnen und Digital Natives mit ihrem Always-on der mobilen Endgeräte und ihren zahlreichen Apps für Social Media, kann digitales Mobbing zu einer immensen Belastung werden. Die digitalen Angriffe auf die Person sind quasi allgegenwärtig. Durch die Asymmetrie der Macht zwischen Täter und Opfer wird die Belastung noch verstärkt. Denn für die Täter bietet das Internet einen hohen Schutz und die Möglichkeit ihre Identität zu verschleiern. Das Opfer hingegen ist den Angriffen offen ausgesetzt und hat kein offensichtliches Gegenüber, dem es Paroli bieten könnte. Ein einfaches Ausschalten der Endgeräte ist dabei keine Lösung.
In eine ähnliche Richtung geht die Hate Speech. Auch in der physischen Welt gibt es Hassreden, die gegen bestimmte Individuen oder Personengruppen (Migranten, Frauen, Homosexuelle etc.) gerichtet sind und diese diskreditieren wollen. Doch auch hier potenziert das Internet die Reichweite und bisweilen auch die Schärfe der Verleumdungen, wodurch die Grenzen des Sagbaren verschoben werden. Indem der Hass von Menschen im Internet ausgelebt wird und damit auch Ideologien und extreme politische Stimmungsmache betrieben wird, wird der Diskurs und der Zusammenhalt in der offenen Gesellschaft vergiftet. Beispiele sind die Beschimpfungen, denen Feuerwehrleute, Sanitäter oder auch Polizisten bei Ihren Einsätzen ausgesetzt sind. So wurden auch bei der Flutkatastrophe im Sommer 2021, bei der viele Menschen ums Leben kamen und noch mehr Menschen ihr Hab und Gut verloren, Hasstiraden gegen Helfer vor Ort digital verbreitet. Darin kann man, wie der Deutschlandfunk berichtet, nichts weniger als einen Angriff auf das Gemeinwohl erkennen.
Schließlich sei noch der Shitstorm als Form der Online-Gewalt genannt, der nicht pauschal wie die Hassrede gegen bestimmte Gruppen oder Systeme gerichtet ist, sondern der sich als Reaktion auf ein echtes oder vermeintliches Fehlverhalten einer Person im Internet entlädt. Diese Person kann innerhalb von Minuten zum Ziel unzähliger digitaler Attacken und Beleidigungen werden, auch durch Menschen, die diese Person gar nicht kennt.
Den Formen der Online-Gewalt ist gemein, dass Opfer exponiert und massiv attackiert werden. Die Täter indes agieren weitgehend anonym und beziehen sich im Zweifel auf ihr Grundrecht zur freien Meinungsäußerung, auch wenn ihr Verhalten gegenüber dem Opfer oftmals entwürdigend ist. Es ist eine Herausforderung an unsere Gemeinschaft, aber auch an die Individuen, solchen Dynamiken entgegenzutreten und – gerade auch in der digitalen Welt – verantwortlich zu handeln und Haltung zu zeigen.


5. Ein ganz kurzer Ausblick: Cybersecurity-Ethik

Die Digitale Ethik bietet ein Dach, unter dem zahlreiche spezifische Fragestellungen angesiedelt sind, die sich mit ethischen und moralischen Herausforderungen, die die Digitale Transformation mit sich bringt, befassen. Die ausgewählten und in diesem Kapitel skizzierten Themen sind exemplarisch dafür. Die weitere Liste ist lang und wächst mit der Entwicklung digitaler Technologien weiter.
Unter dem Dach der Digitalen Ethik kann man auch die Cybersecurity Ethik ansiedeln, die als Ethik der IT-Sicherheit mit spezifischen Fragefeldern, Zugängen und Bewertungsmodalitäten ethische Probleme im Kontext der IT-Sicherheit untersucht und Hilfestellungen gibt. Es kann helfen, die Cybersecurity Ethik zunächst als eine Bereichsethik aufzufassen. Zur Erinnerung: Das Besondere an der Idee von Bereichsethiken ist, dass ethische Aspekte auch mit fachlichen Aspekten des Bereichs verquickt werden. Das bedeutet, dass im spezifischen Bereich der Cybersecurity ethische Problemlagen vor einem Hintergrund aus ethischen und fachlichen Kriterien der IT-Sicherheit bewertet werden. Dafür ist ein transdisziplinäres Zusammenwirken von Experten und Expertinnen aus Wissenschaft und Praxis in den Disziplinen der Ethik und IT-Sicherheit, aber auch in angrenzenden Disziplinen, sinnvoll und notwendig.
Die Begriffe Digitale Ethik oder noch spezifischer Cybersecurity Ethik sollen dabei nicht vortäuschen, dass es die Digitale Ethik bzw. die Cybersecurity Ethik als ein einziges ethisches Konzept gäbe, mit dem man checklistenartig einen problematischen Sachverhalt prüfen und das Ergebnis ablesen oder berechnen könnte. Dennoch gibt es grundlegende Fragefelder und Herausforderungen für die Ethik, die man stärker als andere dem Bereich der IT-Sicherheit zuordnen könnte und die sich laufend weiterentwickeln. Diese sind beispielsweise mit den Begriffen von Überwachung, Privatheit, Eigentum in der digitalen Welt oder der Cyber-Kriegsführung verbunden. Eher operative Fragefelder sind beispielsweise mit den Vorstellungen eines sogenannten ethischen Hackens oder eines responsible Disclosure verbunden, um nur einige zu nennen. Diese und weitere Themen, die in der digitalisierten Welt virulent sind, verdienen mit Blick auf die Cybersecurity eine vertiefte Betrachtung.
Noch steckt die Cybersecurity-Ethik in den Kinderschuhen und noch sucht sie ihr Profil. Doch wenngleich sie noch nicht eigenständig etabliert ist, so hat sich allein während der Entstehung dieses Buches gezeigt, dass sie weiter an Aufmerksamkeit gewinnt und einer weiteren Ausdifferenzierung bedarf.

Zur einfacheren Lesbarkeit wurden die Quell- und Literaturverweise entfernt.

Matthias Schmidt: Ethik in der IT-Sicherheit (2. erweiterte Auflage); 2023

https://pressbooks.pub/itethik/
https://creativecommons.org/licenses/by-sa/4.0/


Offene Totalität. Internetprotokolle in der spätkapitalistischen Gesellschaft

02/2024

Der Beitrag bezieht technische Protokolle in den Protokollbegriff ein. Wichtiges Beispiel hierfür sind die Internetprotokolle, die den Nachrichtenverkehr zwischen vernetzten Computern regeln. Die Internetprotokolle sorgen als eine Art »Transportmechanismus« für Aufbau und Aufrechterhaltung der Computerverbindungen im Netz. In Gestalt der Internetprotokolle findet der Protokollbegriff also nicht lediglich eine Fortsetzung. Vielmehr wird der Begriff des Protokolls noch ausgeweitet. Technische Protokolle haben nicht mehr nur die Aufgabe, durch Vorschriften einen möglichst geordneten Austausch zu gewährleisten, wie es bei diplomatischen oder höfischen Protokollen der Fall ist. Ohne technische Protokolle wäre der Zusammenschluss von Rechnern nicht nur in schlechter oder ungeordneter Weise, sondern gar nicht möglich gewesen.

Ausgehend von Alexander Galloways, Vorschlag, »Protocol« als neue Machtform dieser Epoche zu betrachten, geht der Beitrag der Integrations-, Regulations- und Kontrollfunktion von technischen Protokollen in der spätkapitalistischen Gesellschaft nach. Technische Protokolle lenken im Hintergrund der Internetkommunikation den Datenverkehr. Sie bestimmen die nachrichtentechnische Reichweite, aber auch die Grenzen des Netzes. Internetprotokolle lassen damit Merkmale erkennen, die sie mit gesellschaftlicher Gesamtheit oder eben Totalität identifizierbar machen. Galloway hat sie medientheoretisch erschlossen, dabei aber primär ihre dem Netzwerk inhärente, »endogene« Kontrollfunktion untersucht. Nur am Rande erwähnt er, dass die Internetprotokolle letztlich nach Totalität streben, um technisch die Einbindung einer größtmöglichen Anzahl von Kommunikationsteilnehmer:innen (Rechnern) ins Netz zu gewährleisten. Ich schlage vor, Internetprotokolle in mehrfacher Hinsicht, systematisch wie auch konkret gesellschaftlich, als Ausdruck von Totalität zu verstehen. Denkt man technische Protokolle und Totalität zusammen, dann bekommen beide Termini eine neue Bedeutung. Internetprotokolle können so stimmiger auf ihre widersprüchliche gesellschaftliche Funktion hin geprüft werden als bisher. Ihre Funktion besteht eben nicht in der Totalisierung des Internet im Sinne einer sozialen Vereinheitlichung, sondern in der tendenziell totalen, ›offenen Einbindung‹ in weltweite Kommunikation. Bezieht man Totalität auf die Internetkommunikation und ihre technische Bewerkstelligung, dann gewinnt sie eine Dimension hinzu, die im Nachdenken über den Begriff bislang übersehen wurde. Totalität bezeichnet keine uniforme Gesamtheit oder einen Prozess gesellschaftlicher Schließung. Sie macht verstehbar, wie sich ein funktionaler Zusammenhang herstellt. Gleichwohl will ich mit dem Vorschlag, Totalität wesentlich stärker als bisher als einen offenen Prozess zu konzipieren, den Begriff als einen kritischen einsetzen. Der Beitrag will keiner »neoliberalen Wissenschaft der Verbindung« zuarbeiten, wie die Medienphilosophin Wendy Hui Kyong Chun das normative Folgeprojekt gewisser Teile der Netzwerkforschung nennt.

In der Medienarchäologie der technischen Protokolle bezieht sich Galloway mit dem Protokollbegriff noch nicht explizit auf eine Theorie der Gesellschaft, die etwa für Theodor W. Adorno auf eine sehr spezifische Weise Totalität mitbedenken sollte. Wird ein fragmentarischer Begriff der Totalität mit dem Protokollbegriff konfrontiert, verändert er sich seinerseits. Der Begriff der Totalität kennzeichnet dann nicht mehr, wie es lange Zeit üblich war, eine geschlossene Gesellschaft. Er kennzeichnet gerade die flexible Offenheit und Integrationsfähigkeit, die den Spätkapitalismus so anhaltend (›sticky‹), adaptionsfähig und krisengenährt werden lässt. Technische Protokolle, so meine These, verkörpern auf besondere Weise eine Form der offenen Totalität, die für unsere Gesellschaft kennzeichnend ist.

Erstens vollziehe ich die medientheoretische Erschließung des Protokollbegriffs nach und gehe zweitens weiter auf die Genese und Funktion der Internetprotokolle ein. Anschließend greife ich drittens Überlegungen auf, Internetprotokolle und Totalität zusammenzudenken, um sie viertens abschließend mit für die Internetforschung neuen gesellschaftstheoretischen Bezügen zu konfrontieren und als offene Totalität weiterzudenken.

Die medientheoretische Erschließung des Protokollbegriffs

2004 erschien im Verlag des Massachusetts Institute of Technology ein Buch über die Strukturen des Internet mit dem damals überraschenden Titel Protocol. How Control exists after Decentralization . Alexander Galloway legt darin die Idee des Internet als eines unstrukturierten Freiraumes ad acta, die Netzaktivist:innen wie John Perry Barlow seit den 1990ern lautstark geäußert haben. So hat beispielsweise die australische Internetforscherin Elizabeth Reid in ihrer Arbeit über den möglichen Identitätswechsel in der neuen »Electropolis« namens Internet überschwänglich festgestellt: »Internet Relay Chat offers a chance to escape the language of culture and body and return to the idealised ›source code‹ of mind«. Auf Grundlage solcher Positionen resümiert Galloway den Diskurs der beginnenden Internetforschung wie folgt: »The web is described as a free, structureless network«. Insbesondere zwei Eigenschaften des Netzes führten dazu, dass es bis in die 2000er – und zuweilen bis heute – wiederholt als Machtvakuum eingeschätzt wurde: erstens seine Eigenschaft, ein verteiltes Netzwerk darzustellen, in dem es keine übergeordneten Knotenpunkte bzw. hierarchischen Strukturen gibt; zweitens die tendenzielle Gleichberechtigung aller ins Internet eingebundenen Rechner bzw. Kommunikationsteilnehmer:innen, die sie – gleichsam als Realisierung der bei Brecht und Enzensberger geforderten reziproken, progressiven Radio- bzw. Mediennutzung – sowohl zu Empfänger:innen wie zu Sender:innen macht.

Das Internet, so Galloways Kernargument, mag zwar eine verteilte (oder in der technischen Realität wenigstens dezentrale) Struktur ohne steuernde Mitte sein, es ist jedoch keineswegs ordnungslos und ebenso wenig hierarchiefrei. Obliegt die Kontrolle über die weltumspannende Metatechnologie namens Internet auch nicht mehr einzelnen privilegierten Gruppen oder gar einem Souverän, so bedeutet dies nicht, das Internet sei in einem grundsätzlichen Sinne ›free‹ oder gar anarchisch. Kontrolle üben nach Galloway insbesondere die technischen Verkehrsregeln – und das heißt die Protokolle – aus, denn sie sind es, die alle Transaktionen ordnend verbinden. Protokolle, so definiert Galloway, seien insgesamt als eine Technik (technique) zu betrachten, mit der Selbstregulation in einer zufälligen, offenen Umgebung erreicht wird. Protocol stellt einen Wendepunkt in der Beschreibung des Internet dar, der mit dem Anbruch der Plattformära zusammenfällt. Zeitgleich zur Publikation des Buches geht Facebook online, und Schlag auf Schlag folgen die Gründungen der Plattformen Youtube 2005 und schließlich Twitter 2006. Protocol steht nicht nur, aber auch deshalb am Beginn eines ›Dunkelwerden‹ des Netzes. Keller Easterling bemerkt einige Jahre später hierzu aus Perspektive der Infrastrukturforschung, als sich die zentrierenden Dynamiken um Social Media, Google, Amazon und die Informationsversorgung als solche deutlich abzeichnen: »Das Internet, das oft als ein offenes Geflecht gedacht wird, bei dem jeder Punkt des Netzwerks jeden anderen Punkt erreichen kann, ähnelt in Wirklichkeit wohl eher einer multizentrischen Organisation«. Dennoch, so bleibt mit Galloway zu bedenken, wäre selbst ein real verteiltes technisches Kommunikationsnetz nicht struktur- und ordnungslos. Gab es aus den Reihen post-marxistischer Beobachter:innen zuvor auch bereits Kritiken an der freien, das heißt unbezahlten Arbeit, die am und im Netz verrichtet werden musste, so hat doch erst die Exposition der macht- und medientheoretischen Bedeutung seiner protokollarischen Grundform der politischen Fehleinschätzung des Internet als progressivem Utopia vorläufig ein Ende bereitet.

Protokolle haben in der digitalen Kultur ihre Form verändert und dabei nochmals an Bedeutung gewonnen. Inzwischen muss der Begriff des Protokolls mindestens so sehr auf die technische Regelung der Kommunikation zwischen Computern bezogen werden wie auf die schriftlichen Formen des Protokollierens und die Verhaltensvorschriften in diplomatischen Kontexten: »Now protocols refer specifically to standards governing the implementation of specific technologies«. Technik kommt ohne Einheitlichkeit und Standards nicht aus, die im Falle des Internet in Form der Internetprotokolle eine entscheidende Rolle spielen. Ein ›Protokoll‹ soll nach Galloway allgemein ein Führungsstil sein oder, neokybernetisch formuliert, eine Steuerungstechnik. Konkret bezieht sich dieses Protokoll im Singular bei Galloway insbesondere auf die technisch realisierten verschiedenen Internetprotokolle wie insbesondere das Paar TCP/IP Transmission Control Protocol und Internet Protocol sowie die Ebenen (Internetlayer), die den analytischen Ansatzpunkt des beschriebenen Führungsstils darstellen.

Was aber sind Internetprotokolle und warum stellen sie einen der wichtigsten technischen Aspekte dar, an dem sich die Vergesellschaftung im Netz, die Formierung als digitale Gesellschaft respektive Internetgesellschaft im Spätkapitalismus festmachen lässt? Technische Protokolle regeln den Nachrichtenverkehr zwischen vernetzten Computern auf grundlegende Weise: »At the core of networked computing is the concept of protocol. A computer protocol is a set of recommendations and rules that outline specific technical standards«. Ohne Protokolle, so ließe sich im Duktus der natürlichen Sprachen sagen, »verstehen« sich Computer nicht. Sie können ohne per Protokoll vereinbarte Standards keine Daten austauschen, geschweige denn, sich zu einem größeren Verbund zusammenschließen. Auf die Sprachmetapher – das Verstehen – komme ich im Abschnitt über Internetprotokolle und Totalität zurück. Technische Protokolle organisieren den Datenverkehr, um mit dem Verkehr ein weiteres Sprachregister zu erwähnen, das Galloway noch vor Easterling mehrmals zieht.

Gleichwohl sind Protokolle mehr als Regeln im Sinne moralischer Normen und Kategorien, da sie wie Gussformen möglicher Verfahrens- und Verhaltensweisen funktionieren. Die Internetprotokolle stehen deshalb aus gutem Grund im Mittelpunkt von Galloways machtanalytischer Betrachtung des Netzes, mit der er Michael Hardts und Antonio Negris post-marxistischer Theorie des Empire eine Techniktheorie zur Seite stellen will. Im Computer- bzw. Netzwerkprotokoll identifiziert Galloway den Weg, auf dem die Gesellschaft ihre Veränderung in Richtung einer Kontrollgesellschaft technisch bewerkstelligt. Es sei dahingestellt, ob und inwieweit man den von Félix Guattari und Gilles Deleuze geprägten, weithin diskutierten Begriff der Kontrollgesellschaft als passende politische Form der Gegenwart wieder aufgreifen will. Wichtig bleibt an dieser Stelle, dass damit in der Medientheorie ein entscheidender Übergang analysiert werden soll: »The computer protocol is thus in lockstep with Hardt and Negri’s analysis of Empire’s logics, particularly the third mode of imperial command, the managerial economy of command«.

Den Führungsstil des Internet, so das Argument, bildet eben seine protokollarische Organisationsform, die nichts mit autoritären Vorgaben zu tun hat. Das Protokoll ergibt für Galloway gemeinsam mit der Struktur des Netzes bzw. seiner generellen Grundanlage – dem Diagramm – und der basalen Technik – digitalen Rechnern – die drei Elemente eines »neuen Kontrollapparats« unserer gegenwärtigen Gesellschaft:

The diagram is the distributed network, a structural form without center that resembles a web or meshwork. The technology is the digital computer, an abstract machine able to perform the work of any other machine (provided it can be described logically). The management style is protocol, the principle of organization native to computers in distributed networks. All three come together to define a new apparatus of control that has achieved importance at the start of the new millennium.

Mit dem Informatiker Paul Baran, der die Idee der Netzwerkarchitektur des Internet entwickelt hat, stellt Galloway die Verteilung der Kommunikation vor sowie die Versandart – die Adressierung und Aufteilung der Datenpakete im Packet Switching. Um die Entwicklung der einzelnen Internetschichten und differenten Protokolle zu rekonstruieren, liest er die so genannten Requests for Comments medientheoretisch neu, in denen die technischen Spezifikationen kollektiv niedergelegt und diskutiert werden.

Die Internetprotokolle sind aus medientheoretischer Sicht nicht frei von Widersprüchen oder, besser gesagt, nicht ohne Gegensätze. Diese Gegensätzlichkeit, wie Galloway es nennt, befördere die Fehlwahrnehmung des Internet als chaotisch anstelle von hochorganisiert. Tragen einige der Protokolle wie TCP/IP gerade die horizontale – und verteilte – Struktur des Internet, indem sie Kontrolle an autonome Einzelagent:innen abgeben – so verbergen sich in der Protokollstruktur wie etwa in der Baumstruktur des Domain Name Systems doch auch vertikale Strukturen. Tim Berners-Lee nannte das Domain Name System deshalb auch die »Achillesferse« des World Wide Web, über die die gesamte verteilte Struktur wieder dem kontrollierenden Zugriff ausgesetzt sei.

Kontrolle im sozialen und gesellschaftlichen Sinne bleibt bei Galloway zunächst an den Geltungsbereich der Internetprotokolle im technischen Sinne gebunden. Eine Ergänzung durch den Begriff der Totalität nimmt hierbei den zentralen Vorgang der Einbindung in das Internet wesentlich stärker in den Blick, gerade in seiner offensichtlichen Zwiespältigkeit, die zum Ruf nach Entnetzung geführt hat. Die Frage von protokollarischer Inklusion und Exklusion aus dem Netz ist ein wesentlicher Punkt der Ausdifferenzierung der Kontrollfunktion der Internetprotokolle. Am Beispiel verschiedener Staaten wie vor allem China und Russland zeigt sich in den letzten Jahren deutlich, dass mit staatlichen Interventionen diverser Art wie durch Blocken und gezielte Entnetzung das Internet sehr wohl kontrolliert werden kann. Galloway demonstriert, wie über die Protokolle im Internet direkte politische Kontrolle ausgeübt werden kann und nimmt hier den – später in Teilen von verschiedenen staatlichen Akteuren immer wieder selbst vorgenommenen – Bann durch Modifikation des Domain Name Systems vorweg:

If hypothetically some controlling authority wished to ban China from the Internet (e.g., during an outbreak of hostilities), they could do so very easily through a simple modification of the information contained in the root servers at the top of the inverted tree. Within twenty-four hours, China would vanish from the Internet.

Mit zwanzig Jahren Abstand betrifft Galloways Machtanalyse sogar noch stärker als zuvor die Diskurse über das Internet. Zwei Entwicklungen haben dazu geführt, dass von politisch ›linker‹ Seite inzwischen die staatliche Regulation sogar gefordert bzw. wenigstens die Moderation der Plattformen dezidiert goutiert wird: nämlich die ›rechte‹ Nutzung des Internet mit der weiten Verbreitung von Hetze und Falschmeldungen sowie die allgemeine Entwicklung von Social Media-Kanälen.

Genese und Funktion der Internetprotokolle

Gegenstand der folgenden Betrachtungen ist das Internet in der Zeit von ca. 1970 bis ca. 2004, das heißt das Internet vor der Plattformära. Die Internetprotokolle, die in dieser Zeit entwickelt und eingeführt wurden, regeln jedoch nach wie vor auch in den Hochzeiten von Social Media allen Nachrichtenverkehr im Netz. Es ist allerdings wichtig, sich den Status der Ausdrücke Kommunikation, Nachricht, Einbindung, Kommunikationsteilnehmer:in, Sender:in und Empfänger:in in den untersuchten Quellen zu vergegenwärtigen, da sie sich nicht mit den Social Media-User:innen und mitunter überhaupt nicht mit menschlichen Kommunikationsteilnehmer:innen decken, sondern zunächst auf Maschinen bezogen sind. Warum die technischen Beschreibungen dennoch medientheoretisch zu lesen sind, entwickeln die zitierten Autor:innen.

Das Netzwerkprotokoll stellt in gewisser Weise das Rückgrat des Internet dar, weil es den gesamten Nachrichtenaustausch trägt und die Kommunikation der Maschinen untereinander garantiert: »Protocol is the reason that the Internet works and performs work«. Beim Netzwerkprotokoll handelt es sich nur vermeintlich um einen Singular, da unter diesem Terminus eine so genannte Protokollfamilie zusammengefasst wird, aus der das Transmission Control Protocol (TCP) und das Internet Protocol (IP) als das vielleicht wichtigste Paar herausstechen. Der Medienethnologe Sebastian Gießmann hat in seiner Analyse der Strukturen und Funktionen von Netzwerken hierbei von »interagierenden Protokollen« gesprochen, die die Protokolle der Schriftkultur zugleich fortsetzen und verändern: »Netzwerke können auf mehreren interagierenden Protokollen beruhen. Im Falle des Internet ist dies technische Bedingung der Möglichkeit von Übertragung: das p in http steht für protocol«.

Etymologisch verweist das protocol zunächst auf die Schriftkultur und konkret nach Byzanz zurück, wo es bekanntermaßen ein »den amtlichen Papyrusrollen und Schriftrollen vorgeleimtes Blatt mit chronologischen Angaben über die Entstehung und den Verfasser des Schriftstücks« bezeichnete. Der Wissenschaftshistoriker Hans-Jörg Rheinberger verbindet das Protokollieren im wissenschaftlichen Experiment noch eng mit der Kulturtechnik des Schreibens. Als Protokolle betrachtet er eine spezielle »experimentiernahe Form der Verschriftung« oder auch »Primärverschriftung«. Wissenschaftliche Protokolle, die »Skizzen, Exzerpte, Gedankenfetzen, Datenstreifen, Kalibrierungsergebnisse« und anderes sein können, hatten lange Zeit eine undefinierte und übersehene Funktion. Sie dienten nicht so sehr als geordnete Dauerablage, sondern dazu, um »schlichtes Zwischenspeichern« der Forschungsergebnisse zu erreichen. Betreffen die schriftlichen Formen des Protokollierens von beobachteten, gesprochenen und mündlich vereinbarten Dingen auf den ersten Blick eher das geregelte mehr oder weniger dauerhafte Speichern von Information, so beziehen sich die technischen Protokolle der Internetära primär auf die Sicherstellung und Organisation der Nachrichtenübertragung. Beim Konzept der Internetprotokolle handelt es sich um einen historisch immer noch neuen »transportation mechanism«, wie die Informatiker Vinton Cerf und Robert Kahn es ausdrücken.

Am Fall der Internetprotokolle lässt sich gut erkennen, dass in der Geschichte des Internet gezielte Planung, staatlich-wirtschaftliche Interessen und spontane Weiterentwicklungen Hand in Hand gingen. Wichtige Innovationen, die zur Entwicklung des Transmission-Control-Protocols durch Kahn und Cerf führten, stammten nicht aus dem federführenden US-amerikanischen Kontext, sondern aus Frankreich. Am Beispiel der Protokolle wird einmal mehr deutlich, dass die Geschichte des Internet sich nicht unumwunden als US-amerikanische Geschichte schreiben lässt. Für die Entwicklung des Protokollpaares TCP/IP war nämlich das französische Projekt CYCLADES von grundlegender Bedeutung. Dem System lag ein Datagramm-Netzwerk zugrunde, das passend CIGALE hieß. Wie die CIGALES – Grillen oder Grashüpfer – sprangen die Datenpakete in frühen Formen des so genannten Packet Switching durch das Nachrichtennetz CYCLADES. Diese Prinzipien hat Cerf von den französischen Informatikern Louis Pouzin und Hubert Zimmerman übernommen und in sein und Kahns Transmission-Control-Modell überführt. Das Transmission Control Program oder Protocol war außerdem nicht für die langfristige Nutzung im ARPANET gedacht, setzte sich dann aber als Erfolgsmodell durch und wurde als Standard im entstandenen Gesamtnetz implementiert.

Der Transportmechanismus namens Transmission-Control-Protocol hatte zu Beginn vor allem die Aufgabe, verschiedene Subnetze mit dem frühen Internet, dem wissenschaftlich-militärischen ARPANET zu verbinden. Die ersten Internetprotokolle sammeln sozusagen Einzelnetze wie das ALOHAnet ein, um das ARPANET zu vergrößern. Der Transport, den die Internetprotokolle leisten sollten, betraf zunächst also vor allem die Übertragung der Netze selbst oder genauer gesagt ihre Überführung in die Vorform des heutigen Internets, das ARPANET, um sie an den weltweiten Rechenkapazitäten zu beteiligen. Ohne die technischen Protokolle wäre es unmöglich gewesen, die in den 1960ern und 1970ern bereits existierenden, aber nicht miteinander kompatiblen Kommunikations- und Computernetzwerke zum heutigen Internet zu verbinden. Vinton Cerf und Robert Kahn hatten explizit die Aufgabe, durch die Entwicklung spezifischer technischer Protokolle dieses »interconnecting« voranzubringen:

The Internet evolved from the ARPANET during the late 1970s and early 1980s. It was conceived not as a single network but rather a collection of different networks, hence the name. During the early 1970s ARPA-funded researchers also investigated new protocols capable of interconnecting networks based on communication media with very different characteristics such as radio links, fast local networks, and long-distance data lines.

Es ist wichtig, bei der Genese der Internetprotokolle ihre Bedeutung erstens für einen historischen Schritt in der Emanzipation des Internet vom ARPANET und zweitens für die Vereinbarkeit verschiedener Netzwerke zu berücksichtigen. Für diese Phase schlagen Thomas Haigh und Paul E. Cerruzi in ihrer neuen Geschichte des Modern Computing den Namen »Internetworking« vor, womit sie gleichzeitig das Inter- in Internet wieder historisch und systematisch ausdifferenzieren wollen. Das Internet trage den Prozess der Verknüpfung vieler Netzwerke im Namen, dessen Versammlung es eigentlich sei. Protokolle stellen ein wichtiges Vehikel für das »Internetworking« dar, das in der Rückblende stark zum Eindruck beitrug, das Internet sei ›chaotisch‹, ›von unten‹ durch das Verschmelzen verteilter Netze gewachsen. Wie bedeutsam diese fast vergessene Phase der Vergrößerung und damit auch Internationalisierung des ARPANET war, belegt ein Oral History Interview, das die damalige Ko-Direktorin des Charles Babbage Institute (CBI) 1990 mit Robert Kahn geführt hat. Kahn nutzt für die Beschreibung der Tätigkeiten und Programme in der Zeit von 1970er bis zur weiteren Öffnung des Internet in den 1980er Jahren einen weiteren Begriff, ohne ihn auszuführen. Mehrmals spricht Kahn hier in einer eigentümlichen Formulierung von »Internetting«. Während einer Diskussion mit der Interviewerin über den zeitlichen Ursprung des Begriffs »Packet Switching«, erinnert Kahn sich an Internetting, das für ihn lange vor dem Terminus Internet wichtig war:

So some time in that time frame packet switching terminology just sort of slipped in as did the term ARPANET. It became part of the culture. It’s like internetting. When Vint and I wrote the original paper on internetting, I don’t think, we actually used the term internet, which became as much part of the jargon as ARPANET did. We wrote about internetting, we talked about internetting. I mean the sequence of letters showed up, but not explicitly as »Internet«.

Tatsächlich ist in Kahns und Cerfs berühmtem Paper, in dem sie das Transmission Control Protocol offiziell vorstellen, nirgendwo von »internet«, allerdings auch nicht von »internetting«, dafür aber vielfach von »internetwork« die Rede. Schließlich hatten die beiden doch den expliziten Auftrag, die Netze zusammenzuführen. Die DARPA, wie die leitende Behörde des ARPANET inzwischen hieß, gab Cerf anschließend noch einen Vertrag in Stanford, um das TCP/IP-Konzept im ARPANET zu implementieren. Daneben gab es kleinere Aufträge bei Bolt Beranek und Newman (BBN) und am University College in London. Man geht fehl in der Annahme, die Betrachtung des Protokollpaares TCP/IP sei lediglich von computer- und internethistorischem Interesse. Bis zum heutigen Tag wird hauptsächlich die Version 4 der Protokollsuite genutzt, um den Großteil des Datenverkehrs im Internet zu übertragen, und das obwohl die Version 6 seit Langem verfügbar ist. Genese und Funktion der Internetprotokolle zeigen, dass sie historisch wie technisch über das Wachstum des Internet walten und damit über das Internet als Ganzes.

Internetprotokolle und Totalität

Internetprotokolle streben schlussendlich nach nichts weniger als Totalität, schließt Alexander Galloway, um ihre basalen Eigenschaften zu unterstreichen: »The ultimate goal of the Internet protocols is totality«. Mit ihren Eigenschaften Robustheit, Zufälligkeit, Interoperabilität, Flexibilität und »pantheism« erstreben sie größtmögliche Reichweite und eben Totalität. Diese Totalität, so schlage ich vor, muss in erster Linie als eine offene Totalität verstanden werden, und zwar in einem technischen, in einem systematischen, aber auch in einem medienarchäologischen und schließlich gesellschaftstheoretischen Sinne. Konkret technisch zielen die Protokolle auf Totalität, und das heißt: auf eine möglichst gesamthafte Einbindung der verschiedensten Rechner ins Netz. Dies wurde bereits beim Nachvollzug der Protokollgenese und ihrer Bedeutung für den gelingenden Zusammenschluss der Einzelnetze deutlich. Den absoluten ›Tech-Liberalismus‹ der Rechner bzw. Hosts, der sich mit politischen Programmen der frühen Netzgemeinschaft zu decken scheint, drückt Galloway als Motto der Internethosts wie folgt aus: »Accept everything, no matter what source, sender, or destination«.

Systematisch betrachtet, ergänzen sich der Protokollbegriff und die Totalität sehr gut. Totalitäten stellen nicht nur beliebige Sammlungen und Mengen dar, sondern es handelt sich um definierte, das heißt z. B. durch Protokolle geregelte Bezüge, die eine spezifische Einheit oder eben Gesamtheit bilden. Folgt man der von Galloway vorgeschlagenen Verbindung von Computergeschichte mit Medienarchäologie und Gesellschaftsanalyse, dann ist diese technische Form der Gastfreundschaft mit der ausgreifenden Inklusion aller Kommunikationsteilnehmer:innen in all ihren Effekten auszuwerten: »Yet computer protocols are not just a set of technical specifications, … They are an entire formal apparatus. By formal apparatus I mean the totality of techniques and conventions that affect protocol at a social level, not simply a technical one«.

Wenn nun aber, wie Galloway hier exponiert, Protokolle erstens eine Gesamtheit bilden, die zweitens – so sieht es auch Gießmann – gerade nicht auf ein rein instrumentelles Verständnis von Technik reduziert werden kann, dann liegt es nahe, diese protokollarische Gesamtheit mit dem Begriff der Totalität weiter zu spezifizieren. Dabei ist festzuhalten, dass Internetprotokolle sich gerade nicht auf Totalität zu bewegen, um technisch eine gesamtgesellschaftliche Einschließung herbeizuführen. Genauso wenig bedeuten sie, dass die kommunizierenden Hosts vereinheitlicht werden müssen. Im Gegenteil ermöglichen es die Internetprotokolle gerade durch ihre weitestgehende Toleranz, dass der Datenverkehr funktioniert: »A basic objective of the Internet design is to tolerate a wide range of network characteristics – e.g., bandwith, delay, packet loss, packet reordering, and maximum packet size«. Weiterhin sind als Grund für das Streben nach Totalität die bereits benannte Robustheit gegen den Ausfall von Einzelnetzwerken und vor allen Dingen »open system interconnection« zu nennen.

Was nun ist damit gemeint? Konkret meint dies zuerst einmal die netzwerkbedingten Voraussetzungen für eine gelingende Netzwerkarchitektur: Ein Netz ist nur ein Netz, wenn die technische Verbindung zwischen verschiedenen Maschinen steht, die unter zum Teil sehr unterschiedliche Bedingungen operieren (wie etwa abweichenden Schnelligkeiten des Netzzugangs). Bei der Einbindung der »Hosts« und das heißt der einzelnen Computer bzw. Maschinen in das Netzwerk geht es nicht um einen möglichst hohen Qualitätsstandard, sondern um das verlässliche Zusammenspiel von immer vorhandenen Unterschieden: »As long as the hosts on the network conform to the general suite of Internet protocols – like a lingua franca for computers – then the transport and Internet layers, working in concert, will take care of everything«.

Hier möchte ich den Vergleich mit einer lingua franca, einer Verkehrssprache hervorheben, auf den Galloway leider nicht weiter eingeht. Verkehrssprachen sind schon dem Namen nach auf den Austausch bezogen und wirkten meist als mehr oder weniger gewünschte Verbindung vormals differenter Sprachräume (Stichwort Anglizismen). Auch der Sprachvergleich betont, dass die Gesamtheit, auf die Internetprotokolle hinauslaufen, zurecht nicht mit Homogenität oder eben Schließung gleichzusetzen ist. Weiterhin stützt der lingua franca-Vergleich die These, dass Protokolle noch wesentlich stärker in Richtung Totalität zu lesen sind, als es in Protocol angedeutet wird. Denn auch natürliche Sprachen sind aufgrund ihrer komplexen inneren Bezüge als Totalitäten zu bezeichnen, die ihre Einzelteile erst zu dem machen, was sie sind. Kahn und Cerf nutzen bei der Vorstellung des Transmission Control Protocols ebenfalls den Sprach- oder hier Semantikvergleich für ihre Protokolldefinition: »To make the data meaningful, the computers share a common protocol (i. e. a set of agreed upon conventions)«. Die Bedeutung, um die es Cerf und Kahn an dieser Stelle geht, liegt außerhalb der sprachlichen Kommunikation der Entwickler:innen und Nutzer:innen des Netzes. Dennoch trägt die Metaphorisierung der technischen Vorgänge durch die Informatiker (Cerf und Kahn) an dieser Stelle zum weiteren Verständnis der gesellschaftlichen Streukraft der Protokolle bei.

Galloway würdigt Bertolt Brechts und Hans Magnus Enzensbergers Radio- bzw. Medientheorien als erste materialistische Kommunikationstheorien, da sie bereits, wie er es mit dem Netz tun will, die technische Verfassung des Radios bzw. der Massenmedien in ihrer machtkritischen Medienanalyse fokussierten. Genauso, ist mit Galloway weiter zu schließen, können die technischen Gegebenheiten von technischen Protollen in ihrer Gesamtheit – in ihrer Totalität – nicht einfach als technische Systeme angesehen werden, die eben eine bestimmte Kultur hervorgebracht haben und einen spezifischen Gebrauch vorsehen.

Die in den Request für Comments dokumentierten technischen Spezifikationen der Internetprotokolle zeugen davon, dass sie Gegensätze zusammenbringen. Internetprotokolle schaffen einerseits verbindliche Standards, andererseits wollen sie möglichst inklusiv sein, um robuste Netzwerkverbindungen aufbauen zu können: »TCP implementation will follow a general principle of robustness: be conservative in what you do, be liberal in what you accept from others«, schreibt Jonathan Postel, einer der wichtigsten Editoren der Request for Comments, im September 1981 in der zentralen Regelung der Internetprotokolle RFC 793 über die »Transmission Control Protocol Philosophy«. Dieses zunächst auf die technischen Belange und Logiken der Netzwerkbildung angewandte Fazit soll hier erstens auf Gesellschaft an sich bezogen werden und zweitens als eine Bewegung des fortlaufenden Einbezugs einem Credo der Openness (Open Source, Open Science, Open Access) entgegengehalten werden.

Offene Totalität

Totalität wird in der Regel mit Einheit und Geschlossenheit gleichgesetzt. Als Merkmal der gegenwärtigen Gesellschaft bezeichnet Totalität deren vereinheitlichendes Wesen, wie es in der politischen Philosophie bei Hannah Arendt und Theodor W. Adorno der Fall ist. Begriffsgeschichtlich ist die Totalität jedoch wesentlich älter als die Gesellschafts- und Techniktheorie des 20. Jahrhunderts. Der Ausdruck ›Totalität‹ entstammt ursprünglich den spätmittelalterlichen Lehren; das Deutsche Wörterbuch nennt hier Thomas von Aquin und Nicolaus von Cues als Quellen. Übersetzungen des Begriffs aus dem mittel- und neulateinischen totalitas lauten nach Jacob und Wilhelm Grimm »Allheit, Ganzheit, Vollständigkeit, Einheit«. Der Philosophiehistoriker Michael Inwood führt den Begriff der Totalität, wie er Hegel geläufig war, auf den Wortgebrauch des scholastischen Lateins zurück. Im sechzehnten Jahrhundert wurde hiernach aus dem Lateinischen totus – ganz – zusätzlich totalis (total) und schließlich totalitas (Totalität). Seit der Mitte des 20. Jahrhunderts wurde der Begriff der Totalität prominent dazu benutzt, um bestimmte Eigenschaften der modernen Gesellschaft (Adorno) oder Formen ihres Missbrauchs (Arendt) zu definieren.

Man könnte leicht einwenden, dass Totalität der ganz und gar falsche Begriff ist, um die Technik – und damit die Internetprotokolle – in der spätkapitalistischen Gesellschaft angemessen zu beschreiben. Digitale Medien in ihrer Vernetzung zum Internet verfügen ja gerade über keine einheitliche Machart oder Gesamtorganisation mehr. Sie sind mitnichten »ganz« im Sinne von vollständig oder gar abgeschlossen. Weder ihre Funktionsweisen noch ihre Entwicklung oder gar ihre Ästhetik lassen sich den Merkmalen zuordnen, die seit der Scholastik die Totalität ausmachen. Denn ist nicht trotz aller Planung immer eine gewisse Unordnung in den Entwicklungsschüben der Technik unserer Tage zu beobachten? Hat diese Unordnung oder wenigstens Unübersichtlichkeit nicht dazu geführt, dass man digitalen Medien und insbesondere dem Internet vor seiner verstärkten kapitalistischen Verdichtung durch die Plattformen einen geradezu anarchischen Charakter zuschreibt oder wenigstens lange Zeit zugeschrieben hat? Im Verlauf des 20. Jahrhunderts hatten dann auch Begriffe Konjunktur, die wie das klassische Rhizom bei Gilles Deleuze und Félix Guattari nicht die zeitliche oder räumliche Vollständigkeit technischer Errungenschaften, sondern die netzartige Ausbreitung technologischer Infrastrukturen zu spiegeln oder sogar zu verhandeln schienen. Weit über die Geisteswissenschaften hinaus hat die netzartige Struktur des Internet bis Anfang der 2000er zu einer weitgehenden Überschätzung seines politischen, theoretischen und alternativen wirtschaftlichen Potenzials geführt. Übersehen wurde hierbei jedoch etwas ganz Entscheidendes, nämlich das gemeinsame Element der technischen Kommunikation, mit dem erst die wurzelartige Verbindung der vielen Digitalrechner auf dieser Welt zustande kam: die im Netzwerk eingebetteten Internetprotokolle, die für eine Gesamtheit von technischen Regelungen und Abläufen stehen. Auch wenn das Internet in seinem Aufbau einem Wurzelstock oder Rhizom tatsächlich ähnelt, so ist es aus technischer Sicht dennoch nicht wildwachsend:

The story goes that the Internet is rhizomatic. On the one hand, the Web is structured around rigid protocols that govern the transfer and representation of texts and images – so the Web isn’t an ›acentered, nonhierarchical, nonsignifying system‹ as is Deleuze and Guattari’s rhizome. But on the other hand, the Web seems to mirror several of the key characteristics of the rhizome: the ability of any node to be connected to any other node, the rule of multiplicity, the ability to splinter off or graft on at any point, the rejection of a ›deep structure,‹ and so forth.

Dass Galloway die Internetprotokolle als »rigid«, also als streng und in gewissem Sinne »starr« bezeichnet, ist ein Kontrast zur Vorstellung von der absoluten Unabhängigkeit des Netzes, die Barlow proklamieren wollte: »Ours is a world that is both everywhere and nowhere, but it is not where bodies live«.

Protokolle hingegen organisieren die physikalischen Netzwerke. Sie sind in jedem Falle verpflichtend, da ihr Einsatz für den gelingenden Informationsaustausch im Internet alternativlos ist. Gleichzeitig öffnen sie das Netzwerk namens Internet erst für sehr verschiedene Kommunikationsteilnehmer:innen und laufen auf alles andere als Exklusion hinaus. Totalität bedeutet internethistorisch, und – so meine These – prinzipiell keineswegs, soziale, politische und kulturelle Uniformität herzustellen. Sie stimmt nicht mit dem Begriff der Totalität im 20. Jahrhundert überein und sollte den Vorgang der Öffnung für differente Einzelne mitbedenken.

Totalität wird nach Hannah Arendt in den Diskursen der Kritischen Theorie zu etwas Neuem, Negativem. Im großen Unterschied zu Georg Lukács, der Totalität letztlich vom antiken Epos her denkt, will auch Adorno sie als eine rein kritische Kategorie verstanden wissen: »Totalität ist keine affirmative, vielmehr eine kritische Kategorie«. Gleichwohl verwendet Adorno selbst den Begriff der Totalität nicht immer einheitlich in bereits entwickelter Form, zum Beispiel wenn er ihn in jenem konzentrierten Text zum Begriff der Gesellschaft, der 1966 den Beginn seiner späten Beschäftigung mit der Totalität markiert, zu Abgrenzungszwecken vorläufig der Menge aller Menschen gleichstellt, die zu einem bestimmten Zeitpunkt am Leben sind. Bei der Bestimmung des Begriffs ›Gesellschaft‹ gewinnt für Adorno hierbei sogar die Vorstellung von dem, was diese sein soll, zunächst deutlich die Oberhand gegenüber dem, was im Unterschied dazu die Totalität auf einer ersten Stufe der Begriffsbildung ausmacht. Was im Wort Gesellschaft mitgedacht sei, das würde verfehlt, setzte man sie mit »der Menschheit samt all den Gruppen« gleich, »in welche sie zerfällt und aus welchen sie sich bildet, oder, simpler« wäre es noch, sie aufzufassen »als die Totalität der in einem Zeitabschnitt lebenden Menschen«. In der schematischen Gegenüberstellung wird zwischen einer eindeutig benenn- und erfassbaren Menge an menschlichen Individuen, die unter dem Gesellschaftsbegriff versammelt würden – der dann hierbei einer Invariante bzw. unveränderliche Größe oder auch Konstante entspräche – und der Gesellschaft als in Bewegung Befindliches unterschieden. Die rein quantitative Erfassung bzw. die Bestimmung der Gesellschaft als Gesamtheit aller lebenden Menschen ist für Adorno zu statisch, um daraus einen passenden Begriff der heutigen Gesellschaft zu gewinnen. Keine »herauspräparierte[n] Invarianten« seien nämlich in der Lage, den Begriff der Gesellschaft auszumachen, da sie »wesentlich Prozeß« und darum vor allem über ihre »Bewegungsgesetze« zugänglich werde. Hauptabsicht Adornos ist es, eine funktionale Definition der Gesellschaft vorzubereiten.

Vor allem aber kann Gesellschaft deshalb nicht mit der Menschheit deckungsgleich sein, weil sie sich verkehrt und gegen diese gewandt hat. Der gewichtigste Einwand der Kritischen Theorie gegen eine formale Definition der Gesellschaft als der Menge aller lebenden Individuen, ihrer individuellen Verfasstheit und Meinungen, richtet sich gegen die trügerische Vorstellung, dass diese Gesellschaftlichkeit insofern »menschlich« sei, als sie für »deckungsgleich mit ihren Individuen« gehalten werden könnte. Damit aber würde genau verfehlt, wozu Gesellschaft geworden ist, nämlich das spezifische »Übergewicht von Verhältnissen über die Menschen«. Hier zeichnet sich ab, dass auch in einer zu entwickelnden späten Theorie der technischen Gesellschaft bei Adorno der Zugang methodisch an die Kritische Theorie der Dialektik der Aufklärung angeschlossen hätte, über die der Medien- und Kulturtheoretiker John Durham Peters urteilt: »The wedding of micro-feeling and macro-structure is a hallmark for critical theory«.

Totalität wird bei Adorno schließlich zu einem Hauptmerkmal kapitalistischer Gesellschaft und fast durchgängig als gesellschaftliche Schließung gedacht. Gesellschaft in ihrer Eigenschaft, Totalität zu sein, gleicht einem Prozess des Einbegreifens und darum für Adorno immer wieder auch einer Vereinheitlichung. »Totale Vergesellschaftung« und ihre Folgen, wie sie die Weiterentwicklung der kapitalistischen Gesellschaft im 20. Jahrhundert hin zum Spätkapitalismus mit sich bringe, so Adorno, ist jedoch nicht der Technik als solcher anzulasten.

All das ist nicht Technik als solcher aufzubürden. Sie ist nur eine Gestalt menschlicher Produktivkraft, verlängerter Arm noch in den kybernetischen Maschinen, und darum selber einzig ein Moment in der Dialektik von Produktivkräften und Produktionsverhältnissen, kein Drittes und dämonisch Selbständiges.

Adorno ordnet Technik an dieser Stelle einmal mehr auf traditionell marxistische Weise den Produktivkräften zu. Kritik habe sich immer wieder fälschlicherweise dazu verleiten lassen, die Technik zur Zielscheibe zu nehmen. Es ist jedoch zu unterlassen, so Adorno, dass man »der Technik, also den Produktivkräften, die Schuld aufbürdet und eine Art Maschinenstürmerei auf erweiterter Stufenleiter betreibt«. An dieser Stelle wäre noch auf das strategische Moment einzugehen, warum Adorno hier die Technik positiv besetzt (um nämlich den Begriff des Spätkapitalismus von der These der Industriegesellschaft abzugrenzen, die von ihren Vertreter:innen mit tendenziell verselbständigter Technik identifiziert wird). Wichtiger ist hier jedoch, dass diese Einschätzung so nicht mehr zu halten ist. Technik lässt sich aus vielen Gründen, zu denen der Plattformkapitalismus mit seinem neuen Rohstoff Daten, aber auch die algorithmischen Verzerrungen und eben neue technische Kontrollformen zählen, nicht mehr aus der Gesellschaftsanalyse ausklammern. Deshalb schlage ich vor, die wichtigen technischen Momente, zu denen gerade auch die Internetprotokolle zählen, für die Analyse des offenen Gesamtzusammenhangs heranzuziehen, der unsere Gesellschaft ausmacht und ihre Totalität ergibt.

Adorno bezeichnet als Totalität, totalisierend und total diejenigen Tendenzen des gesellschaftlichen Lebens, die den schließenden Charakter der bestehenden Gesellschaftsform ausdrücken.

Direkte Belege für diese Einschätzung sind in seinem von Marc Sommer erstmals in einer Monographie untersuchten Hauptwerk der Negativen Dialektik zu finden. Über die »Konstruktion des Weltgeistes« im deutschen Idealismus Hegel’scher Prägung schreibt Adorno in der Negativen Dialektik, dass sie, einerseits, Rechnung ablege von der »Emanzipation des Subjekts«. Dem steht die gesellschaftliche Schließung gegenüber, die für Adorno auch historisch real im Übergang vom Feudalismus zum Frühkapitalismus vonstattengegangen sein muss: »Andererseits muss der Zusammenhang der gesellschaftlichen Einzelhandlungen zur lückenlosen, das Einzelne prädeterminierenden Totalität so sich geknüpft haben wie nie im feudalen Zeitalter«.

Eigentlich verstreute – in Adornos Worten ließe sich sagen nichtidentische – Einzelakte vereinheitlichen sich der Beobachtung nach zum geschlossenen Ganzen des Kapitalismus ohne Lücken, Brüche oder Öffnungen. Ist es auch nach wie vor zutreffend, mit der Totalität die Dominanz der jetzigen Gesellschaftsform auszusprechen, aus der man eben als Einzelne nicht einfach austreten kann, so kippt der Begriff der Totalität jedoch immer wieder in der aufgezeigten Weise in Richtung eines Prozesses der kulturellen, sozialen und ästhetischen Homogenisierungsbewegung. In Anknüpfung an Joseph Vogl kann Macht hingegen als Öffnung und weitergehend als offene Totalität gedacht werden:

»Mit der Funktionsweise von digitalen Protokollen geht es also nicht bloß um eine arbiträre und externe Steuerung distributiver Netzwerke. Protokolle lassen sich vielmehr – in der Terminologie Bruno Latours – als ›Inskriptionen‹ begreifen, mit denen Informationen als immutable mobiles transportabel, stabil und kombinierbar gemacht werden; die Kräfte der Dezentralisierung, der Öffnung, der Vernetzung und der Selbstorganisation werden selbst zu einem kontrollierenden Programm«.

Technik trägt insbesondere in Form der Internetprotokolle Teile jener Prozesse in sich, die Adorno als Gesellschaft in ihrer Totalität beschrieben hat. Diese Totalität ist nicht mehr nur allein in ihren einbegreifenden Eigenschaften zu verstehen. Mit Galloway und Vogl ist Gesellschaft vielmehr als Verteilung und Öffnung wirksam und, wie ich anfügen möchte, damit als offene Totalität. Sie bereitet die gesellschaftliche Verdichtung vor, die sich in der Passage zum Plattformkapitalismus abzeichnet. Offene Totalität fällt unter Félix Guattaris Begriff des ›Integrierten Weltweiten Kapitalismus‹, in dem jede Regung, jeder Impuls, jeder Affekt, jeder Klick verwertet werden kann.

Über Technik will Adorno noch in aller Deutlichkeit festhalten: »Nicht die Technik ist das Verhängnis, sondern ihre Verfilzung mit den gesellschaftlichen Verhältnissen«. Für eine solche Verfilzung aber sorgen Algorithmen und vor allem Protokolle (und nach wie vor die notwendige Extraktion der Rohstoffe, die für die Fabrikation der Hardware unerlässlich ist).

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.

Tuschling, A. (2023). Offene Totalität. Internetprotokolle in der spätkapitalistischen Gesellschaft. In: Plener, P., Werber, N., Wolf, B. (eds) Das Protokoll. AdminiStudies. Formen und Medien der Verwaltung, vol 2. J.B. Metzler, Berlin, Heidelberg

https://doi.org/10.1007/978-3-662-66896-2_14

http://creativecommons.org/licenses/by/4.0/deed.de


© Swiss Infosec AG 2026