Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

«Everything that happens to a photo». Über analoge und digitale Protokolle der Bildlogistik

01/2024

Logistik und Referenz

Im Sommer 2019 startete die New York Times eine bis dahin beispiellose Initiative, um der ungehinderten Verbreitung von Falschinformationen und manipulierten Fotos im Netz zu begegnen: das News Provenance Project. Künftig, so die Idee der Forschungs- und Entwicklungsabteilung der Zeitung, sollen Nutzer:innen sozialer Netzwerke zu allen Nachrichtenbildern, die in ihren persönlichen Feeds auftauchen, verlässliche Informationen zu Ort und Datum der Aufnahme sowie zu vorherigen Veröffentlichungen abrufen können. Auch alternative Bilder desselben Ereignisses wären, falls vorhanden, mit einem Klick verfügbar. Es ginge also um nichts weniger als darum, jedes journalistische Foto rückverfolgbar zu machen. Voraussetzung dafür wäre die lückenlose Protokollierung aller Zwischenschritte der Bilddistribution: »We wanted to see if it was possible to record everything that happens to a photo, from capture to publication, in the form of photo metadata and display that information on social media platforms«. Als technische Basis dieser in Zusammenarbeit mit IBM gestarteten bildlogistischen Transparenzoffensive soll die Blockchaintechnologie dienen, wie sie für Kryptowährungen wie Bitcoin oder Besitzurkunden für digitale Objekte, die so genannten Non-Fungible Tokens oder NFTs, aber ebenso für den Nachvollzug von Lieferketten im Lebensmittelhandel eingesetzt wird. In all diesen Fällen erlaubt es die dezentrale Erfassung und Speicherung von Transaktionsvorgängen, in einem komplex verteilten Übertragungsgeschehen stabile »Referenzketten« herzustellen.

Mit einem beliebigen Bild auf Twitter oder Facebook konfrontiert, könnten aufgeklärte User:innen also fortan nachvollziehen, woher dieses Bild stammt und in welchen Kontexten es bereits aufgetaucht ist: »Check for yourself. What does this photo show?«. So soll etwa verhindert werden, dass ein Bild durch irreführende Zuschreibungen in falsche Kontexte gesetzt und für manipulative Aussagen benutzt wird. Doch die ersten Versuche der New York Times mit einem entsprechenden proof of concept verliefen nur bedingt ermutigend: Offenbar machten sich die meisten User:innen nicht die Mühe, den Ursprungskontext mit der im Social-Media-Post behaupteten Zuschreibung abzugleichen, und das Vertrauen in die Bilder hing wesentlich vom Vertrauen in die Überbringer:innen der Botschaft, nicht von der verfügbaren Zusatzinformation ab.

Nach anfänglicher medialer Aufmerksamkeit ist es mittlerweile stiller um das News Provenance Project geworden. Doch die New York Times ist nicht der einzige Akteur, der im Kampf gegen die Manipulation von digitalen Medieninhalten auf die Blockchain-Technologie setzt. Die Firma Truepic vermarktet unter dem Slogan »Don’t detect what’s fake. Prove what’s real.« ein ähnliches Modell der Bildauthentifizierung durch verschlüsselte dezentrale Protokollierung: Ihre patentierte »True Capture«-Technologie soll dafür sorgen, dass künftig die Metadaten jedes auf dem Smartphone aufgenommenen Fotos oder Videos vom Moment der Aufzeichnung an in der Blockchain registriert werden. Und im Rahmen der Content Authenticity Initiative (CAI), der neben der New York Times und Truepic auch zentrale bildökonomische Player wie Adobe, Twitter, Microsoft, Intel und die BBC angehören, bemüht man sich plattformübergreifend um neue interoperable Standards, um auch die content journey, die »Reise« eines beliebigen Bildes oder Videos durch das Netz, von der Aufnahme bis zur Betrachtung nachvollziehbar zu machen – jegliche Änderungen, die etwa nachträglich mit Photoshop vorgenommen würden, sollen dabei ebenfalls kryptographisch protokolliert werden.

Aus bildhistorischer Sicht sind solche Projekte allein schon deshalb aufschlussreich, weil sie mit dem technischen Kurzschluss von Bildauthentifizierung und Kryptowährung an eine bereits seit Langem eingeführte Analogie von Bildzirkulation und Geldumlauf anschließen, von der noch die Rede sein wird. Vor allem aber zeigen sie, wie sehr die stets prekäre Wirklichkeitsreferenz technischer Bilder in immer unübersichtlicheren Netzwerken der Bildzirkulation an bildlogistischen Protokollen hängt, die legitime Übertragungen von illegitimen Manipulationen unterscheidbar machen. Als Ensemble von »konventionellen Regeln und Standards, die die Beziehungen innerhalb von Netzwerken regeln«, üben Protokolle Macht weniger durch Zentralisierung als durch die Etablierung von Übertragungsformaten aus, die Informationen stabilisieren, mobilisieren und prozessierbar machen. Protokolle operieren dabei sowohl informationsselektiv, indem sie filtern, was überhaupt gespeichert und übertragen werden kann, als auch informationsproduktiv – sie reichern Informationen mit weiteren Informationen an, etwa Bilder mit Metadaten, die ihre Verarbeitung und Zuordnung erlauben. Ihre Effizienz, so hat es Joseph Vogl formuliert, misst sich dabei »am Erfolg von Übertragungsprozessen, an der logistischen Lösung von Transmissionsaufgaben überhaupt«. Projekte wie das News Provenance Project oder die Authentic Content Initiative zeigen, dass zumindest unter digitalen Bedingungen Fragen der Logistik stets zugleich auch solche der Referenz sind: Was ein Bild zeigt und was sich mit ihm zeigen lässt, das lässt sich heute kaum mehr von der Frage ablösen, woher es kommt und welche Stationen der Übertragung es passiert hat.

Die zentrale Rolle von bildlogistischen Protokollen bei der Herstellung und Stabilisierung bildlicher Referenz gilt allerdings keineswegs erst für Bilder auf digitalen Online-Plattformen. Technische Bilder im Zeitalter ihrer massenhaften Produktion, Zirkulation und Auswertung, so ließe sich zugespitzt behaupten, waren noch nie denkbar ohne verbindliche Formate und standardisierende Protokolle, die ihre Aufzeichnung, Speicherung und Distribution regulieren. Dass Bilder überhaupt zu stabilen und belastbaren Informationsträgern in arbeitsteiligen Abläufen und weitläufigen Netzwerken werden können, hängt nicht zuletzt an Protokollen, die regulieren, wie Bilder interpretiert, miteinander verglichen und auf andere Bilder und Daten bezogen werden können. Solche Protokolle der Bildlogistik erfüllen dabei ebenso präskriptive wie deskriptive Funktionen: Sie schreiben einerseits verbindlich vor, wie mit Bildern als Informationsträgern zu verfahren ist, und erlauben anderseits die Aufzeichnung der Bedingungen, unter denen Bilder hergestellt, distribuiert und mit Informationen angereichert werden.

Doch mit digitalen Aufzeichnungstechniken, so die These dieses Beitrags, findet eine Ausweitung des Feldes des Protokollierbaren statt. Wo es möglich wird, die gesamte content journey, »everything that happens to a photo«, automatisiert zu registrieren und dauerhaft zu speichern, wird bildlogistische Protokollierung zum unabschließbaren Prozess. Damit verschiebt sich auch der Einsatz bildlogistischer Protokolle von der Standardisierung der Produktionsbedingungen zur Regulierung der Distribution und von der Dokumentation einmaliger Aufzeichnungsakte zur sequenziellen Registrierung von Transaktionen. So offenbart die Analogie von Geldumlauf und Bildzirkulation eine weitere Pointe: Das Vertrauen in die Wahrheit der Bilder soll nun, ähnlich wie der Wert von Kryptowährungen, nicht mehr an der Autorität eines Ursprungs hängen, sondern an der Nachverfolgbarkeit von Übertragungsvorgängen.

Standards und Archive

Die Vorstellung, dass die Medien Bild und Geld nicht nur, wovon Münzporträts seit der Antike zeugen, historisch miteinander verknüpft, sondern tatsächlich funktional verwandt sind, ist mindestens so alt wie die massenhafte technische Bildproduktion und -zirkulation. Bekanntlich geht man in der Regel von drei primären Geldfunktionen aus: Geld ist erstens ein Tauschmittel, es dient zweitens der Wertaufbewahrung und fungiert drittens als Wertmaß. Es ist vor allem diese intrinsische Verknüpfung von Zirkulation, Speicherung und Messung, die schon früh, wenngleich selten widerspruchsfrei, auch für das fotografische Bild in Anspruch genommen wurde. Wie Währungen zirkulieren fotografische Bilder massenhaft, wie Geldvermögen können sie akkumuliert werden und dienen der Bewahrung dessen, was sonst flüchtig oder gefährdet scheint, und vor allem bringen sie, wie Matthias Bruhn bemerkt hat, als Medium der Quantifizierung »singuläre Erscheinungen in kommensurable Größen«.

Wohl ihren prominentesten Auftritt hat die Analogie von Bild und Geld in einem der meistzitierten Texte der frühen Fototheorie, Oliver Wendell Holmes’ »Das Stereoskop und der Stereograph« von 1859. Der Bostoner Essayist entwirft darin die Vision fotografischer (genauer: stereoskopischer) Bildersammlungen, die nach dem Vorbild öffentlicher Leihbüchereien metrisch genaue Aufnahmen beliebiger Bildgegenstände, nicht zuletzt berühmter Bauwerke und anderer Kulturschätze systematisch sammeln, bewahren und allen, die daran Interesse haben, zur Verfügung stellen sollen. Konsequent bedient sich Holmes dabei einer ökonomischen Metaphorik, erscheint ihm doch der fotografische Akt zugleich als Abstraktions- wie Wertschöpfungsprozess, in dem sich die fotografisch erfassten »Formen« wie immaterielle »Häute« von der schweren »Materie« des abgebildeten Gegenstandes abschälen, um fortan als entmaterialisierte Derivate des Realen losgelöst von ihrem physischen Ursprung zirkulieren können. Dabei denkt er Zirkulation und Sammlung als ineinander verschränkt, denn je globaler der Austausch zwischen den lokalen Bildersammlungen organisiert werde, umso reicher könnten deren jeweiligen Bestände werden: »Und um die Bildungen öffentlicher und privater Sammlungen zu erleichtern, muß ein leistungsfähiges Austauschsystem eingerichtet werden, das zur Folge hat, daß so etwas wie ein allgemeiner Umlauf dieser Banknoten oder Wechsel auf feste Materie entsteht, welche die Sonne für die große Bank der Natur gedruckt hat.« Insbesondere sollten, um dieses allgemeine Äquivalent zu stabilisieren, die Bilder auf ein »stereographisches Standardmaß« gebracht werden, das den Vergleich beliebiger Bildgegenstände ermöglicht. Denn nur wenn »das Kapitol und die Peters-Kirche im gleichen Maßstab« abgebildet würden, ließen sie sich sinnvoll vergleichen, »ohne Gefahr zu laufen, aus Vorurteil […] den Dom unseres Michelangelo überzubewerten«. Weil die Bilder unabhängig von ihrem Ursprung zirkulieren, auf den sie immer bloß zeichenhaft verweisen, bedürfen sie zur Absicherung ihrer Gültigkeit verbindlicher Protokolle der Standardisierung und der Produktion von Anschlussfähigkeit, wie sie schon in Holmes’ Sicht nur Institutionen definieren können. Die einzelne stereographische Aufnahme erscheint so bei Holmes zugleich als natürliche Wertressource, hervorgebracht von den Strahlen der Sonne, wie als »genormter Signifikant für einen Wert, der sich anderswo befindet«.

Der Wert des technischen Bildes misst sich in dieser Vorstellung also nicht zuletzt an seiner metrischen Exaktheit – der Prozess der Aufnahme erscheint als wiederholbarer Vorgang der Datenerfassung, der unter standardisierbaren Aufzeichnungsbedingungen vergleichbare Informationen in Form stabiler und mobilisierbarer Inskriptionen hervorbringt. Diese Idee ist älter als die Fotografie, sie findet sich, zumindest in Ansätzen, bereits beim Zürcher Pastor Johann Caspar Lavater, der im ausgehenden 18. Jahrhundert die physiognomische Charakterdeutung europaweit popularisierte und dazu ein vorbildloses Netzwerk der Bildzirkulation etablierte. Bekanntlich misstraute Lavater der künstlerischen Porträtproduktion seiner Zeit – seine Physiognomischen Fragmente quellen zwar über von Kupferstichen berühmter Zeichner, aber zugleich wird er darin nicht müde, die »würklich unglaubliche Unvollkommenheit dieser Kunst« zu geißeln. Statt sich der genauen Erfassung der individuellen Züge zu widmen, produzierten die Künstler nur visuelle Klischees, genährt von »Modebildern ihrer oder der Vorzeit«.

Nicht von ungefähr präferierte Lavater daher mit dem Schattenriss ein weitgehend mechanisches Aufzeichnungsverfahren, das zumindest protofotografische Züge aufweist und dessen Wert er in ökonomischen Termini bilanziert: »Was kann weniger Bild eines ganz lebendigen Menschen seyn, als ein Schattenriß? und wie viel sagt er! wenig Gold; aber das reinste!« Lavater verrechnet also den offenkundigen Informationsverlust im Schattenriss, der das Gesicht auf die bloße Profillinie reduziert, mit einem Gewinn an ›Reinheit‹. Diese Wertsteigerung qua visueller Reduktion ist für ihn nicht zuletzt Effekt eines medialen Dispositivs, das die Kontrolle der Produktionsbedingungen erlaubt: »Das Schattenbild von einem Menschen, oder einem menschlichen Gesichte, ist das schwächeste, das leereste, aber zugleich, wenn das Licht in gehöriger Entfernung gestanden; wenn das Gesicht auf eine reine Fläche gefallen – mit dieser Fläche parallel genug gewesen – das wahreste und treueste Bild, das man von einem Menschen geben kann«. Wahrheit – und damit stabiler Wert – resultiert also aus der Einhaltung eines Protokolls der Bildproduktion, das Körper, Lichtquellen und technische Aufzeichnungsmedien in kalkulierbare räumliche Relationen setzt.

Lavater selbst hat solche Protokolle weder detailliert verschriftlicht noch konsequent angewandt. Doch wo immer seit der zweiten Hälfte des 19. Jahrhunderts technische, insbesondere fotografische Bildmedien zur massenhaften Aufzeichnung stabiler, vergleichbarer Daten zum Einsatz kamen, finden wir Protokolle, die den bei Lavater angelegten Grundsätzen entsprechen: Reduktion der Kontingenz möglicher Bilder durch Standardisierung von Formaten, metrische Normierung durch Etablierung von Handlungsanweisungen und apparativen Dispositiven. Am konsequentesten hat dieses Programm Alphonse Bertillon umgesetzt, der in den 1880er Jahren die erkennungsdienstliche Fotografie standardisierte. Um bei dreißig bis vierzig Aufnahmen, die der service photographique der Pariser Polizeipräfektur stündlich anzufertigen hatte, die effiziente Wiederholbarkeit der technischen Abläufe zu sichern, entwarf Bertillon ein räumlich-apparatives Gefüge, das den Körpern der Verdächtigen eine unveränderliche Pose aufnötigte und sie in einem exakt bestimmten räumlichen Abstand zur Kamera fixierte. In Bertillons eigenen Worten sollte dieses fotografische »Dispositiv« den »Operateur« zu »Gleichförmigkeit« und »Präzision« zwingen, und zwar durch die »materielle Unmöglichkeit«, vom standardisierten Bildformat abzuweichen.

Bertillons fast manischer Wille zur Standardisierung war in seinem Ausmaß einzigartig, doch in seiner Intention stand er keineswegs allein. Wo immer »Bilder Dokumente wurden«, sei es in der Ethnologie und physischen Anthropologie, in der Bauaufnahme und Denkmalinventarisierung, in der Tatortfotografie und kriminalistischen Spurensicherung oder bei der Dokumentation musealer Sammlungen, entstanden im ausgehenden 19. und frühen 20. Jahrhundert mehr oder weniger detaillierte Anweisungen zur Aufnahmetechnik, zur Beschriftung, Archivierung sowie häufig auch zur Dokumentation des Aufnahmeprozesses. Die angestrebte »mechanische Objektivität« der Aufnahme war dabei in der Regel weniger ein Effekt der Nicht-Intervention in den fotografischen Akt – vielmehr war jede Aufnahme Produkt einer Serie von standardisierten Operationen, die durch verbindliche und transparente Protokolle so weit kontrolliert werden konnten, dass weder optische Verzerrungen noch subjektive Willkür die Datenerfassung störten.

Die Aufgabe der Fotografie, so hat es Charles Baudelaire 1859 formuliert, liege darin, eine »niedrige Dienerin« der »Wissenschaften und der Künste« zu sein, »der Sekretär und der Protokollant eines jeden […], der in seinem Beruf auf absolute Genauigkeit angewiesen ist«. Doch selbst wenn die Kamera Objekte, Szenen, Tatbestände getreu und objektiv protokolliert, bleibt ohne flankierende Protokollierung von Ort, Zeit und Umständen der Aufnahme im Dunkeln, was hier tatsächlich protokolliert wurde. Isolierte Bilder geben nur unzureichend über ihre Produktionsbedingungen Auskunft. Um sie zu belastbaren Dokumenten zu machen, bedarf es standardisierter und standardisierender Protokolle, die den Akt der Aufzeichnung und seine Umstände registrieren und aufschreibbar machen. Wenn Walter Benjamin in seiner Kleinen Geschichte der Fotografie von 1930 fragte, ob »die Beschriftung nicht zum wesentlichsten Bestandteil der Aufnahme werden« würde, dann verallgemeinerte er nur, was für den instrumentellen Einsatz des Mediums bereits seit Jahrzehnten galt.

Benjamin hatte vor allem Fotobücher im Sinn, doch das vielleicht entscheidende Medium, in dem visuelle Aufzeichnung und bürokratische Beschriftung im ausgehenden 19. und frühen 20. Jahrhundert zusammenfanden, ist die fotografisch supplementierte Karteikarte, als deren wiederum bekanntestes Beispiel Alphonse Bertillons anthropometrische fiches gelten können. Als hybride analoge Datenträger verschränken sie erkennungsdienstliche Aufnahme und schriftliche Aufzeichnungen von Körpermaßen, visuelle Daten und numerische Datensätze auf ein und derselben Speicherfläche. Bertillon, so hat es Allan Sekula beschrieben, integrierte damit die Fotografie in ein komplexes bürokratisches Gefüge, in dessen Zentrum nicht die Kamera, sondern der Aktenschrank stand: das »Archiv« wurde zur »institutionellen Grundlage fotografischen Bedeutens«, und zwar überall dort, wo große Mengen von Bildern systematisch gesammelt und ausgewertet wurden. Dabei diente die annotierende Beschriftung einerseits dazu, das einzelne Bild in einer unüberschaubaren Menge anderer Bilder stabil adressierbar, also wiederauffindbar zu machen. Aber zugleich musste sichergestellt werden, dass das Bild auch zeigte, was die Daten beschrieben – und dies geschah, indem Bildproduktion und Datenakquise eng miteinander verkoppelt wurden. So sahen Bertillons erkennungsdienstliche Protokolle vor, jeder Aufnahme eine laufende Nummer zuzuordnen, die in Form eines Schildchens auf der Sessellehne montiert und mit dem schriftlichen Tagesprotokoll abgeglichen wurde, also als Bildelement wie diskretes Datum innerhalb wie außerhalb des fotografischen Bildraums existierte. Und um eventuelle Vertauschungen zu vermeiden, diente die Stuhllehne zugleich als Messskala der Schulterhöhe – eine Art Prüfziffer, die mit den anthropometrischen Daten verglichen werden kann. Der Bildträger wurde so zum Datenträger, der mittels Formatierung, Beschriftung und Datenabgleich in einem bereits als datenförmig verstandenen Archivraum verankert werden konnte. Vorab definierte bürokratische Protokolle stellten sicher, dass jedem nur möglichen künftigen Bild bereits eine diskrete Adresse zugewiesen wurde.

Metadaten und Plattformen

»The currency of the great bank of nature has left the gold standard«, so verkündete 1992, ein Jahr nach dem zweiten Golfkrieg und zwei Jahre nach der Markteinführung von Photoshop, William J. Mitchell in seinem Buch The Reconfigured Eye. Mitchells einflussreiche, frühe theoretische Bestandsaufnahme der digitalen Fotografie kreist wesentlich um die Frage der Referenz der Bilder angesichts ihrer nahezu spurlosen Manipulierbarkeit, und in Anlehnung an Holmes beschreibt er das digitale Bildregime, das sich in den frühen 1990er Jahren abzuzeichnen beginnt, in Begriffen der Inflation und des Wertverlusts: »[…] images are no longer guaranteed as visual truth – or even as signifiers with stable meaning and value – and we endlessly print more of them«. Mitchell ist nicht der Einzige, der in der Frühzeit der digitalen Fotografie vor allem den radikalen Bruch mit dem indexikalischen Wahrheitsversprechen des »fotografischen Zeitalters« betont hat. Wie viele andere konnte er sich eine Stabilisierung der Referenz nur als gleichsam ontologische Garantie vorstellen, die im fotografischen Akt als »unwiderrufliche[r] Einschreibung« einer Lichtspur materiell verankert ist. Aber wie bereits deutlich geworden sein sollte, bedurfte dieser fotografische Akt immer schon externer Operationen der Stabilisierung – nicht anders übrigens, dies nur nebenbei bemerkt, als der vermeintliche natürliche und sichere Goldstandard, der ohne wiederholte staatliche Eingriffe und Regulierungsbemühungen keineswegs für Wertstabilität sorgt. So problematisch und letztlich wohl irreführend die Analogie von Bild und Geld also auch ist, zumindest in dieser Hinsicht gleichen sie sich: Stabilität ist nie einfach gegeben, sondern stets das Produkt stabilisierender Interventionen. Und ein Blick auf jene Protokolle, die im Falle des fotografischen Bildes die Stabilisierung der Referenz zu leisten versprachen, offenbart unterhalb der technischen Differenzen von analoger und digitaler Bildproduktion Kontinuitäten der Bildpraxis, die die These eines radikalen Bruchs relativieren.

»Besser als jedes theoretische Argument«, so der Fototheoretiker André Gunthert, »hat die Durchsetzung der digitalen Praxis gezeigt, dass die Wahrhaftigkeit des Bildes nicht von seiner Ontogenese abhängt.« Als eines der zentralen frühen Beispiele dafür, wie auch digitalen Aufnahmen ganz selbstverständlich Beweiskraft zugesprochen wird, gelten Gunthert die Bilder der Folterungen aus dem US-Militärgefängnis in Abu Ghraib, die 2004 die Weltöffentlichkeit schockierten. Doch übersah Gunthert dabei, dass der Evidenzanspruch gerade jener Bilder über den der analogen Fotografie hinausging. Denn dass sich aus dem »Archiv von Abu Ghraib« die Verbrechen der US-Armee in solcher Genauigkeit rekonstruieren ließen, hing nicht allein an der visuellen Evidenz der Aufnahmen, sondern wesentlich an der Möglichkeit, über Metadatenauswertung jeder einzelne Aufnahme Ort, Datum und Uhrzeit eindeutig zuweisen zu können. Erst mit dieser »hyperindexikalische[n] Verdatung« wurden Aufzeichnungen, deren Entstehungskontext zunächst unklar schien, zu Spuren und Dokumenten von Ereignissen, die sich eindeutig in einem bereits als verdatet verstandenen raum-zeitlichen Kontinuum datieren und verorten lassen.

Als Daten über Daten, die die Klassifizierung, Adressierung und Verknüpfung digitaler Bilddateien erlauben, stehen Metadaten in einer Tradition der »Standardisierung der Beschriftung«, die sich bis in die fotografischen Bildarchive des 19. Jahrhunderts zurückverfolgen lässt. In diesem Sinne stellt digitale Fotografie gerade keinen Bruch mit dem fotografischen Zeitalter dar, sondern bedeutet vielmehr die radikale Ausweitung des archivischen Paradigmas auf die alltägliche Bildproduktion. Jedes Smartphone produziert heute standardmäßig, wofür einst ganze bürokratische Apparate nötig waren: Bilddatenobjekte, die jenseits der visuellen Aufzeichnung auch deren Begleitumstände immer schon mitprotokollieren und Bildern diskrete Adressen zuweisen. Wo unter den Bedingungen des Archivs die Beschriftung der Aufnahme zeitlich wie logisch nachgeordnet war, hebt die digitale Fotografie die funktionale Trennung zwischen Bildproduktion und Datenakquise, dem fotografischen Akt der Aufzeichnung und dem bürokratischen Akt der Protokollierung tendenziell auf. Deskriptive Metadaten, die üblicherweise im EXIF-Format gespeichert werden und neben Ort und Datum beispielsweise auch Angaben zum verwendeten Kameramodell und dessen Einstellungen umfassen, lassen sich daher als supplementäre indexikalische Referenz begreifen, als »Rahmungen«, die die digital zirkulierenden Bilddaten an den ursprünglichen Akt der Aufzeichnung zurückbinden.

Zugleich aber, und darin gehen sie über das archivische Paradigma hinaus, schaffen Metadaten neue Verknüpfungen zwischen Bildern. Mit der automatisierten Generierung von Metadaten zieht ein relationales Bildverständnis in die Produktion von Bildlichkeit hinein: Bilder existieren nicht mehr, wie noch in Bertillons Archiv, als singuläre Artefakte mit fixen Adressen in starren Strukturen, sondern formieren sich zu temporären, stets wechselnden »Konstellationen«, die über Metadaten aufgerufen und zusammengehalten werden. Mehr noch: Die Zirkulation und Konsumption von Bildern wird nun selbst metadatenproduktiv. Denn neben deskriptiven Metadaten, die im Akt der Bildaufzeichnung mitproduziert werden, werden Bilddatenobjekte auf Online-Plattformen durch jede einzelne Interaktion, jeden Zugriff, jeden like und jeden Kommentar mit Nutzungsmetadaten angereichert, die von den Plattformbetreibern in der Regel nicht im Bilddatensatz selbst, sondern bilddateiextern in proprietären Datenbanken gespeichert werden. Das hat seine Gründe, denn Anreicherung ist hier durchaus im ökonomischen Sinne zu verstehen – sind doch Bilder für Facebook, Twitter und andere Plattformbetreiber vor allem als Metadatenobjekte von Interesse, die über die Protokollierung von Interaktionsverhalten zur Generierung von Nutzerprofilen beitragen. Da Bilder unter Bedingungen ihrer digitalen Zirkulation nicht mehr nur Rückschlüsse über diejenigen zulassen, die sie herstellen und die auf ihnen dargestellt sind, sondern auch über diejenigen, die sie anschauen, teilen und kommentieren, kann mittlerweile alles, was mit einem Foto geschieht, dieses potenziell wertvoller machen.

Der Wert eines Bildes geht in dieser Logik also nicht mehr ausschließlich auf einen ursprünglichen Akt der dauerhaften Einschreibung zurück, vielmehr generiert er sich wesentlich in Übertragungsprozessen: Er ist das Produkt protokollierbarer Transmissionen, genauer: von Transaktionen, also Übertragungen, die unter vorab festgelegten Bedingungen zwischen dauerhaft stabilisierten Adressen stattfinden. Nicht jede Übertragung ist bereits eine Transaktion, denn Transaktionen setzen zwingend vorab getroffene Verabredungen, mithin Protokolle voraus, die festlegen, was überhaupt übertragen werden kann, unter welchen Umständen und zwischen welchen Transaktionspartnern. Zudem sind Transaktionen, im Gegensatz zu beliebigen Austauschprozessen, konstitutiv protokollierbar und metadatenproduktiv, ja sie haben, wie Christoph Engemann) betont, überhaupt nur stattgefunden, wenn Datum, Beteiligte und häufig auch Inhalt der Transaktion registriert und aufgezeichnet wurden. Wenn also Bildzirkulation, wie praktisch jegliche Art digitaler Kommunikation, nicht in Form flüchtiger Tauschakte oder spurloser Übertragungen, sondern mittels registrierbarer, dauerhaft speicherbarer und mithin potentiell nachträglich rückverfolgbarer Transaktionen zwischen stabilen Adressen stattfindet, geht damit notwendig eine enorme Ausweitung des Einsatzfeldes bildlogistischer Protokolle einher: Nahezu jegliches Bildhandeln wird unter digitalen Bedingungen technisch protokollierbar und erscheint ohne vorab festgelegte technische Protokolle unmöglich.

Diese digitale Expansion des Feldes des Protokollierbaren befeuert plattformbasierte Geschäftsmodelle, in denen sich der Fokus der Wertschöpfung von der originären Produktion medialer Inhalte zur nachträglichen Anreicherung von Content mittels Metadaten verschiebt: Sequenzielle Transaktionen treten damit an die Stelle singulärer Akte, und wichtiger als die Kontrolle der Produktionsbedingungen wird die Regulierung der logistischen Infrastrukturen der content journey. In diesem Sinne lassen sich Projekte wie das News Provenance Project als Versuche verstehen, sich durch die Etablierung zugleich standardisierter wie standardisierender Protokolle der Metadatierung ökonomisch neu zu positionieren. Neben dem Kampf gegen fake news sollte das Projekt der New York Times wohl nicht zuletzt dazu dienen, sich vom bildjournalistischen Content-Anbieter zur bildlogistischen Plattform zu wandeln, die in weiterer Konsequenz auch für andere Bildproduzent:innen unvermeidbar wird. Es geht also um die Monopolisierung von Deutungsmacht: Denn wer die Protokolle definiert, bestimmt nicht allein darüber, was in welchen Formaten aufgezeichnet werden kann, sondern reguliert damit zugleich auch die Zirkulation dieser Aufzeichnungen.

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.

Meyer, R. (2023). »Everything that happens to a photo«. Über analoge und digitale Protokolle der Bildlogistik. In: Plener, P., Werber, N., Wolf, B. (eds) Das Protokoll. AdminiStudies. Formen und Medien der Verwaltung, vol 2. J.B. Metzler, Berlin, Heidelberg

https://doi.org/10.1007/978-3-662-66896-2_12

http://creativecommons.org/licenses/by/4.0/deed.de


© Swiss Infosec AG 2024