Der Glaube an Big Data - Teil 2

Der Glaube an Big Data - Teil 2

03/2022

 

Eine Analyse gesellschaftlicher Überzeugungen von Erkenntnis und Nutzen gewinnen aus digitalen Daten

3.4.2 Die Geschwindigkeit digitaler Datenentstehung und -verwertung

Velocity ist gemeinhin als Geschwindigkeit zu übersetzen. Sie ist als eine weitere bedeutende Eigenschaft von Big Data zu verstehen, die jedoch eng mit dem Ausmaß der digitalen Datenbestände verknüpft ist. Dabei wird im Zusammenhang mit Big Data mit Blick auf die Geschwindigkeit über unterschiedliche Phänomene gesprochen, die voneinander getrennt betrachtet und erläutert werden müssen.

Aufgrund des rekursiven Charakters des Datenverwertungsprozesses, bei dem im Rahmen der Datenentstehung und -verwertung neue sogenannte Meta-Daten produziert werden, sind hier zwei Perspektiven zu unterscheiden, die jedoch eng miteinander verwoben sind. Laut Kitchin und McArdle handelt es sich hierbei mit Blick auf Geschwindigkeit von Big Data um: (1) “frequency of generation” sowie (2) “frequency of handling, recording, and publishing”. Zum einen spielt also Geschwindigkeit eine entscheidende Rolle im Entstehungskontext digitaler Daten, zum anderen kommt ihr in deren Verwertungskontext, insbesondere bei der Datenauswertung eine wichtige Bedeutung zu.

Geschwindigkeit im Entstehungskontext der digitalen Daten

Wie bereits in den vorangegangenen Abschnitten angesprochen und anhand einiger Zahlen illustriert, entstehen jede Sekunde Unmengen von digitalen Daten. Zeit spielt also im Entstehungskontext der Daten eine elementare Rolle, denn zu den Unmengen an bereits vorhandenen Daten kommen laufend neue hinzu. Es kann also bei Big Data keine umfassende Betrachtung des Phänomens erfolgen, ohne sich die Zeitlichkeit als notwendige Komponente einer Definition vor Augen zu führen. Allein die Nutzung von Online-Services durch Internetnutzer trägt zu einem beständig wachsenden Berg an digitalen Daten bei. Seiten wie Internet Live Stats, die das Verhalten der Nutzer und den dabei entstehenden Internetverkehr visualisieren, veranschaulichen dies eindrucksvoll. So werden weltweit jede Sekunde abertausende Bilder und Textbeiträge auf Internetserver hochgeladen, geteilt, bewertet und kommentiert. Nicht nur das Ausmaß der digitalen Daten ist also sehr groß, sondern auch die Geschwindigkeit, mit der die vielen Daten entstehen. Laut den Internet Live Stats sind das Stand Februar 2021 rund 112 Gigabyte – jede Sekunde. Dadurch fordert das Phänomen Big Data auch gängige Datenspeicherungsmöglichkeiten heraus. So haben die meisten Unternehmen mittlerweile entsprechende Kapazitäten aufgebaut, um die bei der Verwendung ihrer Dienste anfallenden Daten zu speichern. Für das Jahr 2017 berichtet Thibodeau von weltweit 8,4 Millionen aktiven Rechenzentren, die im Englischen primär auch als Data Center bezeichnet werden und über deren Server und angeschlossene Glasfaserkabel die Datenströme des Internets laufen. Laut Koomey trugen diese Datenzentren Anfang des Jahrzehnts bereits mit über einem Prozent zum weltweiten Stromverbrauch bei, mit ansteigender Tendenz. Das bedeutet gleichzeitig, dass es – ähnlich wie in der Logik des dezentralen Internets – keine isolierte zentrale Instanz gibt, bei der die online entstehenden digitalen Daten laufend erzeugt und gespeichert werden. Datenerzeugung ist auch daher ein globales Phänomen.

Neben dieser räumlichen Dispersität der Daten sind die Datensätze, die unter Big Data verstanden werden, anders als es der Begriff andeutet, auch aus zeitlicher Sicht keine fertigen und abgeschlossenen Einheiten. Sie können sich stetig vergrößern oder aber bei versehentlichem Datenverlust oder aktiver Löschung verkleinern – was bei fortlaufender Analyse und der Interpretation ihrer Ergebnisse ebenfalls berücksichtigt werden muss.

Geschwindigkeit im Analysekontext der digitalen Daten

Wenn die Entstehung großer Datenmengen in Echtzeit zu verfolgen ist, dann hat das nicht nur Auswirkungen auf die Speicherung von Big Data, sondern weckt auch menschliche Begehrlichkeit, Erkenntnisse über diese Daten und aus diesen Daten in Echtzeit zu gewinnen. Big-Data-Analysewerkzeuge müssen daher nicht nur in der Lage sein, digitale Daten zeitlich synchron einzulesen und zu speichern, sondern auch synchron und unmittelbar Erkenntnisse bezüglich eben jener Daten zu liefern, so dass aktuelle Trends und statistische Zusammenhänge in Echtzeit verfolgt werden können. Das sind zumindest die Erwartungen, die an Big Data gerichtet sind und die der Beschreibungsdimension Geschwindigkeit für den letztendlichen Nutzungskontext besondere Bedeutung verleihen. Es reicht nicht nur zu beobachten, dass sekündlich weltweit Menschen tausende Fotos auf Facebook und Instagram hochladen. Es ist mit Blick auf das Versprechen von Big Data auch von Bedeutung, hieraus jetzt und sofort Erkenntnisse zu ziehen. Für den sozialen Kontext sollen u. a. folgende Fragen mit Hilfe von Sentiment-Analysen zur Stimmungserkennung von Personen beantwortet werden, die auf Big Data zugreifen: Was bewegt die Nutzer*innen bspw. gerade in ihrer Rolle als Bürger*innen? Welche Themen treiben die Öffentlichkeit um, wie sieht die öffentliche Meinung und ihre Verteilung aus? Welche Politiktreibenden fallen oder steigen gerade aus welchen Gründen in der öffentlichen Gunst? Die Möglichkeit solcher Analysen befeuern den Wunsch nach Big-Data-Kompetenzen und Auswertungskapazitäten, die in Echtzeit abgerufen werden können, da die Erwartung besteht, aus der unmittelbaren Vergangenheit und Gegenwart Erkenntnisse über Weltzustände in der Zukunft zu gewinnen.

3.4.3 Die Vielfalt digitaler Datenentstehung und -verwertung

Ein weiteres Versprechen von Big Data ist, dass man mannigfaltige Erkenntnisse für alle vorstellbaren Lebensbereiche gewinnt, solange nicht nur punktuell viel, sondern am besten auch überall und für alles Mögliche entsprechend vielfältige Daten gesammelt werden. Die Vielfalt (Variety) digitaler Datenentstehung und -verwertung rückt an späterer Stelle insbesondere im Kapitel 5 bei der fortschreitenden Quantifizierung des Sozialen in den Blick. Hier wird deutlich werden, dass mit Big Data die Hoffnung verbunden ist, für jeglichen Bereich des sozialen Miteinanders Erkenntnisse zu gewinnen, und daher in der Konsequenz überall auch Daten gesammelt werden. Der Anspruch der Digitalisierung und ihrer digitalen Daten ist mithin auch, alles messen zu können. Die ubiquitäre Datensammlung geschieht daher nicht nur in Form der unterschiedlichen Kommunikationsmodi wie allen voran Text sowie Bild- und Audio-Dateien, die entstehen und bspw. über die Kommunikationsarchitektur des Internets zwischen den Nutzenden ausgetauscht werden. Sondern diese unterschiedlichen Arten von Daten entstehen auch in immer neuen Kontexten. Sensoren, die von Temperatur hin zu Bewegungen etc. alles Mögliche messen, befeuern die Vielfalt der entstehenden Daten und werden nicht nur in Automotoren und Flugzeugtriebwerken verbaut, sondern auch in Uhren, mit denen Menschen jederzeit ihre Schrittzahl oder den eigenen Puls nachverfolgen können. Letzteres Beispiel nimmt Bezug auf das sogenannte Self-Tracking, bei dem laufend individuelle Körperdaten für die unterschiedlichsten Vitalparameter erhoben werden. Mittlerweile nutzen 14 % der deutschen Bevölkerung sogenannte Digital-Health-Applikationen, also Hard- oder Software, mit deren Hilfe sie ihre Kalorienaufnahme, Sportaktivitäten und ihren Schlaf in digitalen Daten dokumentieren. Die Liste an Beispielen zu der Vielseitigkeit von Datenerhebung und der Vielfalt der entstehenden digitalen Datenbestände ist lang und wächst täglich. Sie kann daher an dieser Stelle nur angedeutet werden, zumal sie ebenfalls lediglich eine deskriptive Dimension des Phänomens Big Data betrifft und erst dann tatsächlich relevant wird, wenn der Digitalisierungskontext eine nähere Betrachtung der spezifischen Charakteristika der Datenvielfalt notwendig macht.

Es ist an dieser Stelle jedoch auch darauf hinzuweisen, dass die Vielfalt der Daten und die Ubiquität der Datensammlung dazu führen, dass je nach Schätzung rund 85 bis 95 % der Datensätze aus unstrukturierten Daten bestehen. Strukturierte Daten sind meist in sogenannten relationalen Datenbank-Managementsystemen (RDBMS) aufbereitet und folgen in ihrem Aufbau vorher definierten Dateneingaben für bestimmte Kennwerte wie Geburtsdaten, Sozialversicherungsnummern und Geldwerten. Unstrukturierte Daten hingegen bestehen u. a. aus Text, Bildern, Audio- und Video-Dateien, reichen also von E-Mails hin zu Online-Nachrichtenartikeln, von Smartphone-Fotos hin zu Sport-Live-Streams und Videos von Überwachungskameras. Das führt nicht nur zu Herausforderungen mit Blick auf die Auswertungsmöglichkeiten, sondern häufig auch dazu, dass man zwar viele und immer neue Daten hat, abhängig vom Verwertungskontext oft jedoch erst einmal reflektieren muss, worüber diese Daten denn nun genau Auskunft geben können. Es muss daher auch die soziale Bedeutung von Big Data in ihrem soziotechnischen Kontext angesprochen werden, wobei sogleich auf zwei entsprechende Dimensionen einzugehen ist, die das Verständnis vom Sinn und Zweck der Sammlung von Big Data anleiten.

3.5 Die sozio-technischen Dimensionen von Big Data

Mauro et al. haben mit Blick auf die allgemeine Literatur zu Big Data den Versuch einer Synthese von Definitionen unternommen. Die Autoren legen ihrer Betrachtung einen ganzen Korpus an Literatur aus Industrie und Wissenschaft zu Grunde. Die finale Definition von Big Data von Mauro et al. liest sich mithin ähnlich der bereits besprochenen Beschreibungsdimensionen: “Big Data is the Information asset characterised by such a High Volume, Velocity and Variety to require specific Technology and Analytical Methods for its transformation into Value [sic]”.

Die vorliegende Arbeit fragt insbesondere nach dem Einfluss der digitalen Datenbestände auf soziales Handeln und Gesellschaft. Charakterisierungen der digitalen Datenbestände für eine weiter gefasste Betrachtung der sozio-technischen Voraussetzungen und Konsequenzen des Umgangs mit Daten werden also dann besonders relevant, wenn es nicht mehr um die Fragen nach dem Was und Womit geht, sondern vor allem, wenn in sozialen Zusammenhängen das Wie und auch Warum der Datenerzeugung, -speicherung und -auswertung in den Vordergrund gestellt wird. Hierauf deutet die Bezugnahme von Mauro et al. auf Begriffe wie Asset und Value bereits hin. Es erfolgt hinsichtlich des Verarbeitungszusammenhangs der digitalen Datenbestände hier entsprechend eine Erweiterung der Betrachtung auf den Menschen in seiner Rolle als Datenerzeuger, -betrachter und -verwerter, so dass die sozialen Bedingungen und/oder Konsequenzen digitaler Datensammlung und -verwertung in den Fokus geraten. So stellt bspw. das einflussreiche, jedoch eher populärwissenschaftlich gehaltene Werk von Mayer-Schönberger und Cukier insbesondere auf diesen Zusammenhang ab: “Big data refers to things one can do at a large scale that cannot be done at a smaller one, to extract new insights or create new forms of value, in ways that change markets, organizations, the relationship between citizens and governments, and more” (Hervorh. d. Verf.).

Jegliche Beiträge, die den Schwerpunkt aus einer sozio-technischen Anwendersicht auf Big Data legen, gehen also meist davon aus, dass die Daten im Rahmen von Big Data über die zuvor beschriebenen Eigenschaften verfügen. Sie halten sich mithin selten mit definitorischen Grenzziehungen auf oder streifen diese nur kurz, um dann zu thematisieren, wie der menschliche Umgang mit den Daten charakterisiert werden kann; insbesondere welche epistemische Qualität und welchen Nutzen die Daten für ihn haben und welche Konsequenzen hieraus für Individuum und Gesellschaft erwachsen. Diese sozio-technischen Fragen lassen sich daher in den als konsequentiell-evaluativen Dimensionen Veracity und Value von Big Data verorten, die laut Ylijoki und Porras in 23 % bzw. 27 % aller von ihnen untersuchten Definitionen adressiert werden und nachfolgend besprochen werden. Dabei muss insbesondere auch die Charakterisierung der beiden Dimensionen als konsequentiell-evaluativ herausgearbeitet werden. Diese bezieht sich auf die Variabilität der Einschätzung der Ausprägung der zugrunde liegenden Dimensionen. Das bedeutet, dass es Big Data gibt, die diese Charakteristika und erwarteten Potentiale besitzen, dies jedoch nicht zwingend für alle großen digitalen Datenbestände der Fall sein muss.

3.5.1 Die Richtigkeit digitaler Daten

Die Richtigkeit (Veracity) digitaler Daten betrifft die epistemische Qualität der Daten, bezieht sich also auf Erkenntnis und Wissen. Man kann Veracity auch mit Wahrhaftigkeit übersetzen, da jedoch nachfolgend gesondert auf die speziellen Wesensmerkmale Wahrhaftigkeit und Objektivität eingegangen wird, ist hier zunächst der Oberbegriff der Richtigkeit vorzuziehen. Dieser zielt nicht auf eine moralische Qualität ab, sondern auf den qualitativen Wirklichkeitsbezug der Daten. Die Richtigkeit betrifft mithin sowohl (1) die Informationsqualität realitätstreuer Abbildung der Daten sowie (2) das Wissen, das in den Daten steckt bzw. aus ihnen gezogen wird. Bevor also gesichertes Wissen auf Grundlage von Big Data entsteht, müssen weitere Voraussetzungen und notwendige Bedingungen bezüglich der Datenqualität erfüllt sein, die nachfolgend diskutiert werden. Für boyd und Crawford ist es nämlich insbesondere die zugesprochene Richtigkeit der digitalen Daten, die einen Mythos von Big Data nährt: “The widespread belief that large data sets offer a higher form of intelligence and knowledge that can generate insights that were previously impossible, with the aura of truth, objectivity, and accuracy”. Hier werden bereits die zentralen Aspekte genannt, die zur Richtigkeit der Daten zählen und nachfolgend erörtert werden. Hierzu gehören die Genauigkeit sowie die Wahrhaftigkeit und Objektivität der digitalen Daten, die einen vermeintlichen Wissensgewinn erst möglich machen.

Die Genauigkeit digitaler Daten (Accuracy)

Die Genauigkeit von digitalen Daten wird oft als eines ihrer zentralen Charakteristika hervorgehoben. Genauigkeit meint die Wiedergabequalität der Beschreibung von Zuständen durch Daten oder wie Cai und Zhu definieren: “Data representation (or value) well reflects the true state of the source information”. Auch wenn in dieser Definition von Genauigkeit bereits der Wahrheitsbegriff enthalten ist und somit anscheinend vorweggenommen wird, ist er hier lediglich als Bedingung im Sinne einer Reliabilität der Daten zu verstehen. Wie mit Blick auf die nachfolgend besprochene Dimension der Wahrhaftigkeit und Objektivität zu diskutieren ist, können jedoch auch subjektive und unwahre Zustandsbeschreibungen reliabel in ein konsistentes Datenformat überführt werden. Deshalb ist zu ergänzen, dass die codierte Information dahingehend ambiguitätsfrei sein muss, als dass der Übersetzungsvorgang in das digitale Format störungsfrei vonstattengeht und zu vollständigen mangelfreien Daten führt. Eine einmal programmierte Maschine führt Befehle prinzipiell immer auf die gleiche Art und Weise aus und produziert somit zumindest in der Theorie Ergebnisse gleichbleibender Qualität. Dennoch können Datensätze trotz weitreichender Automatisierung ihrer Generierung zufällige sowie systematische Integritätsverletzungen beinhalten, unvollständig sein sowie Daten ganz unterschiedlicher Codierungsqualität und Güte beinhalten. Die Gründe für diese Fehlerhaftigkeit und hieraus resultierende Dirty Data sind dabei mannigfaltig und können nicht nur technischen Ursprungs sein, sondern haben vor allem auch menschliche Ursachen, auf die sogleich eingegangen wird.

Die Wahrhaftigkeit und Objektivität digitaler Daten (Truth and Objectivity)

Aufbauend auf der Genauigkeit der Daten, die insbesondere auf Reliabilität und hierauf fußender Belastbarkeit des technischen Übersetzungsvorgangs als Prozess abstellt, wird der Anspruch formuliert, dass die Daten als Produkt dieses Prozesses vor allem auch objektiv und wahrhaftig sind. Ihr Anspruch ist es, Merkmale und Eigenschaften von Wirklichkeit transparent zu machen. Dabei zielen beide Begriffe auf dasselbe ab und bauen untrennbar aufeinander auf: Digitale Daten sollen in ihrer Qualität repräsentativ für eine vermeintlich tatsächliche Realität und in ihrem wahrheitsgetreuen Wirklichkeitsabbild nicht durch äußere Einflüsse verzerrt sein. Es stellt sich mithin die Frage nach der Validität der Daten; also ob diese auch tatsächlich dasjenige repräsentieren, was sie mit Blick auf ihre Bedeutungszuschreibung repräsentieren sollen.

Dabei werden entsprechende Verzerrungen auch als Bias bezeichnet und können vielfältiger Natur sein. Am Ende veranlasst und beeinflusst immer menschliche Entscheidung den Übersetzungs- und Produktionsprozess von digitalen Daten, weshalb die Daten womöglich nicht das wiedergeben, was sie wiedergeben sollen. So können Daten auf der einen Seite bereits mit einem Bias produziert werden, bspw. wenn Klassifikationen fehlerhaft sind, da Codierentscheidungen subjektiv geprägt sind. Richardson, Schultz und Crawford greifen diesbezüglich auch den zuvor angesprochenen Begriff Dirty Data auf, wenn sie die in den USA verbreitete Praxis des Predictive Policing (Vorhersagende Polizeiarbeit) kritisieren. Im Rahmen dieses Beispiels wird die Problematik subjektiv verzerrter Daten deutlich, die Ansprüche an Objektivität und Wahrhaftigkeit verletzen:

These policing practices and policies shape the environment and the methodology by which data is created, which raises the risk of creating inaccurate, skewed, or systemically biased data (‘dirty data’). If predictive policing systems are informed by such data, they cannot escape the legacies of the unlawful or biased policing practices that they are built on.

Auf der anderen Seite können Daten nicht geeignet sein, die spezifischen Fragen zu klären, für deren Beantwortung sie herangezogen werden. So sind Bevölkerungsstichproben auf Grundlage sogenannter Sozialer Online-Netzwerke biased, da sie nicht repräsentativ für die Gesamtbevölkerung sind.

Unabhängig davon, wie der Bias zustande gekommen ist, führen entsprechende Validitätsverletzungen und Verzerrungen der Daten dazu, dass Objektivitäts- und Wahrheitsannahmen häufig nicht haltbar sind. Objektivität und Wahrhaftigkeit sowie auch die Genauigkeit der Daten sind im Rahmen von Big Data also zunächst einmal in vielen Definitionen als Ansprüche formuliert, die jedoch wie dokumentiert nicht immer eingelöst werden bzw. einfach einzulösen sind. Es ist eben wie von boyd und Crawford angesprochen nur der Anspruch der genannten epistemischen Bedingungen, die Big Data anhaftet. Es zeigt sich allerdings, dass eine qualitative Varianz auf einem Kontinuum zwischen genau und ungenau, objektiv und nicht objektiv sowie wahr und unwahr bestehen kann. Dabei kann die Verletzung der Validität von Daten bzw. das beobachtete Ausmaß der Verzerrung nicht immer zweifelsfrei erkannt und festgestellt werden und ist mithin diskussionswürdig. Entsprechend kommt Messick auch zu dem Schluss: “Validity judgments are value judgments”. Es bleibt an dieser Stelle jedoch zunächst einmal festzustellen, dass Validitätseinschätzungen bezüglich Genauigkeit, Objektivität und Wahrhaftigkeit digitaler Daten variabel sind.

Der Wissensgewinn aus digitalen Daten (Knowledge)

Unter der Voraussetzung, dass die Bedingungen der Genauigkeit sowie Wahrhaftigkeit und Objektivität digitaler Daten zu einem hohen Grad gewährleistet sind, können digitale Daten als Abbild beobachteter Tatsachen Fakten bereitstellen, die zu neuen Erkenntnissen und einem Wissensgewinn führen. Nachfolgend beschäftigt sich Abschnitt 4.1 daher ausführlich mit dem Wissensbegriff und der Wahrheit als zentralem Kriterium dieses Wissens. An dieser Stelle soll zunächst lediglich die Bedeutung des Wissensbegriffs im Rahmen der sozio-technischen Beschreibung von Big Data erörtert werden. Wissen auf Grundlage von Big Data ist die elementare Voraussetzung einer weitergehenden Verwertung und Nutzung dieser. Dabei soll die Datensammlung und -auswertung nicht nur neues Wissen produzieren, sie kann natürlich auch bereits bestehendes Wissen in Form digitaler Daten speichern. Die Erwartung ist jedoch darauf ausgerichtet, dass durch die binär codierten Sequenzen von Zustandsbeschreibungen Unterscheidungen getroffen werden können, aus denen Menschen (und eben auch Maschinen) Einsichten generieren und etwas lernen können. Gewonnene Erkenntnis über Zustände und Mechanismen beeinflusst in der Folge Anschlusshandlungen, bspw., wenn Wissen zu treffende Entscheidungen anleitet.

Es ist zu diskutieren, inwieweit eine Verletzung der Bedingungen der Genauigkeit und Objektivität der Daten zwingend dazu führt, dass keine oder geminderte Erkenntnis aus digitalen Daten gezogen werden kann. Ausschlaggebend hierfür sind dann jedoch primär der jeweilige Grad der Verletzung und der Kontext, in dem das Wissen konkrete Konsequenzen zeitigt. Im Vergleich mit den Ergebnissen eines Temperatursensors, der auf wenige Grad Celsius die ungefähre tatsächliche Temperatur wiedergibt, sind die Daten einer stehen gebliebenen Uhr nutzlos, selbst wenn sie zweimal am Tag richtig geht. Ist die Genauigkeit des Temperatursensors jedoch entscheidend, bspw. bei der Herstellung von temperatursensiblen Produkten, dann ist eine hohe Genauigkeit dennoch zentral. Eine finale Diskussion dieser Problematik ist also nur mit Blick auf die Erfordernisse des Verwertungszusammenhangs digitaler Daten zu entscheiden und kann hier nicht abschließend getroffen werden. Wichtig ist jedoch, dass die Genauigkeit der Daten prinzipiell technisch möglich ist bzw. sein sollte und mit Blick auf die Richtigkeit der digitalen Daten definitorisch vorausgesetzt wird. Wie deutlich geworden ist, hängen die Wahrhaftigkeit sowie die Objektivität jedoch vor allem von der zu messenden Entität ab, ihrer konstruierten mentalen Konzeptionierung auf Seiten der Messenden sowie den getroffenen Operationalisierungs- und Messentscheidungen im Rahmen der Überführung realweltlicher Phänomene in Daten.

Gerade mit Blick auf die Ubiquität digitaler Datenerzeugung und die Möglichkeiten ihrer Auswertung ist nun also diejenige Erkenntnis von Interesse, die erst aus den digitalen Daten gewonnen werden kann. Dabei ist es zunächst unerheblich, ob die Daten gezielt erzeugt werden oder ganz nebenbei anfallen. Während die Qualität der Daten und der hieraus gewonnenen Erkenntnisse also durchaus auf einem Kontinuum eingeordnet werden können, soll an dieser Stelle zunächst die zentrale Bedeutung der Dimension des Wissensgewinns im Rahmen der Definition großer digitaler Datenbestände hervorgehoben werden. Eine detaillierte Diskussion der Qualität und sozialen Bedeutung dieses Wissens, insbesondere auf Grundlage von Big Data, wird nachfolgend in Kapitel 4 geleistet. Die Qualität der Daten aus epistemischer Perspektive, sprich ihre Erforderlichkeiten und Konsequenzen mit Blick auf mögliche Erkenntnis, hat eine zentrale Bedeutung im Entstehungs- und Verwertungskontext von Big Data. Während die zuvor thematisierten Wesensmerkmale eine vermeintliche Grundvoraussetzung für den Wissensgewinn sind, ist der Wissensgewinn wiederum die Vorbedingung für den aus den Daten gezogenen Nutzen und somit ein notwendiges Bindeglied zwischen Ausmaß der Datensammlung und -verwertung und den hiermit verbundenen positiven Konsequenzen für Individuum oder Gesellschaft. Der nun nachfolgend besprochene Nutzen digitaler Daten hängt maßgeblich von der Qualität und der Reichweite dieses generierten Wissens ab.

 

Marco Lünich: Der Glaube an Big Data. Eine Analyse gesellschaftlicher Überzeugungen von Erkenntnis und Nutzengewinnen aus digitalen Daten; Springer VS; Wiesbaden; 2022

Zur einfacheren Lesbarkeit wurden die Text- und Quellverweise entfernt.
Creative Commons http://creativecommons.org/licenses/by/4.0/deed.de
Open-Access-Buch https://doi.org/10.1007/978-3-658-36368-0

 


 

Digitale Transformation

 

Digitale Transformation


Nicht irgendwann, jetzt

Digitale Transformation ist nicht Zukunft, digitale Transformation ist Gegenwart. Nehmen Sie das Heft in die Hand und bestimmen Sie den Kurs! Wir unterstützen Sie dabei mit Know-how und Best Practice.

Kontaktieren Sie uns für ein unverbindliches Beratungsgespräch: +41 41 984 12 12, infosec@infosec.ch