Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Wandel und Kontinuität von Wissenschaft durch KI – Teil 2

03/2024

Zur aktuellen Veränderung des Wissenschafts- und Technikverständnisses

1 KI und Machine Learning als Katalysator eines Wandels der vier Wissenschaftsverständnisse?

1.1 Prognostizieren ohne Wissen: KI stärkt das prognoseorientierte Wissenschaftsverständnis – ohne Gegenstandswissen

Im Folgenden soll das erste Wissenschaftsverständnis in den Blick genommen werden, nämlich dasjenige, das das Leistungsmerkmal der Prognose in den Mittelpunkt stellt. Dies passt vortrefflich zu KI- und Machine Learning-Verfahren, insofern der Rekurs auf die Prognoseleistung eine typische Kennzeichnung der neuen informatischen Verfahren darstellt.

Die Prognoseorientierung ist terminologisch insbesondere in Predictive Analytics und der Entwicklung von algorithmischen (statistischen) Prognosemodellen verankert. Predictive Analytics verwendet Machine Learning-Verfahren, zumeist die des überwachten, teilweise auch des unüberwachten oder des Reinforcement-Lernens, zur Erstellung von algorithmischen Prognosemodellen. Informatischer Kern dieser Verfahren bilden, je nach Aufgabenstellung: Künstliche Neuronale Netze, Genetische Algorithmen, Support Vector Machines, Random Forest, Regressions-, Nächste-Nachbarn-, Gradienten- und Clusteranalyse-Verfahren, allgemein auch Verfahren des Data Mining und der nichtlinearen Zeitreihenanalyse. Eingangsdaten sind die Ereignisse der Vergangenheit sowie jeweils spezifische Rand- und Anfangsbedingungen. Hieraus werden Muster, d. h. Regelmäßigkeiten, extrahiert und durch Kenngrößen beschrieben, welche sich auf interessierende Eigenschaften und Ordnungsstrukturen des Objektsystems beziehen.

So werden Wahrscheinlichkeiten des Eintretens eines bestimmten Ereignisses oder eines Ensembles von Ereignissen prognostiziert, d. h. ein Muster, eine Struktur bzw. Signatur. Musterprognosen sind nicht auf bildlich-grafische Prognosen beschränkt, sondern sie sind umfassender: Muster von Daten- oder Zeitreihen, also Ordnungsstrukturen, wobei diese Prognosen auf Mustererkennung und auf Klassifikationen von Regelmäßigkeiten aufbauen, die entweder vorgeben oder während des Lernverfahrens selbst gebildet werden. Dabei handelt es sich um statistische bzw. probabilistische Prognosen, die auf Basis einer Datenanalyse vorgenommen werden, die sich Korrelation zunutze machen. Es sind also keine deterministischen oder modellbasiert-stochastischen Prognosen, die theoretischer Fundamente und Kenntnisse über zugrundliegende Gesetze bedürften.

In der öffentlichen sowie der sozialwissenschaftlichen Diskussion wird zumeist allein auf Korrelationen geschaut. Das ist zwar nicht falsch, aber einseitig. Es wird übersehen, dass um valide Aussagen über Zukünftiges treffen zu können, Korrelationen nicht hinreichend sind. Zufällige Korrelationen, wie etwa die Korrelation der Storchenpopulation und der Geburtenrate von Kindern in den 50er-Jahren in Deutschland, helfen zu prognostischen Zwecken nicht. Vielmehr müssen im Hinter- und Untergrund deterministische oder zumindest probabilistische Kausalgesetze vorliegen; es muss eine gewisse Kausalität gegeben sein. Die Pointe der KI- und Machine-Learning-basierten Prognoseverfahren ist, dass sie wetten, dass Kausalität – wenn auch in einem schwachen Sinne – vorliegt und dass man diese kausalen Regelmäßigkeiten nutzen kann, ohne sie explizit kennen zu müssen.

Derartige datengetriebenen theoriefreien Prognosen stehen im Fokus des programmatischen Zugangs des Informatikers Leo Breiman, der eine Differenzierung von zwei Zugängen in Informatik und Statistik vorgeschlagen hat, die er als „two cultures in the use of statistical modeling to reach conclusions from data“ bezeichnet. Der traditionellen „data modeling culture“ stehe die „algorithmic modeling culture“ gegenüber, wie sie für Machine Learning-Verfahren charakteristisch ist. Mit der traditionellen Wissenschaftskultur der „Datenmodellierung“ ist bei Breiman gemeint, dass Statistiker üblicherweise voraussetzen, dass der Typ von Daten, den sie vorfinden, von einer Art „deterministic or stochastic data model“ sei. Damit unterstellen sie, dass die Daten durch Prozesse erzeugt wurden, die im Prinzip aus linearen oder logistischen Funktionen aufgebaut sind, wenn auch aus infiniten. Sie schlussfolgern, dass die Daten durch ein entsprechendes, klug gewähltes mathematisches Modell nachgebildet werden können. Dieses gefittete Modell verwenden sie für Anwendungszwecke – doch dessen prognostische Leistungsfähigkeit ist vielfach gering, auch wenn das Modell Kriterien wie die der Repräsentation, d. h. der Nachbildung der Daten der Vergangenheit exzellent erfülle.

Breiman argumentiert für einen anderen Weg. Denn nicht Repräsentation, sondern Prognostizierbarkeit stellt für ihn das zentrale Leistungsmerkmal von Wissenschaft dar: Es gelte, „Daten zu nutzen, um zu prognostizieren“. Doch die traditionelle Wissenschaftskultur der repräsentierenden „Datenmodellierung“ habe dieses Ziel nicht hinreichend im Blick. Ein zu dieser Kultur komplementärer Zugang ist die „algorithmische Modellierungskultur“, die Breiman favorisiert. Sie basiert auf „Machine Learning“, so sagt Breiman explizit. Sie mache keine einschränkende Voraussetzung und behandele den Prozess der Datenerzeugung als unbekannt oder als Black Box. Sie ziele nicht auf repräsentierende Nachbildung der Daten im Modell oder in einer Theorie, sondern auf Prognosen, wofür ein Algorithmus trainiert wird. Anders als das Daten-Modell, was gefittet wird, stellt ein Algorithmus einen rückgekoppelt-iterativen Prozess dar, um gegebene Daten iterativ darzustellen und diesen für Prognosen zu trainieren. Dieser Zugang ist, was die Repräsentation des Gegenstandsfelds oder, allgemeiner, der Objektseite angeht, als theoriefrei zu bezeichnen – und damit voraussetzungsarm. Vor dem Hintergrund von Breimans Gegenüberstellung identifiziert Wolfgang Pietsch einen „Paradigmenwechsel in der Statistik“. Ähnliches hat Thomas Lengauer herausgestellt, wobei er sich spezieller auf das Machine Learning-Verfahren der Support-Vector-Machine bezieht. Mit Breiman, Pietsch und Lengauer kann man sagen, dass sich nicht nur die Rechner-, Sensor-, Speicher- und Netztechnologie in den letzten Dekaden verbessert hat, sondern es finden sich Veränderungen im mathematischen Kern der (theoretischen) Informatik und der verwendeten Statistik – sowie der damit verbundenen Wissenschaftskultur.

So ermöglichen KI- und Machine Learning-Verfahren probabilistische Prognosen, ohne dass Theorien vorliegen und Modelle gefittet werden, die das Objektsystem repräsentierend beschreiben. Wenn Auguste Comte im 19. Jahrhundert forderte: Wissen, um vorauszusehen, so kann man heute sagen, es scheint gar nicht mehr notwendig zu sein, Wissen zu erwerben. Prognosen sind auch ohne Gegenstandswissen (theoriefrei) möglich, Daten sind hinreichend. Natürlich sind dafür andere Wissenstypen entscheidend, nämlich mathematisch-statistisches Wissen, Wissen über Datenanalyse, Algorithmen und Numerik sowie über rechnertechnische Implementierungen. Traditionell hatte Wissenschaft ihre prognostische Kraft aus geprüftem und bewährtem (theoriebasiertem) Gegenstandswissen gewonnen, wie vorne beschrieben. Wenn sich das Gegenstandswissen gar in deterministischen Gesetzen als Kern von kausalen Theorien ausdrücken ließ, dann konnten deterministische Prognosen vorgenommen werden. Diese galten, und gelten bis heute, als besonders präzise. Ein Höhepunkt dieser Sichtweise war der bereits erwähnte Laplace’sche Dämon: Wenn wir die Gesetze sowie die Anfangs- und Randbedingungen über ein uns interessierendes Gegenstandsfeld kennen würden, dann könnten wir die Zukunft dieses Gegenstandsfelds eineindeutig vorausberechnen; in abgeschwächter Form kann dies auch für probabilistische Prognosen gesagt werden.

Trotzdem ist zu vermuten, dass auch zukünftig Theorien und mathematische Gesetzmäßigkeiten der „Goldstandard“ für die gute Prognoseleistung von Wissenschaft bleiben werden. Allerdings finden sich angesichts von Machine Learning-Verfahren Möglichkeiten, einen „Silberstandard“ weitreichend zu entwickeln und zu nutzen, um auch jenseits von Theorien und der Kenntnis von Gesetzen prognostische Kraft entfalten zu können, etwa wenn es um komplexe Objektsysteme geht. Ob dieser neue Silberstandard bisherige Wissenschaft ergänzt oder, weitergehend, ersetzt, ist noch nicht entschieden. Zusammengenommen kann man sagen, dass ein Wissenschaftsverständnis, das das Leistungsmerkmal der Prognostizierbarkeit in den Mittelpunkt stellt, durch die aktuelle informatische Entwicklung eine Stärkung erfährt. Geht man weitergehend davon aus, dass Handlungen und Planungen auf Prognoseoptionen zur Antizipation von Zukunft basieren, dann werden gleichzeitig die Handlungsmöglichkeiten vergrößert.

1.2 Handlungsermöglichung ohne Experiment: KI folgt keinem experimentbasiertem Wissenschaftsverständnis – verstärkt dennoch Handlungsoptionen

Seit Beginn der modernen Wissenschaft und Francis Bacons Programmatik steht das systematisch durchgeführte Experiment im Zentrum wissenschaftlicher Wissensproduktion. Es dient der Erzeugung von neuen, mitunter unerwarteten Phänomenen sowie der kritisch-deduktiven Überprüfung von Aussagen oder Theorien. Kurzum, Erkenntnishandeln ohne Experimentierhandeln ist nicht möglich. Diese These über den engen Zusammenhang von Erkenntnisgewinn und Experimentieren bleibt auch angesichts der Verbreitung von KI- und Machine Learning-Verfahren prinzipiell bestehen.

Doch was ist, so mag man fragen, wenn Erkenntnisgewinn gar nicht mehr primäre Rahmenorientierung oder vorrangiges Ziel eines Forschungsfeldes oder einer Wissenschaftsdisziplin ist? – Dann, so kann gesagt werden, entfällt im Prinzip die Notwendigkeit des Experimentierens. Für Teile der aktuellen und zukünftigen Wissenschaften, gerade für anwendungsorientierte Disziplinen wie Technik- und Ingenieurwissenschaften oder einige Lebenswissenschaften und die Medizin, reduziert sich durch KI- und Machine-Learning-Verfahren der Bedarf, Experimente durchzuführen. Diese Wissenschaftsdisziplinen zielen in erster Linie darauf ab, Klassifikationen vorzunehmen und Prognosekraft zur Verfügung zu stellen, um durch Diagnose von Gegenwärtigem und durch Antizipation von Zukünftigem bessere Planungen, Entscheidungen und Handlungen zu ermöglichen. Beobachten – und die auf Beobachtung basierende Messung – ist oftmals hinreichend; hier setzen KI- und Machine Learning-Verfahren an.

Experimente gelten demgegenüber als aufwendig, als ressourcen-, zeit- und kostenintensiv – oder, je nach Forschungskontext, als schwer realisierbar oder als unmöglich. Unmöglich sind Experimente gelegentlich in der Humanmedizin, etwa aus ethischen Gründen. Schwer realisierbar sind sie bei bestimmten Objektsystemen, insofern eine Kontrolle von Anfangs- und Randbedingungen, insbesondere eine Isolierung des Experimentalsystems von der Umwelt nicht möglich ist. Das kann an der schieren Größe liegen, wie in der Astrophysik oder der Kosmologie, man denke an den Kosmos. Aber es kann auch von den spezifischen Eigenschaften des Objektsystems herrühren, die mit der Schnittstellen-Problematik in Verbindung stehen: Bei dieser weiß man nicht, was zum System und was zu seiner Umwelt gehört. Damit ist unklar, was Störungen einerseits und was Systemdynamiken andererseits sind. Zu diesen Objektsystemen gehören Klima- und Wettersysteme, aber auch Ökosysteme sowie biologische und medizinische Systeme. Dazu gesellen sich komplexe technische Systeme, von komplexen Produktionsprozessen über Kraftwerke bis hin zu konkreten Bauteilen (wie z. B. Flugzeugflügel). Berücksichtigt man zudem gesellschaftliche und ökonomische Verwendungskontexte, wird ein systematisches Experimentieren weiter erschwert. Alle soeben genannten Systeme sind gekennzeichnet durch Komplexität, Nichtlinearität und mitunter Instabilität/Sensitivität. Mit ihnen ist ein Experimentierhandeln erschwert und eine Reproduktion der Ereignisse ist oft unmöglich. Ann diesen Systemen wird aufgrund dieser multiplen Problematik primär gemessen und beobachtet.

Damit ist nicht das Ende des Experiments in den Wissenschaften gemeint. Denn überall dort, wo Experimente möglich und hilfreich sind, werden weiter welche durchgeführt. Hilfreich ist eine auf Experimenten basierende systematische Datenerzeugung etwa auch dort, wo diese als Rohdaten Eingang finden in KI- und Machine Learning-Verfahren, beispielweise für Trainings im Rahmen des überwachten Lernens oder in Simulationen. Daten, die aus einem Experiment stammen, sind gut kontrollierbar, ihre Qualität ist zumeist besser einschätzbar und sie eignen sich als Input für diese Verfahren besser als nicht-experimentelle, d. h. reine Beobachtungs-Datenreihen. – Neben diesem Experimentieren zur Datengenerierung gibt es eine zweite, komplementäre Verbindungsrichtung zwischen Experimenten und den neuen informatischen Verfahren: Letztere dienen oftmals ihrerseits als Grundlage für neue Experimente. Teilchenphysiker trennen durch Machine Learning-Verfahren Signal- und Rauschanteil in Datenreihen und erhalten Hinweise auf besondere Ereignisse („bursts“). Diese Hinweise können zu Hypothesen verdichtet werden, was eine Grundlage für neue Experimente auf der Suche nach einer Physik jenseits des Standardmodells darstellt. Gleiches gilt für KI-basierte Analysen von Gensequenzen, die dann Detailuntersuchungen und molekularbiologische Experimente nahe legen können, etwa im Rahmen von CRISPR/Cas-Methoden. Somit wird die Interventionsleistung durch datengetriebene Verfahren erhöht, ein Ziel, das auch Bacon verfolgte.

So kann man sagen: Bezügliches des Bacon’schen Programms findet sich angesichts aktueller KI- und Machine Learning-Verfahren sowohl ein Wandel als auch eine Kontinuität: Einerseits ein Wandel, insofern das Experiment in datengetriebener Forschung nicht mehr als zentrales Mittel der Forschung gilt; andererseits eine Kontinuität, ja vielleicht Verstärkung, insofern durch KI- und Machine Learning-Verfahren Wissenschaft die Interventionskräfte, Experimentieroptionen und Handlungsmöglichkeiten des Forschers vergrößern, und Wissenschaft verstärkt einer Nutzens- und Verwertungsorientierung folgen kann. Damit wird das Bacon’sche Programm sowohl beendet – hinsichtlich des Experimentfokus als das methodische Zentrum – als auch bestärkt – bezüglich der Handlungsermöglichung und der Nutzenorientierung.

Neben die Beendigung und die Bestärkung des Bacon’schen Programms findet sich ein dritter Aspekt, die Ersetzung. Man kann fragen, was an die Stelle des Experimentierhandelns tritt. In gewissem Rahmen sind dies Computerexperimente. Doch man kann noch einen anderen Aspekt hervorheben. Was bei Bacon kaum eine Rolle spielte und auch in aktuellen wissenschaftsphilosophischen Zugängen zu Wissenschaft eher randständig ist, wird von KI- und Machine-Learning-Verfahren hervorgehoben: Wahrnehmungs- und Beobachtungsprozesse. Konstitutiv für Wissenschaft allgemein ist nicht allein das Experimentieren, sondern auch Wahrnehmen und Beobachten, d. h. nicht allein Intervention, sondern auch Kontemplation. Dabei meint Wahrnehmen stets ein Unterscheiden: Etwas wird als etwas Spezifisches wahrgenommen, ansonsten bliebe es eine amorphe Masse oder eine beliebige („verrauschte“) Datenreihe. Mit anderen Worten: Muster, Ordnungsstrukturen und Regelmäßigkeiten werden identifiziert und klassifiziert, um ein Phänomen als solches wahrzunehmen. In einem Pixelbild wird ein Muster identifiziert, welches die Struktur einer Katze oder eines Karzinoms hat.

So liegt in datengetriebenen Verfahren eine gewisse phänomenologische Grundorientierung vor, was bemerkenswert ist. Denn die meisten Verständnisweisen von moderner Wissenschaft reflektieren Wahrnehmen und Beobachten nicht eigens: Moderne Erkenntnistheorien umfassen nur äußerst selten Wahrnehmungstheorien. Dabei hatte Kant Wahrnehmungsprozesse im Blick, als er den Begriff der „Einbildungskraft“ entwickelte, nämlich jene „blinde, obgleich unentbehrliche Funktion der Seele“, die konstitutiv ist für Erkenntnis. Zwar sind KI- und Machine-Learning-Verfahren nicht als eine „Funktion der Seele“ anzusehen; doch mit ihrer „Pattern Recognition“ knüpfen sie an jene erkenntnistheoretischen Traditionen an, die heutzutage randständig geworden sind. Sie erweitern das Wissenschaftsverständnis, indem sie Muster-Wahrnehmungen in den methodischen Mittelpunkt stellen.

1.3 Prüfen auf komplementären Wegen: KI relativiert das Ideal des testbasierten Wissenschaftsverständnisses – ermöglicht aber neue phänomenologische Prüfformen

Wissenschaft stellt intersubjektive Nachvollziehbarkeit ihrer Aussagen her durch personen-, zeit- und ortsinvariantes Prüfen von Theorien, Modellen oder Gesetzen an empirischen Daten. Unabhängig davon, ob man annimmt, dass diese Prüfung falsifizierend/verwerfend oder verifizierend/bewährend zu verstehen ist, entscheidend ist, dass theoriebezogene Modelle und empirische Daten zusammengeführt werden, um kriteriengeleitet zu begründeten und nachvollziehbaren Urteilen über Annahme oder Verwerfen von Aussagen zu gelangen.

Nun liegt, wie ausgeführt, das Ziel datengetriebener Forschung nicht in Entwicklung und Prüfung von Theorien oder Modellen. Diese können zwar Mittel zum Ziel von Prognosen als Grundlage von Handlungen, mithin von Interventionen, sein. Aber wenn dieses Ziel auch aufwands-, zeit- und ressourcenarm, d. h. theoriefrei möglich ist, wird man in den angewandten Wissenschaften und in der nutzenbezogenen Anwendungspraxis darauf verzichten. Angesichts der Entwicklungen von KI und Machine Learning hat Chris Anderson vor über 10 Jahren ein „Ende der Theorie“ diagnostiziert und gegenüber der bisherigen Wissenschaft behauptet: „There is now a better way. […] We can stop looking for models [, theories, interpretable laws or hypothesis]. We can analyze the data without hypotheses about what it might show. We can […] let statistical algorithms find patterns where science cannot.“ Nach Anderson sind Hypothesen und, weitgehend, Theorien und Modelle in zukünftiger Wissenschaft schlicht überflüssig. Damit ist ein Prüfen derselben nicht mehr möglich – denn man hat nichts, was überprüft werden könnte. Insofern sich Wissenschaft in ihrem Selbstverständnis stets als Theorie-prüfend verstand und sich hieran sowohl falsifikationistische wie auch verifikationistische Wissenschaftskonzepte angeschlossen haben, muss man sagen, dass in datengetriebener Forschung auch Falsifikationismus und Verifikationismus verschwinden.

Allerdings gilt diese Diagnose nur hinsichtlich stark anwendungsorientierter Wissenschaftsdisziplinen. In anderen Wissenschaftsdisziplinen bleibt das Prüfen, basierend auf einer Theorie- und Erkenntnisorientierung, bestehen – auch wenn diese Disziplinen mitunter die neuen informatischen Verfahren als Mittel, Methoden und Instrumente verwenden: KI- und Machine Learning-Verfahren spielen in der Genese von Erkenntnis eine unterstützende, funktionale Rolle, etwa wenn man es mit komplexen Objektsystemen zu tun hat; sie ersetzen allerdings Theorien und theoriebezogene Rechtfertigung und Geltungsausweis wissenschaftlicher Aussagen nicht. Das gilt etwa für prominente Forschungsfelder wie die Hochenergie- und Teilchenphysik und die Kosmologie sowie die Klimaforschung. KI- und Machine Learning-Verfahren tragen dazu bei, (1) Regelmäßigkeiten, d. h. Muster, Strukturen und Objekte aus gemessenen oder Simulations-basierten Datenreihen zu identifizieren und zu (re-)konstruieren sowie, hierauf aufbauend, (2) Modelle, Aussagen, Hypothesen zu entwickeln und auch numerische Simulationen durch Aufbereitung von Daten zu ermöglichen.

So hat die Verwendung von KI- und Machine-Learning-Verfahren in der Astrophysik dazu geführt, Existenz sowie Eigenschaften von 50 neuen Exoplaneten durch Analyse von älteren Datenreihen festzustellen. In diesen Daten wurden Regelmäßigkeiten gefunden, nachdem durch KI-Verfahren eine Signal-Rauschen-Diskriminierung vorgenommen wurde, also gehaltvolle Informationen einerseits und Hintergrundrauschen andererseits getrennt werden konnten. Ein solcher Existenzhinweis von bisher nicht wahrgenommenen Objekten wird in der Astrophysik und Kosmologie als „Validierung“ bezeichnet (ad 1). In der Klimaforschung tragen KI- und Machine-Learning-Verfahren dazu bei, die Anzahl der Zustandsgrößen, d. h. der Zustandsraumdimensionen aus Zeitreihen zu bestimmen, um auf dieser Basis Zustandsraummodelle zu entwickeln, die lokale, raumzeitliche Simulation von Klima- oder Wettermodellen ermöglichen (ad 2).

Ferner findet sich auf Basis von KI- und Machine-Learning-Verfahren (3) gar eine ergänzende, alternative Form des Prüfens, die in der modernen Wissenschaft eher randständig war. Es handelt sich um eine Prüfform von Modellen oder Theorien durch phänomenologischen Mustervergleich, d. h. durch Kenngrößenvergleich mit empirischen Messdaten. Eine solche Prüfform wird bei komplexen, nichtlinearen, mitunter instabilen Objektsystemen notwendig. Denn traditionelle Prüfformen, welche auf klassischer Fehlerabschätzung und ihrer mathematisch-statistischen Konvergenztheoreme aufbauen, greifen nicht. Einerseits muss das zu prüfende Modell überhaupt erst durch numerische Verfahren, etwa durch Simulationen, zugänglich gemacht werden, um seine raumzeitlichen Phänomene zu zeigen; denn die mathematischen Gesetzmäßigkeiten des Modells sagen als solche noch gar nichts. Die durch Simulation offengelegten raumzeitlichen Phänomene bilden dann die Grundlage, um Klassifikationen vorzunehmen und Muster zu identifizieren, genauer gesagt: um Kenngrößen zu bilden. Andererseits werden analog auf Seiten des Objektsystems Messdaten herangezogen und auf dieser Basis ebenfalls Muster identifiziert und Kenngrößen entwickelt. Mit anderen Worten: Durch KI- und Machine Learning-Verfahren können sowohl aus dem modellbasierten Simulationssystem wie aus dem realen Objektsystem Muster und Ordnungsstrukturen extrahiert werden, die durch Kenngrößen darstellbar werden. Diese Kenngrößen dienen der Vergleichsoption von Modell- und Objekt-Verhalten – und damit der Prüfung. Man spricht hier von einer phänomenologischen Muster- oder Kenngrößen-Prüfung.

Zusammengenommen fällt die Einschätzung hinsichtlich der Veränderung des prüfbasierten Wissenschaftsverständnisses zweigeteilt aus. Einerseits ist das zentrale Ziel datengetriebener Forschung gerade nicht die Entwicklung und anschließende Prüfung von Theorien, Modellen oder Gesetzen – die Notwendigkeit des Prüfens entfällt. Andererseits spielen KI- und Machine Learning-Verfahren als neue Instrumente und erweiterte Mittel zur Prüfung eine zunehmend bedeutendere Rolle im Feld komplexer, dynamischer, nichtlinearer Objektsysteme – von der Physik und Klimawissenschaft über die Lebenswissenschaften, Biologie und Medizin bis hin zu den Technik- und Ingenieurwissenschaften. Diese neueren Prüfinstrumente stellen Muster, Ordnungsstrukturen und spezifische (Komplexitäts-)Kenngrößen in den Mittelpunkt: Sie sind damit i. w. S. phänomenologisch ausgerichtet.

1.4 Kausalität ohne Theorie: KI folgt keinem erklärungsbezogenem Wissenschaftsverständnis – verbleibt dennoch im Horizont von Kausalität

Traditionell zielt Wissenschaft darauf ab, Phänomene durch Angabe von fundamentalen Theorien, Modellen oder Gesetzen zu erklären. Damit weist Wissenschaft, was Erklärungen angeht, eine deduktive Ableitungsstruktur auf. Gesetze werden als deterministische oder probabilistische (Kausal-)Gesetze verstanden.

Nun ist es nicht vorrangiges Ziel angewandter Forschung, etwa der Technikwissenschaften oder der Medizin, Erklärungen zu liefern, sondern Handlungen zu ermöglichen, wobei Erklärungen ein Mittel hierfür sein können. KI- und Machine Learning-Verfahren weisen damit eine zu den Zielen angewandter Wissenschaften strukturelle Verwandtschaft auf, wie ausgeführt. Vordergründig scheinen hierfür Korrelationen hinreichend zu sein, während Kausalität nicht als notwendig erachtet wird, wie Chris Anderson unter dem Titel „The End of Theory: The Data Deluge Makes the Scientific Method Obsolete“ behauptet: „Correlation is enough. […] Correlation supersedes causation, and science can advance even without coherent models, unified theories, or really any mechanistic explanation at all.“ Einige gehen weiter, wie David Chandler und sehen in kritischer Absicht eine „Welt ohne Kausalität“ heraufziehen, d. h. eine Wissenschaft und Gesellschaft, in der aufgrund des allgemeinen Datenfokus’ („Datafication“) niemand Interesse an der Entdeckung kausaler Zusammenhänge und der Entwicklung kausaler Erklärungen hat: „The promise is that, with high levels of data generation and developments in computational analysis, the world (coded through datafication) can begin to speak for itself without its (more than) fallible human interpreter.“

Doch mit dieser pointierten Zuspitzung von Chandler, Andersen und anderen ist Vorsicht geboten. 

Zwar bleibt richtig, dass Erklärungen nicht im Zentrum stehen. Allerdings kann damit nicht gemeint sein, dass Kausalität keine Rolle mehr spielt, im Gegenteil. Man kann sogar sagen, dass KI- und Machine Learning-Verfahren darauf abzielen, deterministische oder probabilistische Kausalgesetze nutzbar zu machen, allerdings ohne diese offenlegen und mathematisch beschreiben zu müssen oder zu können. Die Wissenschaftsphilosophin Nancy Cartwright stellt (in anderem Zusammenhang) heraus: „[C]ausal laws cannot be done away with, for they are needed to ground the distinction between effective strategies and ineffective ones.“ Diese Position entspricht einem handlungstheoretischen oder interventionalistischen Kausalitätskonzept. Demnach können wir uns der Kausalität „genauso sicher sein wie unseren Fähigkeiten, etwas zu tun.“ Mit anderen Worten: „p ist eine Ursache von q bedeutet, dass ich q herbeiführen könnte, wenn ich p tun könnte.“

Für das Herbeiführen oder Erzeugen eines Phänomens sind Korrelationen allein nicht genug; sie sind zu schwach, um Handlungen zu ermöglichen und Interventionen erfolgreich durchführen zu können. Denn Korrelationen können zufällig sein, wie die Storchenpopulation und die Geburtenrate von Kindern in einigen Regionen in den 1950er-Jahren zeigt oder wie der Konsum von Schokolade und die Anzahl der Nobelpreisträger in einem Land. Vergrößert oder verringert man die Population der Störche, hat dies keine Wirkung auf die Geburtenrate von Kindern; gleiches hinsichtlich des Schokoladenkonsums und den Nobelpreisträgern.

Machine Learning-Verfahren zielen demgegenüber – insofern sie auf effektive Handlungsstrategien aus sind – darauf ab, jene Korrelationen zu erfassen, die nicht zufällig sind, sondern wo zumindest eine schwache Form der Gesetzmäßigkeit, also der Kausalität, zugrunde liegt. Auch wenn es im strengen Sinne für Kausalitätsdiagnosen keine logisch zwingenden Argumente geben kann, tragen KI- und Machine Learning-Verfahren dazu bei, Wahrscheinlichkeitsaussagen auf dem Kontinuum zwischen reinem Zufall einerseits und Kausalgesetz andererseits zu ermöglichen. Damit kann man sagen, Korrelation ist der umfassendere, Kausalität der speziellere Begriff: Aus Kausalität folgt Korrelation, die Umkehrung gilt nicht.

Insofern KI und Machine Learning, neben anderem, als Verfahren zur Erkennung von Regelmäßigkeiten, d. h. zur Muster-, Signatur- oder Ordnungserkennung in Daten und damit zur Identifikation schwach-kausaler Abhängigkeiten gelten können, können sie auch als Mittel angesehen werden, um Mechanismen zu erkennen und mechanistische Erklärungen vorzubereiten. Dieser Erklärungstyp kennzeichnet ein Phänomen als erklärt, wenn man die erzeugenden Ursachen angeben kann, die das Phänomen hervorbringen. Natürlich ist eine kontroverse Detaildiskussion über notwendige und hinreichende Bedingungen, über Tun- oder Unterlassenshandlungen sowie über den Stellenwert von fundamentalen oder phänomenologischen Gesetzen als Bestandteil dieses Erklärungstyps innerhalb der Wissenschaftsphilosophie entfacht, was hier nicht weiter zu interessieren braucht.

Ein Phänomen, etwa der trockene Husten oder das Fieber eines Menschen gilt in der Humanmedizin genau dann als erklärt, wenn man eine erzeugende (oder unterlassende) Ursache dafür angeben kann und dies über große Fallzahlen reproduzierbar ist, beispielsweise das Vorliegen des Virustyps SARS-CoV-2, welches durch einen positiven PCR-Test nachgewiesen wird. Gleiches gilt hinsichtlich der Nachweisproblematik der Wirkung eines potenziellen Impfstoffs. Auch wenn man die Details des komplexen kausalen Ursache-Wirkungs-Mechanismus (noch) nicht verstanden hat, so dass keine fundamentaleren, theoriefundierten Erklärungen möglich sind, geht die Medizin davon aus, dass (probabilistische oder deterministische) Kausal-Gesetze im Hintergrund wirken, auch wenn man derzeit weithin nur Korrelationen und Sukzessionen zwischen den beiden Ereignissen – Virustyps SARS-CoV-2 und trockener Husten – empirisch unter Verwendung von Machine-Learning-Verfahren findet. Trotz der kontroversen Diskussion, wie schwach oder stark diese mechanistischen Erklärungen sind, ist die Praxisrelevanz derartiger Mechanismen in den Technikwissenschaften sowie in der Medizin unbestritten.

Zusammengenommen gilt, weder die Identifikation von Regelmäßigkeiten, also die Musteridentifikation und -Klassifikationen noch die sich diese zunutze machenden Prognosen können als hinreichend für jene in den Wissenschaften wohletablierten, theoriebezogenen, starken Erklärungstypen angesehen werden. Sollten zukünftig KI- und Machine Learning-Verfahren erkenntnisorientierte Wissenschaften unterstützen und ergänzen, dann werden weiterhin starke Erklärungen geliefert werden, die das Weltverständnis vertiefen. Sollten sich allerdings die datengetriebenen Verfahren in den Vordergrund schieben, ist damit gleichermaßen das Interesse an starken Erklärungen reduziert.

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.

Schmidt, J.C. (2022). Wandel und Kontinuität von Wissenschaft durch KI. Zur aktuellen Veränderung des Wissenschafts- und Technikverständnisses

In: Künstliche Intelligenz in der Forschung. Ethics of Science and Technology Assessment, vol 48. Springer, Berlin, Heidelberg

https://doi.org/10.1007/978-3-662-63449-3_4

http://creativecommons.org/licenses/by/4.0/deed.de


© Swiss Infosec AG 2024