Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Wandel und Kontinuität von Wissenschaft durch KI – Teil 3

04/2024

Zur aktuellen Veränderung des Wissenschafts- und Technikverständnisses

 

Von den Verfahren und Methoden zu den Objekten: Schwache Regelhaftigkeit nutzen – komplexe Objektsysteme werden zugänglich

Um den weitreichenden Erfolg von KI- und Machine-Learning-Verfahren einordnen zu können, sollte man über obige vier methodologische Aspekte hinausgehen – und die Analyse vertiefen. Dazu sind jene Objektsysteme und Gegenstandsfelder in den Blick zu nehmen, an denen die neuen datengetriebenen Verfahren ihre Leistungsfähigkeit zeigen. Zu fragen ist, ob diese Objektsysteme auf einer grundlegenden Ebene Gemeinsamkeiten aufweisen.

Ausgangspunkt ist die Beobachtung, dass durch KI- und Machine-Learning-Verfahren Wissenschaft einen verbesserten und vertieften Zugang zu jenen Objektsystemen in Natur, Technik, Wirtschaft und Gesellschaft erlangt, die bislang wissenschaftlich schwer zugänglich waren. Damit rücken auch solche Objektsysteme in den Fokus von Wissenschaft, an denen bislang eine Forschung nicht als vielversprechend angesehen wurde.

Ein beispielhaftes Objektsystem, um den Erfolg der neuen informatischen Verfahren zu beleuchten, ist das Klimasystem. Zwar sind Atmosphärenphysik, Meteorologie, Geophysik und Physikalische Chemie der Atmosphäre wohletablierte Teildisziplinen der exakten Naturwissenschaften und damit grundlegend für die aktuelle Klimaforschung. Doch ohne neuere Entwicklungen in Informatik und Mathematik sowie in der informatischen Technik (Rechner-, Sensor-, Speicherungs- und Netztechnologie) hat die Klimaforschung nur einen beschränkten Zugang zum Klimasystem, auch wenn sie im Prinzip alle zugrunde liegenden Phänomene und allgemeinen Gesetzmäßigkeiten kennt. Das Klimasystem ist aufgrund der hohen Komplexität, d. h.

  • der vielen Zustandsgrößen und der Hochdimensionalität des Zustandsraumes,
  • der Nichtlinearität, Instabilität und Sensitivität der grundlegenden Prozesse und der weitreichenden raumzeitlichen Kopplungen teils ausgedehnter Systemelemente (schwache Kausalität),
  • der hohen Dynamik und starken Selbstorganisations- (und Emergenz-)Fähigkeit,
  • der umfassenden raumzeitlichen Abhängigkeit der Phänomene und jeweiligen Skalierung(seigenschaft)en,
  • der reduzierten Isolierbarkeit des Systems von der Umwelt (Separabilitätsproblematik), verbunden mit der Nichtdefinierbarkeit der Systemgrenzen (Schnittstellenproblematik) und der somit im Detail epistemisch schwer beschreibbaren Offenheit des Systems (Energie, Stoff und/oder Information) von seinen Umwelten,
  • und folglich einer weitgehenden Nichtkontrollierbarkeit der Rand- (und Anfangs-)Bedingungen (Kontrollproblematik),

schwer zugänglich für moderne Naturwissenschaft. Dazu kommt, dass man mit dem Klimasystem nicht, wie in traditionellen Laborwissenschaften, experimentieren kann. Zusammengenommen limitieren Komplexität, Nichtlinearität und Sensitivität/Instabilität den üblichen methodologischen Zugriff, insbesondere hinsichtlich der Merkmale wie theoriebasierter Berechenbarkeit, experimenteller Reproduzierbarkeit, empirischer Testbarkeit und deduktiver Erklärbarkeit. Spezieller finden sich auch Begrenzungen bezüglich Modellierung und Simulation sowie der Szenario- und Prognose-Entwicklung. Diese Erkenntnisse haben in den letzten Jahrzehnten dazu geführt, den systemischen Charakter des Klimasystems stärker zu berücksichtigen, so dass die aktuelle Klimaforschung eingebunden ist in die so genannte „Earth Systems Science“.

Mit diesen Charakteristika steht das Klimasystem nicht allein da, im Gegenteil. Dass große Klassen von Objektsystemen in Natur, Technik, Wirtschaft und Gesellschaft in ihrem Kern diese Charakteristik aufweisen, legen seit einige Dekaden Komplexitäts- und Selbstorganisationstheorien, im Verbund mit der Theorie nichtlinearer dynamischer Systeme, Synergetik, Theorien dissipativer Strukturbildung und des Hyperzyklus, Chaos-, Katastrophen- und Autopoiesis-Theorien, u. a. nahe. Diese Objektsysteme sind komplex und nichtlinear, oftmals sind sie zudem dynamisch und strukturell instabil bzw. sensitiv, wodurch auf unterschiedlichen Skalenebenen raumzeitlich verteilte Selbstorganisations- und dynamische Stabilisierungsprozesse ermöglicht werden. An instabilen Punkten oder Grenzflächen, den so genannten Tipping Points, können sich Systemdynamiken strukturell verändern. So kann der für den Wärmetransport wichtige Golfstrom abreißen, es können Brücken brechen und einstürzen, Staus vermeintlich aus dem Nichts entstehen, der Tod metabolischer Systeme eintreten, die Börse kollabieren, öffentliche Meinungen kippen, Bürgerprotestbewegungen entstehen, Produkte von Konsumenten plötzlich gemieden werden, etc. Domino-, Schneeball-, Schwarm- und Schmetterlingseffekte treten auf: Ein Flügelschlag eines Schmetterlings in Südamerika kann einen Tornado in Nordamerika erzeugen – ein Phänomen, das als sensitive Abhängigkeit bezeichnet wird: Kleine Ursache, große Wirkung, wobei ähnliche Ursachen ganz unterschiedliche Wirkungen nach sich ziehen können. Diese Systeme sind durch eine schwache Form der Gesetzmäßigkeit oder Regelhaftigkeit bestimmt, die man treffend als schwache Kausalität bezeichnet.

Derartige Charakteristika sind auch für metabolische Systeme der Lebenswissenschaften, der Biologie, Ökologie und Medizin generisch. Diese Systeme sind komplex, dynamisch, nichtlinear, sie sind im Detail oftmals instabil und im Allgemeinen dadurch besonders dynamisch-adaptiv stabil, sie sind offen und selbstorganisationsfähig, ihnen kann „Autonomie“ zugeschrieben werden. Ihre Systemdynamiken werden von (probabilistischen oder deterministischen) schwachen Kausalgesetzen bestimmt – allerdings hat auch die beste Wissenschaft mit diesem Typ von Gesetzen prinzipielle Probleme, diese aufzufinden und zu rekonstruieren. In vielen, vielfach auch anwendungsrelevanten Fällen weiß man wenig über Ursache-Wirkungs-Zusammenhänge, man hat es mit einer Black Box zu tun. Für die Medizin liegt hier eine Herausforderung, denn für Diagnose und Therapie vieler Krankheiten ist nichts so zentral wie ein kausales Wissen über Ursache-Wirkungs-Zusammenhänge. Die in der hohen Komplexität wurzelnde Herausforderung wird gerade in der aktuellen Covid-Pandemie deutlich – von der Analyse von Infektionsformen und Übertragungswegen, über die Einschätzung adäquater Schutzmaßnahmen und entsprechender Medikamente, bis hin zur Suche sowie zur Validierung und Zulassung von Impfstoffen. Und auch in den Technikwissenschaften gelten komplexe technische Anlagen, Produktionsanlagen und Produktionsprozesse (z. B. Automobilproduktion) als komplexe Systeme, in denen vielfach auch schwache Kausalität vorherrscht. Gleiches findet sich in den Human-, Sozial- und Wirtschaftswissenschaften. Die Psychotherapieforschung, die von Wissenschaftsdisziplinen wie Psychologie und medizinischer Psychiatrie betrieben wird, kennt diese Systemcharakteristika; sie verwendet Charakteristika der Theorien nichtlinearer dynamischer Theorien, um den Therapieerfolg zu monitoren und therapeutische Interventionen zu verbessern. In den Finanzwissenschaften gibt es neuere Zugänge zu fluktuierenden Finanzdaten, etwa zu Kursen von Aktien, Wertpapieren, Derivaten, Hedgefonds, um unter Verwendung von KI- und Machine-Learning-Verfahren den Prognosehorizont zu erweitern. Unter dem Sammelbegriff der „Econophysics“ hat sich in diesem Feld seit über 20 Jahren eine interdisziplinäre Forschungsrichtung von Mathematikern, Informatikern, Physikern, Wirtschafts- und Finanzwissenschaftlern etabliert, um diese komplexem Objektsysteme, die Instabilität/Sensitivität und damit schwache Kausalität aufweisen, zu prognostizieren und, wo möglich, verstehen zu können.

Vor diesem Hintergrund können KI- und Machine Learning-Verfahren als Ansätze angesehen werden, methodologisch mit der Komplexitätsproblematik umzugehen und einen Zugang zu komplexen Objektsystemen zu erlangen. Wesentliches Ziel ist, Formen der Regelhaftigkeit, d. h. verborgene Muster oder Abhängigkeiten in diesen Objektsystemen zu finden, also schwache Kausalität zu diagnostizieren, um dies prognostisch nutzen zu können – auch wenn man die (deterministischen oder probabilistischen) Gesetze prinzipiell nicht explizit kennen kann. Und selbst wenn man die Gesetze kennen würde, könnte man aufgrund der Nichtlinearitäten und Instabilitäten keine weitereichenden (theorie- und gesetzesbasierte) Prognosen vornehmen. Das mag zunächst paradox erscheinen, doch ist es eine Einsicht der Theorien nichtlinearer dynamischer Systeme.

Ein solcher Zugang zu komplexen Objektsystemen, der heute durch KI- und Machine Learning-Verfahren beschritten wird, hat eine eigene Historie, die sich im Umfeld von Komplexitäts- und Selbstorganisationstheorien, d. h. der Theorien nichtlinearer dynamischer Systeme entwickelte hat. In den 1960er- und 1970er-Jahren versuchten Mathematiker und Physiker, versteckte Regelhaftigkeiten in mechanischen Glückspielen, wie Roulette, aus akustisch Sensordaten zu identifizieren und prognostisch zu nutzen. Um dies zu ermöglichen, wurden eigens neue Verfahren entwickelt, um die versteckte, schwache Kausalität offenzulegen. Mit anderen Worten: Einige Verfahren, die heute im Machine Learning etabliert sind, wie Falsche Nächste Nachbarn, Surrogate Datenanalyse inklusive Surrogate Gradient Learning und Gradientenverfahren, oder allgemein Bootstrapping oder Data Mining finden sich schon hier. Gleiches gilt für Modellierungs-, Analyse- und Trainungsverfahren im Umfeld Zellulärer Automaten mit entsprechender Rekursivität.

Zusammenfassend kann man sagen: Während herkömmliche (moderne) Wissenschaften bei komplexen, nichtlinearen, selbstorganistionsfähigen Objektsystemen epistemische Limitierungen aufweisen – nämlich: Grenzen der mathematischen Prognostizierbarkeit, der experimentellen (Re-)Produzierbarkeit, der empirischen Prüfbarkeit sowie der Erklärbarkeit –, so ermöglichen KI- und Machine-Learning-Verfahren einen verbesserten und erweiterten Zugang zu diesen Systemen. Im Zentrum dieses Zugangs liegt ein neuer und kluger Umgang mit der für diese Systeme charakteristischen schwachen Regelhaftigkeit („schwache Kausalität“) und den instabil-sensitiven Systemdynamiken. Machine-Learning-Verfahren beruhen auf der Wette, dass man in den entsprechenden Daten solche Regelhaftigkeiten, Muster und Strukturen findet, welche eine zugrunde liegende verborgene Ordnung dieser Daten beschreibt und diese für praktische Ziele sodann nutzbar gemacht werden kann. Dieser Zugang zur schwachen Kausalität und ihrer Nutzung zu klassifikatorisch-diagnostischen und prognostischen Zwecken war schon kennzeichnend für die seit den 1970er-Jahren entwickelten Komplexitäts- und Selbstorganisationstheorien. Im Rahmen dieser Konzepte wurde Verfahren, die heute im Umfeld von KI und Machine Learning etabliert sind, entwickelt und getestet. Allerdings war die Rechnerleistung damals noch nicht hinreichend und es lagen nicht so viele hoch aggregierte Daten vor. Seither konnten die Daten-Verarbeitungsprozesse, -speicherungskapazitäten und -verfügbarkeiten gesteigert werden. Was damals auf den Weg gebracht wurde, zeigt sich erst in der letzten Dekade, nämlich als Erfolg der KI- und Machine-Learning-Verfahren in ihrem Zugriff auf komplexe Objektsysteme.

Die neuen datengetriebenen Verfahren können als Katalysatoren einer weiteren Verwissenschaftlichung gesehen werden – auch wenn sich verändert, was Wissenschaft ist. Der wissenschaftliche Zugriff weitet sich aus und bezieht sich auf immer komplexere Objektsysteme, die sich bisher der wohletablierten (modernen) Wissenschaft aufgrund spezifischer Objekteigenschaften entzogen haben.

Die Black Box und ihre Intransparenz

Bisher wurde dargelegt, dass KI- und Machine-Learning-Verfahren als methodische Ansätze zu verstehen sind, um einen Umgang mit komplexen (nichtlinearen, selbstorganisationsfähigen, teilweise instabilen) Objektsystemen zu ermöglichen. Vor diesem Hintergrund kann man weitergehen und eine Vertiefung der Analyse dieser Verfahren versuchen. Es stellt sich die Frage, wie transparent – d. h. wie interpretier-/erklärbar, wie vorausberechenbar, wie reproduzierbar und damit wie kontrollierbar – Struktur und Verhalten der KI- und Machine Learning-Verfahren selbst ist. Zur Beantwortung dieser Frage werden nun die Verfahren selbst als (nicht-materielle) Objektsysteme betrachtet, die hinsichtlich von Transparenz zu untersuchen sind: Für die folgenden Ausführungen wird also ein Perspektivenwechsel notwendig, nämlich die Verfahren, Instrumente und Mittel als Objektsysteme anzusehen.

Genau genommen weiß man schon einiges über diese Objektsysteme. Denn ein nahe verwandtes Gegenstandsfeld, nämlich das der Computersimulationen, ist hinsichtlich der Frage nach Transparenz gut untersucht. Computersimulationen gelten – neben Empirie (Beobachtung, Experiment) und Theorie (Modell, Gesetz) – mittlerweile als dritte Säule wissenschaftlicher Wissensproduktion. Unter dem Stichwort „Opazität“ wird diskutiert, ob sich eine Intransparenz des Geneseprozesses wie des Geltungsausweises von Wissen, erzeugt durch die reduzierte analytische Nachvollziehbarkeit von Computersimulationsläufen und deren Resultate, in die Wissenschaft einschleichen. Eng verbunden sind Probleme der Reproduzierbarkeit der Resultate und des intersubjektiven Geltungsausweises von Aussagen.

Bezogen auf Computersimulationen meint der Wissenschaftsphilosoph Paul Humphreys, dass der Forscher vom Zentrum des Forschungsprozesses sukzessive an den Rand gedrängt werde – allerdings ohne, dass dieser vollständig ersetzt werden könnte. Die Verdrängung gehe einher mit einer zunehmenden epistemischen Opazität, so Humphreys, also einer durch die erfolgreiche und breite Verwendung computernumerischer Verfahren und algorithmischer Instrumente erzeugte Intransparenz: Der Forscher sei kognitiv nicht mehr in der Lage zu überschauen, was in Simulationen geschehe und wie die Ergebnisse produziert werden. Zwar könne er die jeweiligen algorithmischen Einzelschritte nachverfolgen. Doch bliebe ihm verborgen, wie und warum bei einem konkreten Simulationslauf eines komplexen Modells aus einem bestimmten Inputwert ein bestimmter Output folgt. Unerwartetes und Überraschungen können auftreten, d. h. in gewisser Hinsicht kann Neues entstehen. Zudem sei oftmals die Reproduktion der Output-Ereignisse eingeschränkt, da die Rechenprozesse nichtlinear sind und sensitiv reagieren. Eine Beschreibung, Interpretation oder Erklärung dessen, was in der „Black Box“ der computernumerischen Simulation vor sich gehe, sei kaum möglich, womit Probleme der Validierung verbunden seien. Der Forscher habe kein Kriterium zur Hand, um zwischen richtigem und falschem Resultat zu unterscheiden oder gar Zweifel an einem Resultat adäquat begründen zu können. Was dann noch als intersubjektiver Geltungsausweis anzusehen sei, sei offen.

Humphreys Analyse kann man verallgemeinern und vertiefen: Als Quelle epistemischer Opazität sind nicht nur Computersimulationen anzusehen, sondern allgemein algorithmisch-informatische Systeme ab einem bestimmte Komplexitätsgrad. Schließlich bezieht sich Humphreys’ Begründung für Opazität auf hohe Rechengeschwindigkeit und große Komplexität von Simulationen. Beides gilt auch für KI- und Machine Learning-Verfahren. Genetische Algorithmen und Support Vector Machines sowie (versteckte) Markov Ketten/Modelle und insbesondere Künstliche Neuronale Netze, welche aufgrund ihrer Struktur grundlegend für KI- und Machine Learning-Verfahren sind, sind komplexe, nichtlineare, selbstorganisationsfähige und mitunter instabile Systeme.

Bei Künstlichen Neuronalen Netzen liegt eine wesentliche Quelle der Nichtlinearität in der so genannten Spike-Struktur, die durch das Verhalten der Einzelkomponenten oder der Neurone generiert wird. Neurone feuern ab einer bestimmten Inputgröße bzw. einem bestimmten Erregungsniveau. Wird die Inputgröße nicht erreicht, ist das entsprechende Neuron nicht aktiv und leitet kein Signal weiter. Dieses Verhalten des Neurons entspricht in mathematischer Hinsicht einer starken Form der Nichtlinearität. Darüber hinaus sind in Künstlichen Neuronalen Netze Feedback-Schleifen eingebaut, so genannte Back-Propagationen, ohne die KI-, Machine- und insbesondere Deep-Learning-Verfahren nicht möglich wären. Mit Back-Propagationen werden Parameter, wie beispielsweise die Anzahl der Neuronenebenen, ihre Gewichte und Wechselwirkungen, jeweils iterativ (in großer Geschwindigkeit entsprechend der jeweiligen Prozessorleistung des Computersystems) justiert, ohne dass der Forscher Hand anlegen muss oder etwas davon mitbekommt. Zudem gibt es in vielen Typen Künstlicher Neuronaler Netze versteckte Neuronenschichten („hidden layers“), welche auf- und abgebaut werden. Sie sind typischerweise aus nichtlinearen Funktionsklassen aufgebaut. In vielen Anwendungsfällen ist die zeitliche Iterationslänge, d. h. die Anzahl der Parameter- und Systemgrößen-Updates nicht festgelegt. Aufgrund all dieser Nichtlinearitäten ist es bei Neuronalen Netzen nicht möglich, Standardverfahren der Fehlerfortpflanzung und der Fehlerberechnung zu implementieren.

Was für Neuronale Netze hier beispielhaft für eine Vielzahl informatischer Verfahren dargelegt wurde, kennzeichnet – grundlegender als eine alleinige Reflexion von Anwendungsfeldern – den mathematisch-informatischen Kern von (nicht-symbolischer) KI und Machine-Learning. Dieser Kern kann charakterisiert werden durch Stichworte wie Komplexität, Nichtlinearität, Selbstorganisationfähigkeit und Sensitivität/Instabilität. Insofern KI- und Machine-Learning-Verfahren als (iterative) nichtlineare dynamische Systeme mit diesen Charakteristika anzusehen sind, die zudem kontinuierlich Updates von einer sich verändernden Systemumwelt (z. B. via Sensoren) als Inputgrößen erhalten, gelten für sie (als Objektsysteme) – analog zu dem, was in den vorangegangenen Kapiteln gezeigt wurde – Limitierungen. Sie sind begrenzt (1) prognostizierbar, (2) reproduzierbar, (3) prüf-/testbar und (4) interpretier-/erklärbar. Diese vier Limitierungen können als vier (nicht-disjunkte) Dimensionen epistemischer Opazität von KI- und Machine-Learning-Verfahren verstanden werden. Sie sind nicht eliminierbar – auch wenn Wege eines reflektierten Umgangs möglich sind. So sind bei einem konkreten KI- oder Machine-Learning Verfahren und seinem konkreten Anwendungsfeld jeweils einzeln zu untersuchen, wie stark diese Limitierungen ausgeprägt sind. Grundsätzlich ist jedoch mit diesen Limitierungen zu rechnen.

Eine Konsequenz aus den o. g. Charakteristika ist die in einigen Anwendungsfeldern auftretende mangelnde Robustheit, die mit Begrenzungen der Reproduzierbarkeit oder Replikabilität (ad 2) in Verbindung steht. So zeigt sich, dass schon der Zusatz von wenig Rauschen bei wesentlichen Klassen von Machine Learning-Verfahren, die auf Neuronalen Netzen aufgebaut sind, zu einer strukturellen Instabilität oder Nicht-Robustheit führen kann: Kleinste Störungen oder geringfügige Variationen der Inputgrößen, d. h. der Anfangs- und Randbedingungen, wie sie in realen Daten aufgrund von Messfehlern, Messrauschen oder sonstigen Artefakten stets auftreten, induzieren deutliche Effekte bei den Resultaten und den daraus gewonnenen Aussagen. Bei der Mustererkennung wird ein Straßenhindernis (nur) als Gullydeckel klassifiziert, ein Tumor als Talgeinschluss oder ein Tiger als Katze. Die Problematik potenziert sich bei schneller Echtzeitanalyse mit kontinuierlich neuen Sensor-Inputdaten nochmals, wie sie im autonomen Fahren auftritt.

Die Fehler der Mustererkennung, die in Anwendungsfeldern als konkrete Risiken zu Tage treten, sind aufgrund der o. g. Opazität (ex ante) schwer zu antizipieren, aber auch sodann (ex post) schwer in den Griff zu kriegen. Umso relevanter ist es, grundlegender anzusetzen: Denn zunächst und allgemein stellen die vier Dimensionen der Opazität ein epistemisches Risiko hinsichtlich der Qualitätssicherung des wissenschaftlichen Wissens (z. B. der o. g. Mustererkennung) dar. Wenn aufgrund der Opazität nicht mehr nachvollziehbar ist, wie ein Resultat zustande kommt, und Resultate aufgrund der Nicht-Robustheit oftmals nicht reproduzierbar sind, sind traditionelle Kriterien der Qualitätssicherung außer Kraft gesetzt. Weitere prinzipielle epistemische Risiken, die vielfach aus grundsätzlichen Limitationen nicht eliminiert werden können, betreffen die Verzerrungen („Bias“-Typen). Auch diese tragen zur Opazität bei.

Die Problematik der Opazität und der epistemischen Risiken ist der Informatik und den die informatischen Verfahren verwendenden Disziplinen, wie die (Teilchen-)Physik, seit langem bekannt. KI- und Machine-Learning-Verfahren werden in kritisch-konstruktiver Absicht als „Black Box“ bezeichnet. Von „Interpretationsproblemen“ ist die Rede, weshalb sich seit gut 20 Jahren Ansätze zu einer „erklärenden KI“ („explainable AI“) entwickelt haben. Denn, „[u]nderstanding the behaviour of artificial intelligence systems is essential to our ability to control their actions reap their benefits and minimize their harms.“ So entwickelt sich derzeit eine „Verhaltensforschung für KI-Systeme“: „Erklärende KI“ tritt an, die „Black Box“ (zumindest teilweise) zu öffnen („White-Boxing“). Damit soll sichergestellt werden, dass die jeweiligen informatischen Verfahren interpretierbar, d. h. transparent und nachvollziehbar sind. Nur so sei eine „algorithmic accountability“ möglich – was ethische und juristische Relevanz besitzt. Dabei setzt die „erklärende KI“ wiederum auf informatische Lösungen, die bis in die algorithmische Struktur der Programmcodes reinreichen. Allgemein weist der Zugang der „erklärenden KI“ eine Verwandtschaft zu den in den Technik- und Ingenieurwissenschaften üblichen Verfahren des „reverse engineering“ auf, welche (fertige) technische Produkte und Prozesse (ex post) untersucht und deren Verhalten zu beschreiben und zu erklären versucht. Kontrovers ist, ob und wie vielversprechend die Ansätze der „erklärenden KI“ sind. Doch jenseits etwaiger Einschätzungen zukünftiger Erfolgsaussichten ist bemerkenswert, dass es diese Diskussion überhaupt gibt. Aus dieser ist auch ein Bedarf ableitbar, nämlich über Ex-post-Ansätze hinauszugehen und wissenschaftliche Anstrengungen in Richtung einer prospektiven, d. h. Ex-ante-Qualitätssicherung der jeweils in konkreten Kontexten verwendeten Algorithmen bzw. KI- und Machine Learning-Verfahren zu verstärken.

So gilt zusammenfassend, nicht nur die Objektsysteme, die durch die neuen informatischen Verfahren verbessert und vertieft zugänglich werden, sind komplex. Vielmehr sind auch die Verfahren selbst komplex. KI- und Machine-Learning-Verfahren sind in ihrer mathematisch-informatischen Struktur – in Aufbau und Verhalten – ebenfalls komplexe, nichtlineare, selbstorganisationsfähige (nicht-materielle) Objektsysteme. Mit anderen Worten: um mit (äußerer) Komplexität, also mit komplexen Gegenständen der Wissenschaft umgehen zu können, benötigt es auf Seiten der Verfahren, Instrumente und Mittel ebenfalls eine hinreichende (innere) Komplexität. Vermeintlich paradox formuliert: KI- und Machine-Learning-Verfahren zielen darauf ab, Komplexität durch Komplexität beherrschbar zu machen; sie treiben die Berechenbarkeit der Welt der Objektsysteme voran, ohne selbst berechenbar zu sein. Dabei bleiben nicht nur die Objektsysteme, auf die sie sich beziehen, sondern auch die Verfahren selbst in spezifischer Hinsicht opak, also eine „Black Box“. Ob mit etwaiger Opazität nicht voraufklärerische oder gar magische Elemente in die Wissenschaft einziehen, gegen die Wissenschaft einst eingetreten war und die als überwunden galten, etwa Praktiken im Umfeld des Orakels von Delphi, wie Kritiker befürchten, ist ein offener, in kritisch-gestalterischer bzw. regulatorischer Absicht durchaus diskutierbarer Punkt.

All das schmälert nicht den Erfolg von KI- und Machine-Learning-Verfahren, einen Zugang zu komplexen Objektsystemen zu gewinnen und deren Verhalten zu klassifizieren und zu prognostizieren. Was jedoch von Wissenschaftlerinnen und Wissenschaftlern aller Disziplinen aufgrund ihres Anspruchs auf Qualitätssicherung zuvorderst zu leisten ist, ist die Wahrnehmung der informatisch induzierten Opazität. Dass sich ein opakes Instrument zu etablieren beginnt, ist allein nicht das Problem, sondern dass die damit verbundene Ambivalenz kaum hinreichend gesehen wird und die Herausforderung zum Umgang mit dem neuen Instrument noch nicht umfassend anerkannt wird. Die Opazität sollte beleuchtet und die durch diese erzeugten epistemischen Risiken sollten (wo immer möglich) minimiert werden – ansonsten werden sie zu Anwendungs-Risiken und eine hinreichende Qualitätssicherung ist für die technische Praxis nicht gewährleistet.

Auf dem Wege zu einer nachmodernen Technik – verwendet auch in der Wissenschaft

KI- und Machine-Learning-Verfahren werden nicht selten als neue Instrumente bezeichnet. Wer die Instrumentenmetapher verwendet, sieht oftmals informatische (wie auch mathematische) Verfahren als neutrale Mittel und wertfreie Methoden an, welche die etablierte technische Toolbox der experimentellen Forschung (ein wenig) ergänzen und erweitern. Derartige technische Instrumente, so legt die Instrumentenmetapher nahe, mögen äußerst nützlich sein, doch bleiben sie Wissenschaft und Forschung äußerlich.

Dass diese Sichtweise zu kurz greift und zu einer Relativierung aktueller Entwicklungen führt, haben wir in den letzten Unterkapiteln dargelegt. Mit der hier vorgetragenen Skepsis gegenüber einer unterkomplexen Instrumentenmetapher wird aber nicht bestritten, dass die informatischen Verfahren nicht auch Instrumente sind: KI- und Machine-Learning-Verfahren sind auch – ähnlich wie traditionelle Apparate und Verfahren (z. B. Fernrohr oder Mikroskop) und wie herkömmliche Mess-, Experimentier- und Analysesysteme, die in der Forschung als Mittel Verwendung (z. B. Amperemeter, Teilchendetektor, Method-of-Least-Squares oder Maximum-Likelihood-Method) finden – als Instrumente und somit als technische (in diesem Fall: nicht-materielle) Objektsysteme anzusehen. Nimmt man eine solche begriffliche Zuweisung vor, dann ist aber zu fragen, um welchen Typ des Instruments oder, allgemeiner, um welche der Art von Technik es sich handelt. Damit verbunden ist die Frage, ob sich Technik in ihrem systemischen Kern verändert.

Um diese Fragen anzugehen, ist es notwendig, technische Systeme detaillierter zu betrachten. Technik transformiert, so kann man mit dem Kybernetiker Heinz von Foerster sagen, Input- in Output-Größen. Für klassische wie für moderne Technik ist eine hinreichend stabile, stark-kausale Input-Output-Transformationsregel konstitutiv, die auf einer definier- und erkennbaren Schnittstelle zwischen dem technischen System einerseits und seiner Umwelt andererseits basiert. Über diese Schnittstelle sind die Material-, Informations- und Energieflüsse geregelt und regelbar, die die Transformation kennzeichnen. Konstitutiv ist die Stabilität bzw. Robustheit der Transformationsregel, um die gewünschte Funktionalität zu gewährleisten. Stabilität meint, kleinste Störungen oder geringfügige Veränderungen der Randbedingungen oder der Inputgrößen sollen die Funktionalität nicht beeinträchtigen. Stabilität – und damit die jeweilige Funktionalität – wird durch die technische Konstruktion eingestellt, d. h. Reproduzierbarkeit wird sichergestellt: Der Nutzer kann das technische System aufgrund der Erwartbarkeit des Outputs oder Effekts verwenden, er kann mit diesem System als Mittel intentional handeln. Die Technikwissenschaften liefern über das technische System und deren Funktionalität ein grundlegendes Wissen, das auf modell- und gesetzesbezogenen Erklärungen basiert und eine hinreichende intersubjektive Nachvollziehbarkeit der internen Transformationsregeln ermöglicht.

Derartige klassisch-moderne Technik mit einer stabilen und statischen Transformationsregel wird von Heinz von Foerster unter dem Begriff der „trivialen Maschine“ näher ausgeleuchtet. Klassisch-moderne Technik lässt sich mit von Foerster als „Trivialisierung einer komplexen Umwelt“ zur Regulation von Material-, Informations- und Energieflüssen verstehen. Von „funktionierender Simplifikation“ spricht Niklas Luhmann analog. Für von Foerster ist Technik im Sinne trivialer Maschine durch die statisch-stabile Input-Output-Transformationsregel bestimmt. Wesentliche Eigenschaften dieses Maschinen- bzw. Techniktyps sind nach von Foerster: 

(1) Synthetische Determiniertheit: Input- und Output-Größen sind eindeutig festgelegt und starr bzw. strikt gekoppelt. Die dazu notwendige Transformationsregel ist statisch, d. h. unveränderlich. Sie hängt nicht vom weiteren Vergangenheitsgrößen ab.

(2) Analytische Determiniertheit: Die Transformationsregel ist rekonstruierbar, insbesondere ist sie transparent, d. h. sie ist wahrnehmbar, interpretier- und erklärbar. (3) Prognostizierbarkeit: Die Output-Größen können aus den Inputgrößen prognostiziert werden; Effekte sind erwartbar. – Die trivialen Maschinen, wie sie von Foerster im Blick hat, sind solche, die wir mit klassischer und moderner Technik in Verbindung bringen: Locher, Schere, Herd, Hausbeleuchtung, Taschenrechner, Fahrrad, Fön, Wecker, Ölheizung, bis hin zum traditionellen PKW, zu Werkzeugmaschine, Produktionsanlage und -prozessen.

Nun müsste man, was hier nur angedeutet werden soll, in obiger Liste zumindest (4) eine weitere Eigenschaft ergänzen, nämlich dass bei trivialen Maschinen die Transformationsregel stabil, d. h. hinreichend robust ist und kleinere Störungen irrelevant sind. Das steckt indirekt in der analytischen Determiniertheit (ad 2) sowie der Prognostizierbarkeit (ad 3) drin, sollte aber nochmals vor dem Hintergrund der Frage nach einer möglichen aktuellen Veränderung des Technik- und Instrumententyps hervorgehoben werden.

Unabhängig davon, ob und in welcher Hinsicht weitere Eigenschaften herkömmlicher, klassisch-moderner Technik zu ergänzen sind, wie von Kaminski gefordert, und ob nicht sowieso schon einige technische Systeme um uns herum nicht mehr der trivialen Technik entsprechen, muss man sagen, dass KI- und Machine-Learning-Verfahren gewiss nicht von diesem klassisch-modernen Typ sind: sie zielen nicht darauf ab, statische, stabile und nachvollzierbare Transformationsregeln her- und sicherzustellen. Die vier oben genannten Eigenschaften gelten nicht. Vielmehr bilden die neuen informatischen Verfahren einen neuen, anders gearteten Techniktyp, den man als „nachmodern“ bezeichnen kann. Das hat nichts mit postmodernen Modetrends zu tun, sondern soll andeuten, dass ein neuer Techniktyp, der technikhistorisch nach der modernen Technik entsteht und letztere heutzutage ergänzt, nicht aber ersetzt. Bei nachmoderner Technik ist die Input-Output-Transformationsregel nicht unveränderlich und nicht fest implementiert, sondern sie ist flexibel und dynamisch: sie wird in der zeitlichen Systementwicklung (selbstorganisierend) hervorgebracht. Sie ist nichtlinear (Rückkopplung) und sensitiv hinsichtlich kleiner Veränderungen (Instabilität). Für KI- und Machine-Learning-Verfahren ist dies eingängig: Im Lernvorgang wird die Transformationsregel über Trainingsdaten adaptiert bzw. erst gebildet. Maschinelles Lernen kann als Transformation der Transformationsregel angesehen werden. Dies gilt unabhängig davon, welche Lernstrategien verwendet werden, ob über neuronale Netze, evolutionäre/genetische Algorithmen oder Support Vector-Verfahren.

Mit den informatischen Lernprozessen, also mit der Transformation der Transformationsregel ist, wie ausgeführt, eine interne (Selbst-)Organisationsfähigkeit verbunden. Von evolutionären Prozessen ist die Rede, Rekurs genommen wird auf biozentrierte Begriffsfamilien und Konzepte der Selbstorganisation. Diese für ein aktuelles Technikverständnis weitreichende Konzepte haben ihre eigene Geschichte. Wegbereiter für Selbstorganisationskonzepte sind die interdisziplinären System- und Strukturwissenschaften, die Strukturen und Dynamiken von Objekten unabhängig von ihren jeweiligen materiellen Manifestationen untersuchen. System- und Strukturwissenschaften wurden in den 1940er-Jahren im Rahmen der Kybernetik und Informationstheorie erstmals programmatisch entworfen (erste Phase: Bertalanffy, Wiener, Shannon, von Neumann) und ab den 1960er-Jahren in den mathematischen geprägten Naturwissenschaften (zweite Phase: Prigogine, Haken, Maturana/Varela, von Foerster) detaillierter ausformuliert und ausgeweitet. Prominent sind die bereits genannten und diskutierten Theorien nichtlinearer dynamische Systeme, dissipative Strukturbildung, Synergetik, Autopoiesistheorie sowie Chaos- und Komplexitätstheorien. Während die erste Phase eng verbunden ist mit der Herausbildung der Informatik als eigene Wissenschaftsdisziplin und mit der theoretischen Informatik, ist die zweite Phase stark durch die konkrete Computerentwicklung geprägt. Und heute kann man von einer dritten Phase sprechen, die durch aktuelle KI- und Machine Learning-Verfahren hervorgerufen ist. Sie ist ermöglicht worden durch die allumfassende Digitalisierung: Rechner-, Sensor-, Speicher- und Netztechnologie, was eine Verarbeitung großer und heterogener Datenmengen möglich macht.

Nun muss man sagen, was sich im informatischen Feld der KI- und Machine Learning-Verfahren zeigt, scheint indes nur die Speerspitze eines allgemeinen Trends unterschiedlicher neuerer („emergenter“) Technologiebereiche zu sein: Selbstorganisationsprozesse spielen eine Rolle (a) in Synthetischer und System-Biotechnologie, (b) in den Nano- und Mikrosystemtechnologien sowie (c) in den Kognitions-, Neuro- und Pharmakotechnologien. Die jeweiligen technischen Systeme erscheinen fast selbst als handelnd, d. h. ein Handlungsstatus wird dieser Technik anthropomorphisierend zugeschrieben: Nachmoderne Technik erscheint demnach phänomenal als „autonom“; sie scheint schöpferisch tätig zu sein, Mittel zweckrational auszuwählen und Entscheidungsfähigkeit zu besitzen.

Dass indes grundlegende Probleme mit einem komplexen, nachmodernen Techniktyp verbunden sind, hat der Systemtheoretiker und Soziologe Niklas Luhmann gesehen. Traditionelle Technik ist für Luhmann, ähnlich wie für von Foerster, als „funktionierende Simplifikation“ und „simplifizierende Isolation“ eines Systems von seiner Umwelt zu verstehen. Bei herkömmlicher Technik könne die Isolation konstruktiv hergestellt werden, eine Schnittstelle könne definiert und ausgewiesen werden. Bei komplexer Hochtechnologie – Luhmann konnte zu seiner Zeit noch nicht ahnen, welche Entwicklung die informatischen Verfahren nehmen sollten – hingegen komme es zum „Anwachsen kausaler Komplexität“. Diese basiert konstruktiv auf einer „immensen Komplexität von gleichzeitig […] ablaufenden Kausalvorgängen“ (ebd.), wie es gerade auch für KI- und Machine-Learning-Systeme charakteristisch ist.

Aus dem Misslingen der Kausalisolation und dem damit einhergehenden Verlust der Schnittstellen zwischen System und Umwelt ergeben sich Herausforderungen. Nach Luhmann hat man es „mit Chaosproblemen, mit Interferenzproblemen und mit jenen praktisch einmaligen Zufällen“ zu tun. Die drei Problemtypen wurzeln für Luhmann in dem, was als Komplexität, Nichtlinearität und Sensitivität/Instabilität bezeichnet werden kann – und was (gleichzeitig) Quelle und Grundlage von Lern-, Adaptions- und Selbstorganisationsprozessen, d. h. für die Produktivität, darstellt. Ist das überhaupt noch Technik, die traditionell reproduzierbare und erwartbare Effekte her- und sicherstellt, fragt Luhmann, und er hat Zweifel. Liegen die Probleme im Kern dieser Systeme selbst, dann wird „die ‚Form‘ der Technik zum Problem. Sie markiert die Grenze zwischen eingeschlossenen und ausgeschlossenen (aber gleichwohl realen) Kausalitäten. Offenbar kommt es bei [nachmodernen] Technologien [wie bei KI- und Machine-Learning-Verfahren] aber laufend zu Überschreitungen dieser formbestimmenden Grenze, zur Einschließung des Ausgeschlossenen, zu unvorhergesehenen Querverbindungen. […] Das führt zu der paradoxen Frage, ob Technik, auch wenn sie kausal funktioniert, technisch überhaupt möglich ist“ und noch (im traditionellen Sinne) Technik ist. Damit scheinen sich, so Luhmann, „die Grenzen der technischen Regulation von Technik zu sprengen […]: Die Probleme der Technik zeigen sich an den Versuchen, die Probleme der Technik mit technischen Mitteln zu lösen.“ – Diese rekursive Beziehung wurde auch im letzten Unterkapitel offengelegt und als informatisch generiertes Komplexitätsdilemma bezeichnet: KI- und Machine-Learning-Verfahren sind als Ansatz zu verstehen, (äußere, d. h. objektseitige) Komplexität durch (innere, d. h. verfahrensseitige) Komplexität beherrschbar zu machen. Diese rekursive Beziehung ist höherstufig infinit fortsetzbar.

Eine solche Technik, das kann man mit Luhmann andeuten, scheint (wenn überhaupt) ein anderer Typ von Technik zu sein. Dieser Typ unterscheidet sich nicht nur graduell, sondern grundsätzlich von herkömmlichen technischen Instrumenten und Systemen, auch von jenen, die in Wissenschaft und Forschung eine Rolle spielen. Ob Fernrohr und Mikroskop, ob Amperemeter oder Thermometer, ob Zeitmesser oder Lichtschranke – diese Instrumente sind gekennzeichnet durch ein stabiles Input-Output-Schema. Berechenbarkeit, Reproduzierbarkeit, Prüfbarkeit und Erklärbarkeit war, weitgehend, durch die implementierte Transformationsregel (ex ante) festgelegt; Erwartbarkeit war sichergestellt. Das gilt für neuere Instrumente hingegen, die auf KI- und Machine-Learning-Verfahren aufbauen, nicht mehr. Hier wird die Transformationsregel selbst dynamisch transformiert und über Selbstorganisationsprozesse kontinuierlich adaptiert; Luhmann sieht selbstorganisierend-autopoetische Prozesse am Werke. Nachmoderne Technik hat einen Eigensinn, hält Überraschungen parat und ist schwer kontrollierbar, was die andere Seite ihrer enormen Leistungsfähigkeit darstellt: Ihr wird Autonomie, Produktivität und Adaptivität zugeschrieben, d. h. Eigenschaften, die auf hoher Sensitivität/Instabilität, auf großer Selbstorganisationsfähigkeit und auf einer weitreichenden Input-Offenheit gegenüber der Umwelt basieren.

Mit einer solchen qualitativen Veränderung des technischen Kerns wissenschaftlicher Instrumente verändert sich die Zusammenarbeit des Forschers mit seinen Experimental- und Analysesystemen und mithin der wissenschaftliche Erkenntnisprozess. So wird in Gesellschaft und Wissenschaft wohl nicht zu Unrecht bei diesem neuen Techniktyp ein Quasi-Akteursstatus erkannt, auch wenn das aus philosophischer Perspektive einen Kategorienfehler darstellen mag. Obwohl derzeit nichts dafür spricht, dass KI- und Machine-Learning-Systeme alleine den Nobel-Preis gewinnen könnten und der Forscher ersetzt werden könnte, wie Hiroaki Kitano nahelegt, so wird dennoch deutlich: die Verschiebung dieser Zuschreibungspraxis verweist auf grundlegende Verschiebungen in den Forschungspraktiken, d. h. auf neue und weitreichende Interaktionsformen zwischen menschlichem und technischem/nicht-menschlichem Akteur der wissenschaftlichen Wissensproduktion.

Techniktrends: Ermöglichungstechnologie, Konvergenztechnologie, Technoscience

Während in den letzten Unterkapiteln der zweischneidige informatisch-systemische Kern von KI- und Machine-Learning-Verfahren untersucht wurde, soll im Folgenden eine Einordnung in allgemeine Techniktrends vorgenommen werden. Drei Sondierungsbegriffe, die die aktuelle Technikphilosophie bereitstellt und die in den bisherigen Ausführungen (schon implizit) eine Rolle gespielt haben, sollen in Anschlag gebracht werden: Ermöglichungstechnologie, Konvergenztechnologie sowie Technowissenschaft („Technoscience“).

KI- und Machine Learning-Verfahren können, erstens, als eine im Hinter- und Untergrund wirkende Ermöglichungstechnologie („enabling technology“) angesehen werden. Die neuen informatischen Verfahren sind in erster Linie keine Objekt- oder gegenstandbezogene Technologie, wie etwa die Atom- oder Biotechnologie, auch wenn letztere durchaus neue technische Objektsysteme, hier Atomkraftwerke, dort Biosubstanzen, konstruktiv ermöglichen. Beispiele traditioneller Objekttechnologien sind auch Fertigungs-, Werkzeuganlagen- und Produktionstechnologien. Ermöglichungstechnologien wirken demgegenüber allgemeiner, grundlegender und hintergründiger. Sie stellen die Bedingung der Möglichkeit von anderen Technologien dar und sind i. w. S. als generische Infrastruktur- oder Systemtechnologien anzusehen. Das Internet ist eine der neueren Ermöglichungstechnologien; ältere Beispiele sind Verkehrsinfrastruktur- oder (Telefon-/Funk-/Morse-)Kommunikationstechnologien. Über den Status von Ermöglichungstechnologien wurde intensiv im Umfeld der Nanoforschung gesprochen, neuerdings auch bei Informations- und Kommunikationstechnologien. Noch ist der Sondierungsbegriff der Ermöglichungstechnologie semantisch nicht vollständig geklärt. Aber schon jetzt werden einige Charakteristika deutlich. Ermöglichungstechnologien sind stark wissenschaftsbasiert und vielfach verbunden mit formalen, mathematischen, theoretischen Entwicklungen. Sie bilden den wissenschaftlichen Hintergrund sowie die technische Grundlage für viele andere Technikentwicklungen, was über das von Innovationstheoretikern verwendete Begriffskonzeption der Basistechnologien hinausgeht.

KI- und Machine Learning-Verfahren fallen wie kaum ein anderer Techniktyp in die Kennzeichnungen einer Ermöglichungstechnologie. Zukünftig wird es kaum noch Objekt- oder gegenstandbezogene Technologien mehr geben, in welchen diese informatischen Verfahren keine Rolle spielen. Wesentlich für Ermöglichungstechnologie ist, dass diese nicht eigenständig in Erscheinung treten, sondern in anwendungsbezogene technische Systeme integriert sind und für diese als konstitutiv anzusehen sind: Internetsuchmaschinen; Spracherkennung; Autocomplete-Funktionen; journalistische Texterstellung von Wetter- und Sportinformationen; Bots in sozialen Netzwerken; Recommender Systeme und Vorschläge bei internetbasierten Bestellungen; Online-Versicherungen; Spamfiltern; Schach- und Backgammon-Programmen; Fahrassistenzsystemen; Motor- und Airbag-Steuerung; Wegeoptimierung in der Logistik; Parkplatzsuchsysteme in Städten; Umweltdatenüberwachung, inklusive Kenngrößenentwicklung; Serverfarmsteuerungen, usw.

Dem Endbenutzer ist zumeist nicht klar und transparent, dass KI- und Machine Learning-Verfahren zum Einsatz kommen. Die informatischen Ermöglichungstechnologien bleiben im Hinter- und Untergrund verborgen, ihre Spuren sind nicht sichtbar. Sie bilden damit das untergründige „Gestell“ für moderne oder spätmoderne Wissensgesellschaften, wie man mit Martin Heidegger sagen kann. Analog sieht der Soziologe Armin Nassehi, in Rekurs auf Niklas Luhmann, eine weithin „unsichtbare Technik“ heraufziehen, was zu einer veränderten Technikerfahrung führe und lebensweltliche Konsequenzen der Mensch-Technik-Beziehung nach sich ziehe. Das gesellschaftliche „Unbehagen“ hängt, so Nassehi, mit der Unsichtbarkeit und entsprechenden Un(an)greifbarkeit der hintergründig wirkenden KI- und Maschine-Learning-Verfahren als verborgene Ermöglichungstechnologien zusammen; das Unbehagen wird befördert durch den intransparenten Black-Box-Charakter dieser Verfahren. Die Black-Box sei es allerdings auch – das ist die andere (ebenfalls ambivalente) Seite der „unsichtbaren Technik“ –, dass dieser (ob gerechtfertigt oder nicht) Autonomie, Intelligenz und sogar Bewusstsein zugeschrieben werden könne. Nach Nassehi „ähnelt“ phänomenal dieser neue (nachmoderne) Techniktyp darin „eher dem menschlichen, für Alter Ego intransparenten Bewusstsein als einem sichtbaren Getriebe mit Zahnrädern, die ineinandergreifen und keine Variationsmöglichkeiten haben, außer dass sie funktionieren oder defekt sind.“

Ein verwandter Sondierungsbegriff, zweitens, ist der der technologischen Konvergenz oder, kurz, der Konvergenztechnologie. Dieser wurde in der Debatte über neuere Technikentwicklungen, die ihren Ausgang von einem Workshop der National Science Foundation der USA nahm, eingeführt. Programmatisch wird die Frage aufgeworfen, ob es nicht an der Zeit sei, die diversen und sich heterogen präsentierenden Technik- und Ingenieurwissenschaften – und ihre (bereichspezifischen) Techniktypen – zusammenzuführen und zu vereinheitlichen: Denn Konvergenz erzeuge Synergie und fördere Innovation. Für das Konvergenzprogramm steht die konvergente Entwicklung der Physik der letzten 200 Jahre paradigmatisch Pate. Das Ideal der Vereinheitlichung hat sich als Treiber wissenschaftlicher Innovation erwiesen. So wird gefragt, ob sich dieses produktive Ideal nicht auf die Technikwissenschaften, unter Einschluss der Informatik, der Lebenswissenschaften und der Medizin, übertragen lässt.

Die National Science Foundation der USA zielt demensprechend auf „Convergent Technologies“ oder „NBIC-Convergence“. Gemeint ist eine Zusammenführung von entstehenden („emergenten“) Zukunftstechnologien: Nano-, Bio-, Informations- und Kognitionstechnologien (NBIC-Konvergenz). Für eine Konvergenz wird zwar objektseitig der Nanolevel als zentral angesehen. Entscheidender ist aber, dass das methodische Instrumentarium der Konvergenz bei der Informatik sowie bei den Informationstechnologien liegt. Die Informatik gilt in dem Konvergenzprogramm als eine neue Leit- und Fundamentalwissenschaft, die die Nano-, Bio- und Kognitionstechnologien und deren forschungsbasierte Technikentwicklung methodisch fundiert und diese zusammenführt. Damit verdrängt die Informatik in der wissenschaftlichen wie gesellschaftlichen Wertschätzung die exakten Naturwissenschaften, primär die Physik, sowie, in zweiter Linie, auch die Lebenswissenschaften. Eine neue Hierarchie der wissenschaftlichen Disziplinen scheint sich herauszubilden, wobei sich die Anwendungsorientierung von Forschung (im Dienste der Technikentwicklung) in den Vordergrund schiebt und die Grundlagenforschung eine reduzierte Anerkennung erfährt.

Vor dem Hintergrund der Doppeldiagnose von Ermöglichungs- und Konvergenztechnologie kann man, drittens, einen Schritt weitergehen. In den letzten 30 Jahren hat die Wissenschaftsphilosophie, im Verbund mit der sozialwissenschaftlichen Wissenschaftsforschung, Veränderungen im Gefüge der Wissenschaften diagnostiziert. Ein zentraler Begriff, mit dem dieser Wandel beschrieben wird, ist der der „Technowissenschaft“ (engl. „Technoscience“). Technowissenschaft meint nicht einfach Technik- und Ingenieurwissenschaft, sondern beschreibt einen Wandel in der Forschungskultur aller Disziplinen in Richtung einer Orientierung am Nutzungs-, Verwertungs- und Anwendungskontext: Von Wissenschaft zur Technowissenschaft. Zwar gab es diese (Bacon’sche) Orientierung schon immer, entscheidend ist jedoch die Verschiebung der Schwerpunktsetzung des gesamten Wissenschaftssystems in diese Richtung. Neben traditionelle epistemische Werte, wie Erklärungsleistung, Reproduzierbarkeit, Prognosekraft, Testbarkeit, Theoriekonsistenz und -kohärenz, treten nicht-epistemische Werte, die gesellschaftlichen oder unternehmerischen Nutzen betreffen. Der Philosoph Alfred Nordmann identifiziert einige „Symptome für einen Kulturwandel von der Wissenschaft hin zur TechnoWissenschaft“: „1. Statt darstellender Hypothesen über die Natur: eingreifende Gestaltung einer hybriden KulturNatur. 2. Statt quantitativer Voraussagen und hochgradiger Falsifizierbarkeit: Suche nach Strukturähnlichkeiten und qualitative Bestätigung. 3. Statt Artikulation von naturgesetzlichen Kausalbeziehungen oder Mechanismen: Erkundung interessanter, bzw. nützlicher Eigenschaften. 4. Statt Orientierung auf die Lösung theoretischer Probleme: Eroberung eines neuen Terrains für technisches Handeln. 5. Statt hierarchische Organisation von Natur und Wissenschaft: Orientierung auf transdisziplinäre Objekte und Modelle.“ 

Nordmann adressiert den Wandel der Wissenschaftskultur unter Rekurs auf leitenden Werte und die von den Forschenden verfolgten Ziele in ihren jeweils konkreten Forschungsprojekten: Ihr Forschungshandeln orientiert sich verstärkt an Verwertungskontexten und weniger am aufklärerischen Ideal grundlegender Erkenntnis für das Weltverständnis. Entsprechende Verschiebungen zeigen sich auch in der Selbstbeschreibung des Forschungshandelns durch die Forschenden selbst.

KI- und Machine Learning-Verfahren kennzeichnen wie kaum ein anderes Feld das Regime der Technowissenschaft. Allerdings wäre es wohl treffender (anstatt von Verfahren) von KI- und Machine-Learning-Technowissenschaft zu sprechen. In einer solchen diagnostischen Zuspitzung fallen traditionelle Dichotomien, wie die von Grundlagenforschung vs. Anwendung weg. KI- und Machine-Learning-Technowissenschaft ist vor diesem Hintergrund als grundlagenbasierte Anwendungsforschung zu spezifizieren. Diese technowissenschaftliche Forschung über, an und für KI- und Machine Learning-Verfahren findet sich nicht nur im Rahmen der disziplinären Informatik, sondern gerade im Horizont all jener Disziplinen und Interdisziplinen, die mit vielen und heterogenen Datenreihen umgehen.

Fazit

Ein Regime nachmoderner Wissenschaft ist im Entstehen; KI- und Machine-Learning-Verfahren beginnen Wissenschaft in ihrem epistemischen Kern zu verändern. Derzeit ist damit eine Erweiterung und Ergänzung, keine Ersetzung des Regimes der herkömmlichen, modernen Wissenschaft impliziert.

Die Erweiterung bezieht sich auf zweierlei: Zunächst kann von einer methodischen Erweiterung gesprochen werden: KI- und Machine-Learning-Verfahren erweitern das Methoden- und Instrumentenspektrum der Wissenschaften grundlegend. Damit verbunden ist eine Erweiterung der Klasse der Objektsysteme, die sich bislang den Wissenschaften weithin entzogen haben, weil sie komplex, nichtlinear, selbstorganisationsfähig, vielfach instabil/sensitiv, raumzeitlich verteilt und interaktiv sind. Aufgrund dieser Eigenschaften ist ihr Verhalten schwer berechenbar, kaum reproduzierbar, Aussagen sind schwer prüfbar und ihre Phänomene sind vielfach nicht deduktiv-nomologisch oder mechanistisch erklärbar.

Die methodische und objektseitige Erweiterung von Wissenschaft durch KI- und Machine Learning-Verfahren induziert einen Wandel. Dieser konnte offengelegt werden, indem vier Leistungsmerkmale von Wissenschaft – und damit verbundene (nicht-disjunkte) Wissenschaftsverständnisse – untersucht wurden: Prognostizierbarkeit, Reproduzierbarkeit, Testbarkeit und Erklärbarkeit. KI- und Machine Learning-Verfahren führen zu einer verstärkten Prognoseorientierung (ohne grundlegende Theorie- und Wissensbasis), zu einer reduzierten Notwendigkeit des reproduzierenden Experimentierhandelns (bei gleichzeitiger Nutzen- und Interventionsorientierung), zur Ersetzung traditioneller Testverfahren (bei gleichzeitigen neuen und erweiterten Prüfoptionen) sowie zu einem verringerten Interesse an Theorien und Erklärungen (bei gleichzeitig starkem Rekurs auf eine schwach-kausale Struktur der Wirklichkeit).

KI- und Machine Learning-Verfahren zielen darauf ab, so wurde gezeigt, versteckte Regelhaftigkeiten, Muster oder Strukturen, also schwache Kausalität, zu diagnostizieren und diese zu prognostischen Zwecken nutzbar zu machen, kurzum: es geht nicht (nur) um Korrelationen, sondern um Kausalität. Korrelationen sind zu schwach, um Prognosen vorzunehmen und Handlungen zu ermöglichen. Nur mit Kausalität sind effektive Handlungsstrategien möglich. Mit diesem Zugang schließen die neuen informatischen Verfahren an weitreichende Erkenntnisse der so genannten Struktur- und Systemwissenschaften an, die mit der Kybernetik und Informationstheorie zusammenhängen und zu den theoretischen Grundlagen der Etablierung der Informatik als wissenschaftliche Disziplin gehören. Die Struktur- und Systemwissenschaften haben sich seither weiterentwickelt und sind heutzutage reichhaltiger. Sie umfassen die Theorien nichtlinearer dynamischer Systeme mit Komplexitäts- und Selbstorganisationstheorien, d. h. Synergetik, Theorien dissipativer Strukturbildung und des Hyperzyklus, Chaos-, Katastrophen- und Autopoiesis-Theorien. Diese haben ab den 1970er- bis 1990er-Jahren mathematisch fundierte Verfahren entworfen und angewendet, mit deren Hilfe versteckte Regelhaftigkeit oder schwache Kausalität diagnostiziert und genutzt werden kann.

KI- und Machine-Learning-Verfahren nehmen komplexe, nichtlineare, selbstorganisationsfähige, partiell instabile Objektsysteme in den Blick und erweitern damit die wissenschaftlich zugänglichen Gegenstandsfelder. Allerdings hat diese Erweiterungen ihren Preis. Denn die Verfahren, mit denen der Zugang ermöglicht wird, nämlich KI- und Machine-Learning-Verfahren, weisen selbst diese Komplexität auf. Sie sind in ihrer mathematisch-informatischen Struktur ebenfalls komplexe, nichtlineare, selbstorganisationsfähige nicht-materielle Objektsysteme: (äußere) Komplexität wird nur durch (innere) Komplexität zugänglich und beherrschbar. Gleichzeitig zeigen sich Grenzen des Wissens. Werden diese Verfahren, Instrumente und Methoden in den Wissenschaften eingesetzt, entsteht eine neue nicht-eliminierbare Opazität bzw. prinzipielle Intransparenz, verbunden mit epistemischen Risiken von Fehlschlüssen und -Diagnosen, die man bei herkömmlichen Verfahren, Instrumenten und Apparate so nicht kannte.

Der Wandel von Wissenschaft basiert also auf einem Wandel (der Entwicklung und dem Einsatz) der in der Wissenschaft verwendeten informatischen Technik(en). Wenn die Anzeichen nicht trügen, beginnt sich – ergänzend zur bisherigen, d. h. zur modernen Technik – ein neuer Typ von Technik zu etablieren, welcher einen anderen (informatischen) Kern in sich trägt. Diese nachmoderne Technik weist eine Selbstorganisationsfähigkeit auf, sie erscheint als autonom, als selbst handelnd und als entscheidungsfähig. Sie ist komplex und dynamisch, basiert auf nichtlinearen und vielfach auch sensitiven/instabilen Prozessen, die ihr eine hohe Flexibilität und Adaptivität ermöglichen. Nachmoderne Technik ist nicht durch ein Input-Output-Schema mit einer analytisch rekonstruierbaren stabilen Transformationsregel zu beschreibbar.

Im Rahmen der Reflexion allgemeiner Technologietrends sind KI- und Machine-Learning-Verfahren charakterisierbar als Ermöglichungstechnologie, Konvergenztechnologie sowie Technowissenschaft. Die Informatik avanciert offenbar – in aller Ambivalenz – zu einer neuen Leit-, Fundamental- und Basiswissenschaft.

Dass KI- und Machine-Learning-Verfahren wissenschaftlich äußerst erfolgreich sind und gesellschaftliche und ökonomische Innovationen fördern, ist unstrittig. Allerdings bedarf es – um die Chancen dieses Zugangs zu komplexen, dynamischen, nichtlinearen, sich selbst organisierenden Objektsystemen in Natur, Technik, Wirtschaft und Gesellschaft nutzen und produktiv weiterentwickeln zu können – einer weitergehenden Reflexion, einem Monitoring und einer Minimierungsstrategie epistemischer Risiken der Opazität, die entstehen, wenn sich das von den neuen informatischen Verfahren getriebene Regime nachmoderner Wissenschaften ausweitet.

Gegen eine Erweiterung und Ergänzung des Regimes moderner Wissenschaft spricht nichts – im Gegenteil. Eine moderate Erweiterung und umsichtiger Ergänzung – institutionell und förderpolitisch abgesichert, begleitet von transparenten und diskursiv zugänglichen Prozeduren der Qualitätssicherung – kann zu neuen wissenschaftlichen Erkenntnissen sowie zu reichhaltigen gesellschaftlichen Gestaltungsoptionen, etwa in Richtung Nachhaltigkeit, führen. Allerdings ist einer möglichen Schwerpunktverlagerung in Richtung nachmoderner Wissenschaft, verbunden mit der sukzessiven Ersetzung und Eliminierung der modernen Wissenschaft vorzubeugen. Schließlich ist der Erfolg der bisherigen Wissenschafts- und Technikentwicklung eng verbunden mit der aufklärerischen und kritischen Tradition des Regimes der modernen Wissenschaft, die sich in der balancierten Koexistenz der vier (o. g.) Wissenschaftsverständnisse zeigt. Nicht nur ist eine Erkenntnis- und Theorieorientierung für moderne Wissenschaft – neben anderem – kennzeichnend; vielmehr ist sie grundlegend für mittel- und langfristige Anwendungs- und Verwertungserfolge. Nachmoderne Wissenschaft mag zwar vordergründig nützlich erscheinen und einem utilitären Zeitgeist entsprechen, doch sie allein greift zu kurz und ist nicht hinreichend grundlegend und hintergründig, auch für zukünftige Innovationen: Schließlich gehören Weltverständnis und Weltgestaltung zusammen – wenn man das so traditionell formulieren mag. Moderne Wissenschaft ist als Orientierungsrahmen, Referenzsystem und Innovationsproduzent erhaltenswert.

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.

Schmidt, J.C. (2022). Wandel und Kontinuität von Wissenschaft durch KI. Zur aktuellen Veränderung des Wissenschafts- und Technikverständnisses

In: Künstliche Intelligenz in der Forschung. Ethics of Science and Technology Assessment, vol 48. Springer, Berlin, Heidelberg

https://doi.org/10.1007/978-3-662-63449-3_4

http://creativecommons.org/licenses/by/4.0/deed.de


© Swiss Infosec AG 2024