Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Wandel und Kontinuität von Wissenschaft durch KI – Teil 1

02/2024

Zur aktuellen Veränderung des Wissenschafts- und Technikverständnisses

Einleitung

Diagnosen und Beschreibungen von Veränderungsprozessen sind zentral für deren Gestaltung. Im Folgenden soll erörtert werden, ob und in welcher Hinsicht sich das Wissenschaftsverständnis durch KI- und Machine Learning-Verfahren verändert: Steht eine methodologische Revolution vor der Tür oder findet sich eine Kontinuität, freilich mit modifizierten Mitteln und Instrumenten?

Wenn man fragt, ob sich empirische Wissenschaft durch aktuelle Entwicklungen der Informatik und Mathematik wandelt, setzt man voraus, dass Verfahren, Mittel und Instrumente, d. h. dass Technik(en) und technikbasierte Methoden der Wissenschaft nicht nur äußerlich sind, sondern deren innere Konstitution betreffen und im Kern relevant sind. Die Anerkennung dieser Eingangsprämisse legt überhaupt erst einen Untersuchungsbedarf nahe. Schaut man dann detaillierter hin, ist für die Frage nach einem Wandel das Verständnis von Wissenschaft ausschlaggebend. Veränderungsthesen sind abhängig von Referenzsystemen, bezüglich derer eine Veränderung untersucht wird. Allerdings ist das Referenzsystem, also das, was als Wissenschaft angesehen wird, seit jeher umstritten: Der Begriff „Wissenschaft“ hat keine einheitliche Bedeutung und ist Gegenstand vielfältiger Kontroversen.

Um nicht von vorneherein zentrale Aspekte eines wissenschaftlichen Wandels auszuschließen, entwirft dieses Kapitel ein plurales Verständnis von Wissenschaft. Ein solch plurales Referenzsystem, das sich pragmatisch auf Ziele und mit diesen zusammenhängenden Erfolgs- und Leistungsmerkmalen bezieht, wird durch Äußerungen von Wissenschaftlern und von Wissenschaftsphilosophen gestützt. Peter Janich spricht von einem „eindrucksvollen technischen, prognostischen und Erklärungs-Erfolg“ der Wissenschaft. Janichs Dreier-Typologie lässt sich in einem Punkt weiter entwickeln, nämlich um den Prüf- und Testerfolg von Aussagen, Theorien oder Modellen an empirischen Daten oder Experimenten. Die anderen drei Erfolgskriterien können im Folgenden übernommen werden: Janichs Erklärungserfolg nimmt deduktiv-gesetzeshafte und mechanistische Erklärungen in den Blick, d. h. die Zurückführung von neuen Phänomenen auf allgemeine Theorien oder die Angabe Phänomen-erzeugender Ursachen. Ferner umfasst der technische Erfolg von Wissenschaft menschliche Interventionen in Gegebenes und die handelnde Herstellung reproduzierbarer Ereignisse. Hier geht es um die Handlungsseite von Wissenschaft. Prototyp ist das Experiment, doch dieses Erfolgskriterium zeigt sich allgemeiner in technischen Systemen, Produkten und Prozessen. Der prognostische Erfolg weist wiederum auf die mathematische Möglichkeit der Vorwegnahme von Zukunft hin; ihm ist eine Zeitstruktur eingraviert.

Im Rahmen der vier Erfolgs- und Leistungsmerkmale, in denen sich verschiedene Ziele von Wissenschaft widerspiegeln, können vier (nicht disjunkte) Wissenschaftsverständnisse identifiziert werden. Die zu entfaltende These ist, dass sich einige Aspekte dieser vier Wissenschaftsverständnisse durch KI- und Machine Learning-Verfahren wandeln, andere nicht. Für die Beantwortung der Frage eines Wandels ist also das jeweils investierte Wissenschaftsverständnis von zentraler Bedeutung. Um weitergehend den Erfolg der neuen informatischen Verfahren einschätzen zu können, sind ferner jene Objektsysteme in den Blick zu nehmen, an denen diese ihre Leistungsfähigkeit zeigen: komplexe, nichtlineare, mitunter instabile und oftmals selbstorganistionsfähige Objektsysteme in Natur, Technik, Wirtschaft und Gesellschaft, zu denen herkömmliche Wissenschaft aus prinzipiellen Gründen kaum einen methodischen Zugang fand. Die Pointe der KI- und Machine-Learning-Verfahren ist, wie gezeigt wird, dass sie die für diese Objektsysteme charakteristische (verborgene) schwache Kausalität oder Regelhaftigkeit für praktische Zwecke nutzbar machen können, ohne diese erkennen (und in Gesetzesform offenlegen) zu müssen. So wird deutlich: Nicht Korrelation, sondern schwache Kausalität ist der eigentliche Angriffspunkt der KI- und Machine-Learning-Verfahren.

Allerdings hat die erfolgreiche methodische und objektseitige Erweiterung der Wissenschaft ihren Preis. Nicht nur die neu bzw. vertieft zugänglichen Objektsysteme sind komplex und nichtlinear, sondern auch die neuen informatischen Verfahren sind es. Sie sind, wie dargelegt wird, in ihrer Struktur und Dynamik eine Black Box – weithin eigendynamisch, unübersichtlich, intransparent, opak, schwer interpretierbar. Damit sind epistemische Risiken der Qualitätssicherung und des intersubjektiven Geltungsausweises der Resultate verbunden. Wenn KI- und Machine-Learning-Verfahren nun weithin opak bleiben und wenn sie selbst eine so große Komplexität, Nichtlinearität, Instabilität und Selbstorganisationsfähigkeit aufweisen, dann ist zu fragen, ob das eigentlich noch die Art von Technik (und von technischen Instrumenten, Werkzeugen, Verfahren und Mittel) ist, die wir lebensweltlich kennen und die wir bisher eingesetzt haben. Es wird gezeigt, dass ein qualitativ anderer Techniktyp, eine nachmoderne Technik, im Entstehen ist. Dieser kann (i. w. S.) Autonomie und Entscheidungsfähigkeit, Produktivität und Adaptivität zugeschrieben werden. Dabei sind im Kern der nachmodernen Technik KI- und Machine-Learning-Verfahren am Werke. Schließlich wird eine Einordnung der informatischen Verfahren in allgemeine Technologietrends vorgenommen, wobei diese Verfahren in unterschiedlicher Hinsicht als paradigmatisch angesehen werden können. Das soll anhand von drei prominenten Sondierungsbegriffen dargelegt werden, nämlich: Ermöglichungstechnologie, Konvergenztechnologie sowie Technowissenschaft.

Zusammengenommen wird dafür argumentiert, dass sich das Regime der modernen Wissenschaft, in dem alle vier Wissenschaftsverständnisse balanciert koexistieren, durch ein nachmodernes Regime erweitert und ergänzt wird. Im nachmodernen Regime treten die vier Wissenschaftsverständnisse in eine veränderte, nicht-balancierte Relation. Es werden andere Ziele verfolgt: Statt der (zumindest partiellen) Erkenntnis-, Theorie- und Erklärungsorientierung tritt eine (starke und explizite) Orientierung auf (technischen und gesellschaftlichen) Nutzen und Anwendbarkeit. In welchem Verhältnis zukünftig diese beiden komplementären epistemischen Regime stehen werden, ist bis dato nicht entschieden. Zu vermuten ist, dass eine weitere Verschiebung in Richtung des nachmodernen Regimes vonstattengeht. Die damit verbundene mögliche Verdrängung des modernen Regimes gilt es, kritisch in den Blick zu nehmen.

Vier leitende Wissenschaftsverständnisse – das Referenzsystem

Wissenschaft als theoriebasiertes Prognoseverfahren

Seit der griechischen Antike zielt der Mensch darauf ab, Zukunft vorwegzunehmen und zukünftige Ereignisse vorauszusehen. Während einst das Orakel von Delphi angerufen wurde, tritt an diese Stelle später die Wissenschaft. Durch wissenschaftliches Wissen soll der Zufall gebändigt und die Natur berechenbar werden, so die erkenntnisleitende Hoffnung. Wer Zukünftiges kennt, kann sein heutiges Handeln darauf einrichten. Pierre-Simon Laplace, Physiker und Mathematiker, spitzt dieses Ideal im frühen 19. Jahrhundert als Höhepunkt einer mechanistischen Weltsicht zu. Wenn wir alles über Natur wissen würden – alle Gesetze, Anfangs- und Randbedingungen –, dann sei Zukunft und Vergangenheit universell berechenbar, insbesondere liege uns die Zukunft vollständig vor Augen. Auch wenn es uns Menschen aufgrund kognitiver Limitierungen nicht vergönnt sein sollte, die Fähigkeit universeller Berechenbarkeit zu erlangen, so komme diese Möglichkeit zumindest einem omnipotenten Geist oder Dämon zu. Denn Natur sei von Gesetzmäßigkeit, stärker noch: von deterministischer Gesetzmäßigkeit, durchzogen und als solche im Prinzip berechenbar. Auguste Comte überträgt dieses Ideal des Laplace’schen Dämon von der Natur auf sozial-gesellschaftliche Systeme und begründet die Sozialwissenschaften. Sein berühmtes Diktum lautet: Wissen, um vorherzusehen; vorhersehen, um handeln zu können.

Wissenschaft wird vielfach über das Leistungsmerkmal erfolgreicher Prognosen qualifiziert. Carl Friedrich v. Weizsäcker sieht im „Schluss auf die Zukunft“ die „eigentliche Pointe“ der Wissenschaft. Dabei können Prognosen verschiedene Funktionen erfüllen. Es macht einen Unterschied, ob man in erfolgreichen Prognosen Ziel, Produkt und Höhepunkt von Wissenschaft sieht, so wie Laplace es mit seinem Dämon tat. Oder ob diese lediglich ein Mittel und Medium darstellen, um Aussagen induktiv zu verallgemeinern oder um Phänomene zu diagnostizieren, etwa den Planeten Neptun, die Sonnenfinsternis im Jahre 1919, das Higgs-Boson oder eine seltene Krankheit. Oder um Aussagen zu deduzieren und um Testbarkeit von Theorien im Sinne falsifizierender Verfahren zu ermöglichen, Theorien anzuerkennen, und Intersubjektivität von Aussagen sicherzustellen. „Jede Nachprüfung“, so Wolfgang Stegmüller, „vollzieht sich über beobachtbare Voraussagen.“ Ferner können noch weitreichendere, deutlich zu unterscheidende Motive eine Rolle spielen, wenn man sich auf Prognose bezieht. Erfolgreiche Prognosen stellen nicht nur aus wissenschaftsinterner Perspektive ein zentrales Motiv dar, wie soeben beschrieben. Vielmehr gibt es auch wissenschaftsexterne Motive, nämlich Prognosen als wissensbasierte Ermöglichung von menschlichen Handlungen allgemein, etwa zum planenden Umgang mit Naturereignissen wie einst Pest, Erdbeben, Dürrekatastrophen oder wie heute mit SARS-CoV.

Prognostizierbarkeit wird also stets mit wissenschaftlicher Erkenntnis, d. h. mit Wissen, in Verbindung gebracht. Erkenntnis manifestiert sich in Theorien, Modellen oder Gesetzmäßigkeiten, welche Aussagen über das jeweilige Gegenstandsfeld und den jeweiligen Phänomenbereich treffen. Mit anderen Worten, ein Gegenstandswissen wird als notwendig angesehen. Zwar mögen Prognosen mitunter auf statistischen, nicht auf deterministischen Gesetzmäßigkeiten aufbauen und somit probabilistisch sein, immer jedoch basieren sie auf einem Gegenstandswissen und sind in diesem Sinne theoriebasiert. Insofern war Auguste Comtes Diktum für moderne Wissenschaft im umfassenden Sinne treffend: um vorhersehen zu können, ist Wissen unabdingbar.

Wissenschaft als Experimentierhandeln und Interventionsform zur Herstellung von Reproduzierbarkeit

Das epochal Neue der wissenschaftlichen Moderne, die in der Spätrenaissance eingeleitet wurde und mit Namen wie Kopernikus und Kepler, mit Galilei, Bacon und Descartes verbunden ist, ist das Experiment. Wissenschaft ist seit dem 17. Jahrhundert nicht nur eine passiv-kontemplative Beobachtungswissenschaft desjenigen, was von selbst da ist, oder eine kognitiv-theoriebezogene Prognosewissenschaft. Vielmehr ist sie, wie Francis Bacon zu Beginn der Moderne im Jahre 1620 ausführt, eine aktive, intervenierende Experimentalwissenschaft. Ohne technische Apparate und Instrumente ist moderne Wissenschaft unmöglich. Natur zeigt sich gerade in technisch präparierten, experimentellen Settings in ihrem Kern, nämlich als (Natur-)Gesetz. Technik ist nicht als Gegenüberstellung zu Natur zu verstehen, wie in der Antike und im Mittelalter, sondern Technik ist das, was naturgesetzmäßig möglich ist: Technik ist zweckmäßig realisierte Naturgesetzmäßigkeit. Das hat zu einer „Revolution der Denkart“ geführt, wie Kant sagt – eine neue Sichtweise, die das aristotelische Natur- wie Technikverständnis modifiziert und zu einer veränderten Verhältnisbestimmung führt. So ist moderne Wissenschaft eng mit der Technikentwicklung verbunden. Für das Wissenschaftsverständnis rückt das technische Handeln und die experimentelle Handlungspraxis in den Mittelpunkt.

Wissenschaftliches Wissen wird dabei nicht nur durch (und an) Technik hervorgebracht, sondern manifestiert sich auch in Technik, d. h. in technischen Produkten und Verfahren: Technik ist Werk von Wissenschaft. Für Bacon „ergänzen“ sich „Wissen und menschliches Können“, Theorie und Technik. Bacons wirkungsgeschichtlich prägende Programmatik zu Beginn der Moderne kennzeichnet auch Galileis und Torricellis Laborexperimente und ihre empirisch-messende Systematik der präparierten Naturbefragung. Sie sind die ersten Experimentatoren im modernen Sinn. Vico, Hume, Kant und Mill heben dann hervor, dass man nur dasjenige verstanden habe, was man machen, kontrollieren und erzeugen könne. Die experimentelle Konstruktion ist die Bedingung der Möglichkeit, dass etwas als etwas erkannt werden kann: Die Naturforscher begriffen, so Kant, „daß die Vernunft nur das einsieht, was sie selbst nach ihrem Entwurfe hervorbringt.“ Der technisch-experimentelle Zugang erhält ein Natur- sowie Naturwissenschafts-konstitutives Moment.

Wissenschaftliche Tat-Sachen sind Sachen menschlicher Tat. Damit verbunden sind normative Kriterien, wie Tat-Sachen her- und sicherzustellen sind. Gernot Böhme und Wolfgang van den Daele heben hervor, dass das „methodische Ideal“ der Wissenschaft „die regelmäßige Tatsache [ist], die die Bedingungen enthält, unter der ihre Beobachtung für jedermann und jederzeit wiederholbar ist.“ Jürgen Mittelstraß sieht in der „Reproduzierbarkeit“ „eine allgemeine wissenschaftliche Norm“, die „die Kontrollierbarkeit wissenschaftlicher Aussagen“ durch die damit verbundenen Personen-, Zeit- und Ortsinvarianzen sicherstelle. Für Karl Popper steht fest, dass „nichtreproduzierbare Einzelereignisse […] für die Wissenschaft bedeutungslos“ sind – und Popper verweist auf die Notwendigkeit „experimenteller Testfähigkeit“.

Moderne Wissensgesellschaften gehen davon aus, dass wissenschaftliches Wissen notwendig ist, um erfolgreich handeln zu können: „Was bei der Betrachtung als Ursache erfasst ist, dient bei der Ausführung als Regel“, so schon Bacon. Man könnte behaupten, nichts ist so handlungsmächtig wie wissenschaftliches Wissen, nichts ist so praktisch wie eine gute Theorie.

Wissenschaft als stringente Prüfmethode und als kritischer Garant intersubjektiver Geltung

Neben die beiden Handlungsseiten von Wissenschaft – d. h. neben die technisch-experimentelle sowie die mathematisch-prognoseermöglichende Handlungsseite – treten zwei weitere Verständnisweisen. Gelegentlich werden diese als grundlegender angesehen, insofern sie stärker theoretische Dimensionen in den Mittelpunkt rücken. Es handelt sich um das Test- und Prüfbarkeitsverständnis von Wissenschaft einerseits sowie das Erklärbarkeitsverständnis andererseits; zu letzterem verweisen wir auf das nächste Unterkapitel, ersteres behandeln wir im Folgenden.

Kein anderer Zugang zur Wirklichkeit prüft Aussagen so personenunabhängig, so hartnäckig, so vorurteilsfrei, so kritisch: Wissenschaft basiert auf methodischem Zweifel, so programmatisch René Descartes im 17. Jahrhundert. Über drei Jahrhunderte später versteht der Wissenschaftsforscher Robert K. Merton, ganz ähnlich, Wissenschaft als „organisierten Skeptizismus“. Ausgehend von Descartes und der rationalistischen Traditionslinie betont Karl Popper, dass Wissenschaft der „kritischen“ Methode bedürfe, in deren Mittelpunkt Prüfbar- bzw. Testbarkeit steht. Prüfbarkeit ermöglicht eine Falsifikation von Aussagen und Theorien, womit Bedingung der Intersubjektivität her- und sichergestellt werden können. Bei Popper bildet sich hieraus der Kern für sein normatives Abgrenzungskriterium: Wissenschaftliches Wissen ist ein solches, das an der Empirie scheitern können muss.Footnote12

Dass mit der Prüfbarkeit zunächst allgemein eine deduktive, also ableitend-folgernde Beziehung verbunden ist, ist unverkennbar: Prüfen kann man nur, was schon da ist. Während die Genese von Aussagen und Theorien als unsicher, mitunter als spekulativ gilt, weshalb zumeist von Hypothesen und Vermutungen gesprochen wird, wird durch die Prüfung eine Widerlegung oder Bewährung ermöglicht. Popper setzt analog zu Bacon voraus, dass es Entscheidungsexperimente („experimentum crucis“) gibt, welche eine Aussage oder Theorie eindeutig als falsch ausweisen und diese verwerfen. Im positiven Fall hat sich die Theorie zunächst bewährt. Neben Poppers deduktiv ausgerichtete Methodologie spielt Prüfbarkeit in anderen Traditionslinien, etwa der empiristischen eine zentrale Rolle. Auch Rudolf Carnap verwendet Prüfbarkeit als Kriterium, um eine Aussage als wissenschaftlich zu bezeichnen. Popper und Carnap können sich auf Vorläufer stützen. Ernst Mach hat im späten 19. Jahrhundert gefordert, dass dort, „wo weder eine Bestätigung noch eine Widerlegung ist, […] die Wissenschaft nichts zu schaffen [hat].“

Im Zentrum dieses Wissenschaftsverständnisses findet sich also die Idee der Zusammenführung von Theorie und Empirie: Je „näher“ die auf Basis von Theorien deduktiv gewonnenen Aussagen oder die durch induktive Verallgemeinerung entwickelten mathematischen Gesetzmäßigkeiten den empirischen Daten sind, d. h. je genauer die Repräsentation, desto mehr spricht für eine Theorie. Wissenschaft wird mithin als kritisches Prüfverfahren verstehbar, durch welche die Theorie- mit der Empirieseite verbunden wird.

Wissenschaft als Grundlage des Weltverständnisses und als Erklärungslieferant

Wissenschaft tritt an, Phänomene zu erklären. Erklärt werden Phänomene unter Verwendung von Theorien, Modellen oder Gesetzen – man spricht allgemein von theorie-, modell- oder gesetzesbasierter Erklärung. Das zu erklärende Phänomen oder genauer: die zu erklärende Aussage wird mit etwas Allgemeinen, wie einem Gesetz, in Verbindung gebracht.

Bevor eine Erklärung vorgenommen wird, muss das zu erklärende Phänomen mathematisch beschrieben werden. Hierzu werden Kriterien wie Sparsamkeit, Einfachheit und Verdichtung in Anschlag gebracht: Wissenschaft eiminiert Redundanzen in der Beschreibung der Phänomene. Diese Grundhaltung wird schon im frühen 14. Jahrhundert von Wilhelm von Ockham formuliert. Das Ockham’sche Rasiermesser entwickelt sich zu einem zentralen Prinzip der modernen Wissenschaft. René Descartes schreibt im 17. Jahrhundert der Wissenschaft entsprechend ins Stammbuch, dass sie „verwinkelte und dunkle Propositionen stufenweise auf einfachere zurückführen“ solle. Schließlich kann der Physiker Heinrich Hertz Ende des 19. Jahrhunderts ausrufen: Alle Wissenschaftler „sind einstimmig darin, dass es die Aufgabe […] sei, die Erscheinungen der Natur auf die einfachen Gesetze […] zurückzuführen.“

Je mehr Phänomene einheitlich und sparsam-ökonomisch im Rahmen einer Theorie beschrieben werden können, je größer die Kompression der Information über das betrachtete Objektsystem, desto höher gilt deren reduktive Beschreibungsleistung. Reduktiv meint, dass eine solche Theorie die Phänomene auf das Wesentliche zu reduzieren vermag. Die Reduktion findet via mathematischer Gesetze statt, die den Strukturkern von Theorien darstellen. Diese Theorien und ihre Gesetze beschreiben dann nicht nur die Phänomene, vielmehr erklären die Theorien die Phänomene auch in einer bestimmten Hinsicht, weshalb man von deduktiv-gesetzeshaften Erklärungen spricht. Aus einer solchen Theorie lassen sich – das ist der Anspruch an dieses Leistungsmerkmal – alle zentralen Eigenschaften der Phänomene wiedergewinnen. In der reduktiven Erklärungsstruktur der Wissenschaft zeigt sich nach Ernst Mach eine Denkökonomie, welche als normatives Prinzip für das Forschungshandeln gefasst werden kann: Nach diesem Ökonomieprinzip hat Wissenschaft „Erfahrung zu ersetzen oder zu ersparen durch Nachbildung und Vorbildung von Tatsachen in Gedanken.“

Für Kant ist darüber hinaus „die Ersparung der Prinzipien nicht bloß ein ökonomischer Grundsatz der Vernunft, sondern inneres Gesetz der Natur“, womit er auf die regulative Idee der Einheit hinweist, „nach welcher jedermann voraussetzt, diese Vernunfteinheit sei der Natur selbst angemessen“. Vereinheitlichung ist dann nicht nur Vereinfachung, sondern spiegelt sich konstitutiv in der Natur, nämlich als Einheit der Natur.

Der Bezug zu Gesetzen und Theorien findet sich nicht nur in dem bisher diskutierten deduktiv-nomologischen Erklärungsverständnis, sondern auch in funktionalistischen oder dispositionellen Konzepten, die sich stärker an den Technikwissenschaften, der Biologie oder den Sozialwissenschaften orientieren. Ähnliches gilt hinsichtlich mechanistischer Erklärung: Diese erklärt ein Phänomen durch Angabe der Beiträge der Elemente bzw. Komponenten oder allgemeiner durch jene der Teilsysteme, die an der Erzeugung oder Hervorbringung des Phänomens ursächlich beteiligt sind. Es kann im mechanischen (oder algorithmischen) Sinne von Ursache und Wirkung gesprochen werden. Auch hier wird auf kausale Gesetzmäßigkeiten, allerdings weniger auf Theorien, sondern auf mechanische, d. h. faktisch-materielle bzw. -energetische Erzeugung(sleistung) Bezug genommen: B, das Phänomen (Wirkung), wird immer (ursächlich) hervorgerufen durch A, die bewirkende Komponente (Ursache). Dabei kann die kausale Gesetzmäßigkeit deterministisch oder probabilistisch sein.

Zusammengenommen kann man sagen, dass Wissenschaft darauf abzielt, Phänomene zu erklären. Notwendige Bedingung für eine Erklärung ist die Angabe von grundlegenden Theorien oder Modellen oder, in abgeschwächten Varianten, von Gesetzmäßigkeiten oder Regelhaftigkeiten.

Zwischenfazit: Vielheit und Einheit wissenschaftlicher Disziplinen

In den vier Leistungsmerkmalen – die das Referenzsystem bilden, das im Anschluss zur Untersuchung von Veränderungen durch KI- und Machine Learning-Verfahren verwendet werden soll – spiegeln sich, wie angedeutet, vier verschiedene Ziele moderner Wissenschaft wider. Bei so viel Pluralität verwundert es nicht, dass unterschiedliche Wissenschaftsdisziplinen verschiedene Leistungsmerkmale als zentral ansehen und andere als sekundär. Technikwissenschaftler präferieren das Ziel der Prognose- und (Re-)Produktionsleistung (ad 1 und ad 2), während Naturwissenschaftler (Physiker, Chemiker, Biologen) traditionell eher die Prüf- und die Erklärungsleistung in den Mittelpunkt stellen (ad 3 und ad 4). Bei Human-, Sozial- und Wirtschaftswissenschaftlern fällt dies, je nach Feld, in dem sie forschend unterwegs sind, jeweils unterschiedlich aus. Ein Kognitions- und Neuropsychologe, der über den Spracherwerb von Kindern arbeitet, zielt auf Erklärungen, während ein Markt-, Medien- und Konsumpsychologe Prognosen über Kaufentscheidungen vornehmen möchte. – Disziplinäre Schwerpunkte bedeuten aber nicht, dass nicht auch die jeweils anderen Leistungsmerkmale eine Rolle spielen.

Trotz der pluralen Vielheit disziplinärer Präferenzen liegt eine Einheit wissenschaftlicher Disziplinen empirischer Forschung – von der Physik über die Biologie, die Lebenswissenschaften und Medizin, die Technikwissenschaften und Informatik, bis hin zur Psychologie und den Wirtschafts- und Sozialwissenschaften – darin, dass im Prinzip alle vier Leistungsmerkmale als normative Anforderung an Wissenschaftshandeln anerkennt werden. Die Merkmale sind zudem nicht disjunkt, vielmehr können – je nach Präferenz und Position – Ableitungs- und Folgerungsbeziehungen jeweils ausgewiesen und argumentativ begründet werden, so dass eine gewisse Familienähnlichkeit der Leistungsmerkmale gegeben ist.

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.

Schmidt, J.C. (2022). Wandel und Kontinuität von Wissenschaft durch KI. Zur aktuellen Veränderung des Wissenschafts- und Technikverständnisses

In: Künstliche Intelligenz in der Forschung. Ethics of Science and Technology Assessment, vol 48. Springer, Berlin, Heidelberg

https://doi.org/10.1007/978-3-662-63449-3_4

http://creativecommons.org/licenses/by/4.0/deed.de


© Swiss Infosec AG 2024