Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Schattenwirtschaft Datenhandel

Die Recherchen von Netzpolitik und dem Bayerischen Rundfunk zum Unternehmen Datarade haben einen Teil der Digitalwirtschaft in den Fokus gerückt, der bisher vor allem im Hintergrund operierte: Datenhandel. Zentrale Akteure sind Datenhändler:innen (sog. Data Brokers), deren Geschäftsmodell darin besteht mit (nicht-)/personenbezogenen Daten zu handeln. Datenhandel ist ein milliardenschwerer Teil der globalen digitalen Wirtschaft und kein neues Phänomen, jüngst geraten aber zu Recht die grundlegenden Probleme in den Blick. Das Geschäftsmodell der meisten Data Broker untergräbt datenschutzrechtliche Vorgaben, die Privatheit und Autonomie von Individuen und erzeugt strukturelle und ethische Probleme für demokratische Gesellschaften. Der Beitrag umreißt die rechtlichen Implikationen von Datenhandel im Hinblick auf die DSGVO, den DSA und die KI-VO.

Wer sind die beteiligten Akteure?

Datenhandel bezeichnet allgemein die Bereitstellung von personenbezogenen und nicht-personenbezogenen Daten gegen monetäre Bezahlung oder den Austausch von Gütern und Produkten. Data Broker sind Unternehmen, die ihre Haupteinnahmen durch den Verkauf von Daten über Individuen generieren, die diese nicht selbst bereitstellen. Data Broker beziehen ihre Daten aus unterschiedlichen Quellen: Sie kaufen von anderen Händler:innen, extrahieren diese Daten selbst über Webcrawler oder öffentlich zugängliche Quellen. Diese Transaktionen sind eine Sekundärnutzung von Daten und finden ohne die betroffenen Datensubjekte statt. Da Verbraucher:innen nur betroffen, aber nicht beteiligt sind, haben viele Menschen keine Kenntnis von Data Brokern und ihren Geschäftsmodellen. Bekannte Firmen wie Google oder Meta fallen demnach nicht unter das Kernverständnis von Data Brokern: Suchmaschinen und Soziale Netzwerke verkaufen zwar auch Daten, erheben diese aber bei ihren Nutzer:innen selbst. Data Broker hingegen agieren mittelbarer als Intermediäre und haben selbst keine Nutzer:innen, sondern Kund:innen, die Daten nicht erzeugen, sondern ankaufen.
Das vormals klare Verständnis von Data Brokern (wie bspw. Adresshändler:innen) wird allerdings zunehmend komplexer, da viele Firmen nicht nur mit Daten handeln sondern auch zahlreiche andere Dienste anbieten. Die Firma Experian, eine der bekanntesten Data Broker und Kreditauskunftei bietet bspw. zugleich „Big Data Solutions“ an. Die Nachfrage nach Daten steigt auch durch die zunehmende Verbreitung extrem datenintensiver Technologien wie LLMs (Large Language Models). Bereits jetzt wird darüber spekuliert, in welche Richtung sich der Datenhandelsmarkt entwickeln wird, wenn die Quellen zumindest faktisch öffentlich-zugänglicher Daten ausgeschöpft sind.


Strukturen des Datenökosystems

Data Broker agieren an der Schnittstelle zwischen verschiedenen Interessenpunkten und Akteuren im Datenökosystem und fungieren damit als unsichtbare Intermediäre. Sie haben zudem kein Interesse daran, von wem und für welche Zwecke die von ihnen verkauften Daten genutzt werden und verkaufen bspw. für Marketingzwecke erhobene Daten an Kreditauskunfteien, die diese für Creditscoring verwenden.
Datenhandel als florierender Geschäftszweig der globalen Digitalwirtschaft ist eine Facette der andauernden Datafizierung aller Lebensbereiche. Dadurch sind Data Broker untrennbar mit den Strukturen der globalen Datenwirtschaft verbunden, die im Kontext der Nutzung digitaler Kommunikationstechnologie massiv auf Online-Tracking beruht. Unabhängig von der rechtlichen Qualifikation von Daten als eigentumsfähige Güter, sind Daten unbestritten ein Wirtschaftsgut. Alle global erfolgreichen Digitalunternehmen betreiben aggressive Datenextraktionen gegenüber ihren Nutzer:innen. Das Geschäftsmodell der zentral betriebenen sozialen Netzwerke basiert auf der Finanzierung durch Online-Werbung, die konkrete inhaltliche Ausrichtung der Apps und Webseiten ist dabei zweitrangig, es geht darum Nutzer:innen möglichst lange und aktiv auf der Plattform zu halten, um personenbezogene Daten zu extrahieren und generieren zu können. Optimiert wird dieses Ziel durch Real-Time-Bidding bei dem Werbetreibende in einer automatisierten Auktion um die Chance bieten, eine Anzeige gezielt an eine bestimmte Internetnutzer:in zu richten.


Warum ist Datenhandel problematisch?

Trotz der undurchsichtigen und im Detail schwer nachvollziehbaren Datenströme und Geschäftsmodelle, sind wiederholt rechtlich und ethisch problematische Transaktionen öffentlich geworden. Bspw. verkaufte eine US-amerikanische Firma mit Geschäftsbeziehungen zur US-Regierung Standortdaten im Umfeld von Abtreibungskliniken, die Firma LiveRamp hat ein „privates Bevölkerungsregister“ anhand von Kategorien wie „Depressionen, Brustkrebs“ erstellt; Datastream bot Journalist:innen 3,6 Milliarden Standortdaten aus Deutschland an – gratis und als Anreiz ein Abonnement abzuschließen.
Datenhandel katalysiert die massive informationelle Machtasymmetrie im der digitalen Sphäre: Einzelne Unternehmen sind in der Lage massive Datenmengen zu akkumulieren und diese für ihre ökonomischen Zwecke zu nutzen. Verbraucher:innen ihrerseits können weder ihre eigenen Daten in vergleichbarer Weise kommerziell verwerten, noch wissen die betroffenen Personen in den meisten Fällen wer ihre Daten für welche Zwecke kommerzialisiert. Unregulierter Datenhandel befeuert diese Probleme durch unüberschaubare Transaktionsketten, die Verantwortlichkeiten verschleiern, Zweckbindung untergraben und Datensicherheit gefährden.
Das Missbrauchsrisiko der Konzentration extrem großer Datenmengen über ganze Bevölkerungen bei einzelnen Akteuren – staatlich oder privatwirtschaftlich – liegt auf der Hand. Kombiniert mit prädiktiver Analytik kann jedes Detail dazu genutzt werden, Personen zu gruppieren und ihnen Eigenschaften zuzuschreiben, die sie nicht einmal selbst kennen. Unabhängig davon, ob diese Zuschreibungen zutreffen oder nicht, geht ein massiver Kontrollverlust über die Selbstdarstellung und eine Beschneidung individueller Autonomie einher. Diskriminierungen sind zahlreich dokumentiert, die gezielte Verbreitung von Falschinformationen an ausgewählte Personengruppen vergiftet die gesellschaftliche Debatte. Verstärkt wird zudem eine Gefährdung der nationalen Sicherheit diskutiert. Denn wenig überraschend ermöglichen die immensen Datenbestände Vorhersagen über nahezu jede Person und nehmen damit Mitarbeiter:innen von Regierungen, Geheimdiensten oder anderen sicherheitsrelevanten staatlichen Behörden nicht aus.


Datenschutzrecht und Vollzugsprobleme

Ausgehend von dem was über die Praktiken vieler Data Broker bekannt ist, erscheint vieles, was heute offenbar gängige Praxis ist, schlicht rechtswidrig. Dies gilt insbesondere hinsichtlich Einwilligung, Ermächtigungsgrundlagen und Zweckbindung. Auch die Vereinbarkeit mit datenschutzrechtlichen Grundprinzipien wie der Datenminimierung ist höchst fraglich.
Die DSGVO ist bei der Verarbeitung personenbezogener Daten einschlägig. Auch ein „Verschenken“ von Daten wie im Fall der Data Trade-Recherche ist eine rechtlich relevante Datenverarbeitung. Personenbezogene Daten nach dem Verständnis der DSGVO liegen dann vor, wenn eine Information über eine natürliche identifizierte oder identifizierbare Person enthalten ist. Data Broker werden in der überwiegenden Mehrheit der Fälle personenbezogene Daten verarbeiten, da diese für die Nachnutzung zu Profiling-, Werbe- und Vorhersagezwecken besonders interessant sind. Für die Klassifikation als personenbezogenes Datum iSd. Art. 4 Nr. 1 DSGVO kommt es auch nicht darauf ab, ob die Zuschreibungen, wie die Zuordnung in eine bestimmte Altersklasse, die sexuelle Orientierung oder die Prädisposition für bestimmte Krankheiten faktisch korrekt sind oder nicht.
Die im Zuge der Datarade-Recherche übermittelten Standortdaten sind personenbezogene Daten unter Art. 4 Nr. 1 DSGVO, der ausführt: „als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten […].“ (so auch zum TC-String EuGH C- 604/22). Auch die Praxis der Recherche zeigte, dass Personen aufgrund ihrer Bewegungsmuster identifizierbar waren.
Wer personenbezogene Daten verarbeitet, benötigt nach der DSGVO eine Rechtsgrundlage. Die nach Art. 6 Abs. 1 DSGVO erforderliche Ermächtigungsgrundlage, sowie die ggf. zusätzlichen Anforderungen des Art. 9 Abs. 2 DSGVO, für die Verarbeitung besonderer Kategorien personenbezogener Daten ist in vielen Fällen des Datenhandels fraglich. Verantwortlich für Darlegung und Nachweis ist der jeweilige Data Broker nach Art. 5 Abs. 2 DSGVO.
Eine Einwilligung nach Art. 6 Abs. 1 a), 7 DSGVO wird in der Praxis nicht eingeholt, da die betroffenen Datensubjekte an den Transaktionen nicht beteiligt sind. Die Einwilligung gegenüber der Verantwortlichen, die Daten direkt von den Datensubjekten erhebt, z.B. Webseitenbetreiber:innen erstreckt sich nicht auf den unbegrenzten weiteren Verkauf dieser Daten an zu diesem Zeitpunkt noch nicht identifizierbare Dritte (zu den grundlegenden Problemen der Einwilligung im Online-Kontext auch hier).
Es verbleibt die Rechtsgrundlage des legitimen Interesses, Art. 6 Abs. 1 f) DSGVO, die grundsätzlich bspw. für Direktwerbung einschlägig ist, vgl. Erwgr. 47 DSGVO. Danach muss die Verarbeitung zur Wahrung der berechtigten Interessen des Verantwortlichen erforderlich sein und die Interessen der betroffenen Person dürfen nicht überwiegen. Für die erforderliche Interessenabwägung sind u.a. das wirtschaftliche Interesse an der Verarbeitung, die vernünftigen Erwartungen der betroffenen Person zu berücksichtigen und die Datenschutzprinzipien zu berücksichtigen.
Die Systematik der DSGVO und die Rechtsprechung des EuGH gehen nicht davon aus, dass Betroffene schlicht schutzlos gestellt werden, weil ubiquitäre Datenschutzverstöße im Online-Bereich begangen werden. Betroffene müssen also nicht damit rechnen, dass ihre anderweitig erhobenen Daten an eine unüberschaubare Anzahl von Dritten zu ihnen nicht bekannten Zwecken weiterverkauft werden. Zwar genießen bspw. von den Betroffenen selbst öffentlich gemachte Daten einen geringeren Schutz; die erstellten Profile und Gruppierungen wurden aber von den Betroffenen gerade nicht selbst öffentlich gemacht. Dies führt zu der generellen Problematik der DSGVO und KI, da die Abgrenzung zu besonderen Kategorien personenbezogener Daten nach Art. 9 Abs. 1 DSGVO faktisch unmöglich wird, wenn Vorhersagemodelle Zuschreibungen jeglicher Art aus nicht-sensiblen Daten ableiten können (Art. 9 Abs. 1 DSGVO spricht von „hervorgehen“).
Bedenken bestehen zudem hinsichtlich der Zweckbindung, Art. 5 Abs. 1 b) DSGVO, die durch den mehrfachen Verkauf oder Weiterverarbeitung von Daten schlicht ausgehöhlt wird. In Bezug auf den Adresshandel sind verschiedene Datenschutzbeauftragte der Auffassung, dass dieser nicht mehr auf das legitime Interesse gestützt werden kann. Die maximale Intransparenz der Branche führt neben den strukturellen Problemen des Datenschutzrechts mit datenintensiven Digitaltechnologien zudem zu massiven Vollzugsproblemen, da schlicht zu wenig über die beteiligten Akteure und Handelsströme bekannt ist.


Regelungslücke Datenmarktplätze?

Der Fall Datarade ist nicht nur rechtspolitisch brisant, weil das Unternehmen Investitionen vom High-Tech Gründerfonds erhielt, der wiederum zu über 50% vom BMWK finanziert wird, sondern offenbart auch eine Rechtsschutzlücke, die über die Vollzugsdefizite der DSGVO-Verstöße hinausgeht. Denn Datarade verarbeitet nach eigener Aussage die gehandelten Daten nicht selbst, sondern fungiert nur als Intermediär zwischen zwei Parteien, die ihrerseits ein Datenhandelsgeschäft abschließen möchten. Datarade ist damit ein Datenmarktplatz, auf dem sich Geschäfte anbahnen können und zeichnet sich, wie viele andere Plattformen, für die konkreten Inhalte als nicht verantwortlich. Dies verdeutlicht einerseits den Bedarf, Infrastrukturen und nicht nur einzelne Datenverarbeitungsvorgänge regulatorisch in den Blick zu nehmen, andererseits die Schwierigkeiten dies konkret umzusetzen. Die Bereitstellung von Märkten ist legitim, es liegt in der Natur von Intermediären nicht jeden einzelnen Inhalt oder jede Transaktion kontrollieren zu können. Dennoch fehlt es überhaupt an Grundpflichten für Datenmarktplätze, gegen offensichtliche oder strukturelle Rechtsverstöße vorzugehen.
Spannend ist die Frage, ob Datenhandelsplätze unter den Digital Services Act fallen und dadurch bestimmten Pflichten für Intermediäre unterliegen. Unabhängig davon, ob Datenhandelsplätze als Vermittlungsdienste iSd. Art. 3 g) DSA gelten können, zielen die Pflichten des DSA auf die Moderation von Inhalten zum Schutz von Verbraucher:innen und weniger auf die Vermittlung von Transaktionen im B2B Verhältnis. Eine allgemeine Verpflichtung zur Überwachung rechtswidriger Inhalte besteht zudem nach Art. 8 DSA nicht.
Die KI-VO adressiert wenig überraschend die Problematik des Datenhandels nicht, sondern reguliert KI-Systeme ab dem Zeitpunkt des Marktzugangs (mit der Ausnahme der Vorschriften zu KI-Reallaboren Art. 57 ff) und nicht die Akquise der notwendigen Trainingsdaten im Vorfeld. Wichtig ist dennoch, dass die KI-VO im Anhang III Hochrisiko-Einsatzkontexte definiert, die Diskriminierungsgefahren vorbeugen sollen, z.B. Creditscoring oder die Vergabe öffentlicher Leistungen. Die Qualitätsvorschriften für den Output von KI-Systemen lösen die vorgelagerte Problematik des Datenhandels für Privatheit und Datenschutz nicht.


Reformbedarf: Kalifornien als Vorbild?

In Kalifornien sieht das „Data Broker Registration Law“ umfangreiche Pflichten für Data Broker vor. Data Broker werden als „Unternehmen, das wissentlich personenbezogene Daten eines Verbrauchers, zu dem das Unternehmen keine direkte Beziehung unterhält, sammelt und an Dritte verkauft.“ definiert. Diese Unternehmen müssen sich bei der California Privacy Protection Agency registrieren, zudem wurde ein One-Stop-Mechanismus erlassen, der Verbraucher:innen erlaubt, ihre gesamten personenbezogenen Daten mit einer Anfrage löschen zu lassen.
Eine Registrierungspflicht für Data Broker ist der erste Schritt, hinreichende Informationen und Transparenz zu schaffen, um in einem zweiten Schritt den Vollzug zu vereinfachen. Zudem würden Abgrenzungsfragen verklart werden. Aus Verbraucher:innensicht wird der Vollzug durch einen One-Stop-Mechanismus erheblich vereinfacht und entbindet von der mühseligen Durchsetzung einzelner Betroffenenrechte unter der DSGVO, die sich insbesondere aufgrund der Unkenntnis als schwierig gestaltet.


Schlusskritik

Im Kontext von Datarade werden nun viele Forderungen laut, den Datenmarkt stärker zu regulieren. Dies erscheint erfolgsversprechend, ist aber sehr kompliziert umzusetzen. Neben der Schaffung neuer Rechtsvorgaben bedarf es vor allem politischen Willens, mehr Ressourcen in behördliche Aufsichtsstrukturen zu investieren (Stichwort: irische Datenschutzbehörde). Die rechtspolitische Debatte hat zudem auch eine diskursanalytische Komponente: die beispiellose Lobbyarbeit rund um die KI-VO hat deutlich gezeigt, dass datenintensive, digitale Technologien weiterhin zu unkritisch mit Innovation gleichgesetzt werden, die zu Fortschritt, Wohlstand und Wachstum beitragen sollen und ohne die westliche Demokratien in einen vermeintlichen Rückstand geraten. Es handelt sich dabei aber nicht allein um technische Entwicklungen, von denen Gesellschaften generell profitieren, sondern um sozio-technische Machtverschiebungen, die inhärent mit den Geschäftsmodellen der beteiligten Akteure verwoben sind. Kein legitimes wirtschaftliches Interesse rechtfertigt die immense Datenmacht einer Handvoll global agierender Firmen, die sich strukturell Regulierungsvorgaben entziehen. Das Narrativ einer durchdigitalisierten Datengesellschaft wird durch bestimmte Techniken, wie nun generative KI, und den damit verbundenen Akteuren definiert und führt zu einer nahezu globalen Abhängigkeit von Produkten und Infrastrukturen einzelner Firmen, wie das CrowdStrike Fiasko vor einigen Wochen vor Augen geführt hat. Auch in Bezug auf Datenhandel ist daher eine kritische und informierte Debatte erforderlich, wie eine Datenwirtschaft gestaltet sein kann, die einen Ausgleich zwischen privaten und öffentlichen, demokratischen und gemeinschaftlichen Interessen geschaffen werden kann.

https://creativecommons.org/licenses/by-sa/4.0/legalcode
Ruschemeier, Hannah: Schattenwirtschaft Datenhandel, VerfBlog, 2024/8/14

https://doi.org/10.59704/c42abe13675b8c27


KI-Textgeneratoren: Reproduzierbarkeit und Erklärbarkeit als Herausforderungen in der Forschung

1 Einleitung

Die rasante Entwicklung von Künstlicher Intelligenz (KI) hat in den letzten Jahren zu erstaunlichen Fortschritten geführt, insbesondere im Bereich der natürlichen Sprachverarbeitung. Große Sprachmodelle wie GPT-3 und speziell ChatGPT sind zu Aushängeschildern dieser technologischen Revolution geworden. Diese Modelle können Texte generieren, die menschlichem Schreiben verblüffend ähnlich sind und haben das Potenzial, eine Vielzahl von Anwendungen zu transformieren, von automatisierten Kundensupport-Chatbots bis hin zur Unterstützung von Schriftstellern bei der Texterstellung.
Während diese Fortschritte zweifellos aufregend sind, haben sie auch eine neue Reihe von Herausforderungen und Fragen aufgeworfen, die die Forschungs- und Entwicklergemeinschaften gleichermaßen beschäftigen. In dieser Ära großer Sprachmodelle sind die Reproduzierbarkeit von Forschungsergebnissen und die Erklärbarkeit der Entscheidungen dieser Modelle zu zentralen Anliegen geworden.
Die Reproduzierbarkeit von Forschungsergebnissen ist ein Grundpfeiler der wissenschaftlichen Methodik. Sie gewährleistet, dass die in wissenschaftlichen Arbeiten beschriebenen Ergebnisse von anderen Forschenden unabhängig überprüft werden können. Traditionell war die Reproduzierbarkeit in vielen wissenschaftlichen Disziplinen relativ unproblematisch. Forschungsergebnisse wurden in Form von Fachartikeln veröffentlicht, die detaillierte Informationen über die Methoden, die verwendeten Daten und den Code enthielten. Andere Personen in der Wissenschaft konnten diese Informationen nutzen, um die Experimente zu wiederholen und die Ergebnisse zu verifizieren. In der Ära großer Sprachmodelle ist diese Reproduzierbarkeit jedoch gefährdet. Modelle wie ChatGPT sind nicht öffentlich zugänglich und können nur über externe Server genutzt werden. Forschende, die diese Modelle verwenden möchten, sind daher auf die Bereitstellung solcher Dienste angewiesen. Dies führt zu einer starken Abhängigkeit von den externen Modellen und den bereitgestellten Schnittstellen.
Das Problem dabei ist, dass Forschende keine Kontrolle über die Modellversionen haben, die sie verwenden, und keinen Zugriff auf den zugrunde liegenden Code haben, um Anpassungen vorzunehmen. Dies erschwert die Reproduzierbarkeit erheblich. Es gibt keine Möglichkeit, sicherzustellen, dass die Modellversion, die bei der Durchführung eines Experiments verwendet wurde, auch zu einem späteren Zeitpunkt verfügbar ist. Dies ist insbesondere problematisch, da externe Modelle sich im Laufe der Zeit ändern können, sei es durch Aktualisierungen oder Modifikationen seitens der Anbieter.
Die mangelnde Reproduzierbarkeit ist nicht nur ein methodisches Problem, sondern hat auch weitreichende Auswirkungen auf die Glaubwürdigkeit von Forschungsergebnissen und den wissenschaftlichen Fortschritt. Wenn andere Forschende nicht in der Lage sind, die Experimente zu wiederholen und die Ergebnisse zu überprüfen, kann die Grundlage für die wissenschaftliche Methode untergraben werden. Dies kann zu einer Erosion des Vertrauens in die Forschung führen und den Fortschritt in vielen Disziplinen behindern. Ein weiteres bedeutendes Problem, das sich aus der Verwendung großer Sprachmodelle ergibt, betrifft die Erklärbarkeit der Ergebnisse. Diese Modelle, insbesondere solche, die auf neuronalen Netzen basieren, sind als „black box“ bekannt. Das bedeutet, dass sie äußerst komplexe interne Strukturen haben, die schwer verständlich sind. Obwohl wir die Ausgaben dieser Modelle beobachten können, ist die Interpretation des Generationsprozesses und der zugrunde liegenden Entscheidungen äußerst herausfordernd.
Wenn ein Text von einem Sprachgenerator wie ChatGPT erstellt wird, ist es schwer nachzuvollziehen, warum genau dieser Text generiert wurde und welche internen Gewichtungen und Muster dazu geführt haben. Dies stellt eine erhebliche Barriere dar, insbesondere wenn es darum geht, derartige Modelle in sensiblen Anwendungsbereichen einzusetzen, bei denen eine klare Erklärbarkeit der Entscheidungen unerlässlich ist. Insbesondere gilt dies für Anwendungen im medizinischen Bereich, in der Rechtsprechung oder in der Finanzindustrie, wo es entscheidend ist, nachvollziehen zu können, wie eine Entscheidung getroffen wurde.
Die Erklärbarkeit von KI-Systemen ist jedoch nicht nur aus ethischer Sicht wichtig. Sie hat auch praktische Auswirkungen auf die Anwendung und Akzeptanz dieser Systeme in der Gesellschaft. Menschen neigen dazu, Technologien eher zu akzeptieren und zu vertrauen, wenn sie verstehen, wie sie funktionieren und welche Entscheidungen sie treffen. Intransparente KI-Systeme können Ängste und Misstrauen schüren, was ihre breite Akzeptanz behindert.
Die Ära großer Sprachmodelle hat zweifellos das Potenzial, bahnbrechende Fortschritte in der menschlichen Kommunikation und Kreativität zu bringen. Dennoch müssen wir die Herausforderungen in Bezug auf Reproduzierbarkeit und Erklärbarkeit ernst nehmen, um sicherzustellen, dass diese Modelle verantwortungsbewusst eingesetzt werden können. Die Förderung offener Praktiken und die Erforschung der Erklärungsmethoden sind entscheidende Schritte auf dem Weg zu einer transparenten und verlässlichen KI-Zukunft.


2 Reproduzierbarkeitsherausforderungen

Die Reproduzierbarkeit von Forschungsergebnissen ist ein grundlegendes Prinzip wissenschaftlicher Methodik. Sie stellt sicher, dass die in wissenschaftlichen Arbeiten beschriebenen Ergebnisse von anderen Forschenden unabhängig überprüft und validiert werden können. Dieses Prinzip ist besonders in den Natur- und Sozialwissenschaften von großer Bedeutung, da es die Grundlage für den wissenschaftlichen Fortschritt und die Glaubwürdigkeit der Forschung bildet. Allerdings sind die Fortschritte in der Künstlichen Intelligenz (KI) und insbesondere im Bereich der großen Sprachmodelle, wie ChatGPT, zu einer Herausforderung für die Reproduzierbarkeit geworden.


2.1 Externe Abhängigkeit und mangelnde Kontrolle

Eine der zentralen Herausforderungen in Bezug auf die Reproduzierbarkeit in der Ära großer Sprachmodelle besteht darin, dass diese Modelle nicht öffentlich zugänglich sind und auf externen Servern betrieben werden. Forschende sind daher angewiesen, auf diese externen Dienste zuzugreifen, um ihre Experimente durch-zuführen. Dies führt zu einer starken Abhängigkeit von den externen Modellen und den bereitgestellten Schnittstellen.
Die Abhängigkeit von externen Modellen hat mehrere nachteilige Auswirkungen auf die Reproduzierbarkeit. Erstens haben Forschende keine Kontrolle über die Wartung und Aktualisierung dieser Modelle. Die Modelle können sich im Laufe der Zeit ändern, sei es durch Modellverbesserungen, Aktualisierungen der Trainingsdaten oder andere Faktoren. Dies bedeutet, dass die Modellversion, die Forschende in ihrer Arbeit verwendet haben, möglicherweise nicht mehr verfügbar ist oder sich von der aktuellen Version unterscheidet. Dies erschwert die Nachvollziehbarkeit von wissenschaftlichen Ergebnissen erheblich.

Zweitens können externe Dienste unerwartet unzugänglich werden oder ihre Nutzungseinschränkungen können sich ändern. Die Wissenschaft könnte plötzlich den Zugriff auf das Modell verlieren oder mit neuen Nutzungsbedingungen konfrontiert werden, die ihre Forschung behindern. Dies führt zu Unsicherheiten in Bezug auf die Verfügbarkeit und die Bedingungen für die Nutzung der Modelle.


2.2 Datenabhängigkeit und Datenschutz

Ein weiterer Aspekt der Reproduzierbarkeitsherausforderungen betrifft die Abhängigkeit von den Trainingsdaten, die für die großen Sprachmodelle verwendet werden. Diese Modelle werden auf umfangreichen Textkorpora trainiert, die oft aus öffentlich verfügbaren Texten im Internet stammen. Die genaue Zusammensetzung dieser Trainingsdaten ist jedoch selten vollständig dokumentiert und kann sich im Laufe der Zeit ändern.
Die Abhängigkeit von diesen Trainingsdaten macht es schwierig, Experimente zu reproduzieren, da Forschende möglicherweise nicht über die gleichen Daten verfügen wie die ursprünglichen Modellentwickler. Selbst wenn die gleichen Daten verfügbar sind, könnten sie in der Zwischenzeit verändert oder aktualisiert worden sein, was zu Unterschieden in den Ergebnissen führen kann.

Darüber hinaus gibt es Bedenken hinsichtlich des Datenschutzes bei der Verwendung von großen Textkorpora für das Training von Sprachmodellen. Diese Korpora können sensible Informationen enthalten, und die Verwendung solcher Daten ohne angemessene Anonymisierung und Einwilligung kann Datenschutzprobleme aufwerfen. Dies stellt eine weitere Hürde für die Reproduzierbarkeit dar, da Forschende möglicherweise eingeschränkten Zugang zu den für das Training verwendeten Daten haben.


2.3 Transparenz und Mangel an Dokumentation

Die Transparenz des Trainingsprozesses und der Modellarchitekturen ist ein weiteres zentrales Thema in Bezug auf die Reproduzierbarkeit. In vielen Fällen fehlt es an ausreichender Dokumentation darüber, wie genau die Modelle trainiert wurden, welche Daten verwendet wurden und welche Vorverarbeitungsschritte angewendet wurden. Dies erschwert die Nachvollziehbarkeit und Reproduzierbarkeit erheblich, da Forschende nicht genau wissen, wie die Modelle erstellt wurden.
Die mangelnde Transparenz erstreckt sich auch auf die Modellarchitekturen selbst. Große Sprachmodelle wie ChatGPT haben komplexe interne Strukturen mit Millionen von Parametern, die schwer zu verstehen und zu analysieren sind. Forschende haben oft nur begrenzten Einblick in die Funktionsweise dieser Modelle, was es schwierig macht, ihre Entscheidungen und Vorhersagen nachzuvollziehen.
Die Reproduzierbarkeit von Forschungsergebnissen in der Ära großer Sprachmodelle ist eine komplexe Herausforderung, die die wissenschaftliche Gemeinschaft ernsthaft angehen muss. Die Abhängigkeit von externen Modellen und Trainingsdaten, mangelnde Transparenz und unzureichende Dokumentation sind zentrale Probleme. Dennoch gibt es Möglichkeiten, diese Herausforderungen zu bewältigen, indem offene Praktiken gefördert werden, die Transparenz erhöht wird und Datenschutzrichtlinien beachtet werden. Die Gewährleistung der Reproduzierbarkeit ist entscheidend, um sicherzustellen, dass die Forschung in der KI weiterhin auf verlässlichen Grundlagen aufbaut und für die wissenschaftliche Gemeinschaft von Nutzen ist.


3 Erklärbarkeitsherausforderungen

Die Erklärbarkeit von KI-Modellen, insbesondere von neuronalen Netzwerken, ist zu einem der zentralen Themen in der KI-Forschung geworden.² In der Ära großer Sprachmodelle wie ChatGPT sind diese Herausforderungen noch drängender. Wir stehen vor der Schwierigkeit, hochkomplexe Modelle zu verstehen, die menschenähnlichen Text generieren können, aber gleichzeitig als „black boxes“ gelten.


3.1 Die Komplexität von neuronalen Netzwerken

Neuronale Netzwerke sind die Grundbausteine von modernen Sprachgeneratoren. Diese Netzwerke sind in der Lage, riesige Mengen an Daten zu verarbeiten und komplexe Muster zu erlernen. Allerdings geht diese Leistungsfähigkeit mit einer hohen Komplexität einher. Ein neuronales Netzwerk besteht aus Tausenden oder sogar Milliarden von Neuronen und Gewichtungen, die miteinander interagieren. Die interne Struktur solcher Netzwerke ist äußerst schwer nachvollziehbar.


3.2 Die „Black Box“ der Entscheidungsfindung

Die Entscheidungsfindung in einem neuronalen Netzwerk erfolgt durch das Durchlaufen einer Vielzahl von Neuronen und Gewichtungen. Wenn ein Sprachgenerator wie ChatGPT einen Text generiert, geschieht dies aufgrund einer komplexen Abfolge von Berechnungen. Obwohl wir die Ausgaben dieser Berechnungen sehen können, bleibt die Interpretation des Prozesses äußerst herausfordernd. Dies ist vergleichbar mit dem Versuch, das Verhalten eines komplexen chemischen Reaktionssystems zu erklären, ohne die genaue Struktur und Interaktion der Moleküle zu kennen.

Die Tatsache, dass neuronale Netzwerke als „black boxes“ gelten, bedeutet, dass wir Schwierigkeiten haben, den internen Entscheidungsprozess nachzuvollziehen. Warum hat das Modell genau diesen Satz generiert? Welche Faktoren haben zu dieser Entscheidung geführt? Diese Fragen sind schwer zu beantworten, da wir keinen klaren Einblick in die internen Abläufe des Netzwerks haben.


3.3 Herausforderungen in der Praxis

Die mangelnde Erklärbarkeit von KI-Modellen wie ChatGPT hat erhebliche Auswirkungen auf deren Anwendbarkeit in verschiedenen Bereichen. In sensiblen Anwendungsbereichen, wie der Rechtswissenschaft, der Medizin oder der Finanzbranche, ist es von entscheidender Bedeutung, dass Entscheidungen nachvollziehbar sind. Wenn ein KI-Modell eine Empfehlung ausspricht oder eine Entscheidung trifft, muss es möglich sein, diese Entscheidung zu erklären.

Ein Beispiel ist die medizinische Diagnose. Wenn ein KI-Modell eine bestimmte Krankheit diagnostiziert, müssen sowohl das medizinische Personal als auch Patientinnen verstehen können, warum diese Diagnose gestellt wurde. Eine intransparente „black box“-Diagnose ohne nachvollziehbare Erklärung wäre inakzeptabel und könnte zu schwerwiegenden Konsequenzen führen. In der Rechtswissenschaft ist die Erklärbarkeit ebenfalls von entscheidender Bedeutung. Wenn ein KI-Modell zur Entscheidungsunterstützung in Gerichtsverfahren eingesetzt wird, müssen Richterinnen, Anwält*innen in der Lage sein, die Grundlagen dieser Entscheidungen zu verstehen und zu überprüfen. Dies ist notwendig, um sicherzustellen, dass die Rechte und Interessen der Beteiligten gewahrt bleiben.
Die Erklärbarkeit von KI-Modellen, insbesondere in der Ära großer Sprachmodelle, ist eine komplexe Herausforderung. Die Schwierigkeit, hochkomplexe „black box“-Modelle zu verstehen, birgt Risiken in sensiblen Anwendungsbereichen. Dennoch sind Fortschritte bei der Erklärbarkeit entscheidend, um das Vertrauen in KI-Systeme zu stärken und ihre Verwendung in wichtigen Anwendungsgebieten zu ermöglichen. Durch die Entwicklung von Erklärungstechniken, interpretierbaren Modellen und verstärkter Transparenz können wir hoffentlich den Weg zu einer transparenten und verlässlichen KI-Zukunft ebnen.


4 Förderung der Reproduzierbarkeit

Die Reproduzierbarkeit von Forschungsergebnissen ist ein grundlegendes Qualitätskriterium in der Wissenschaft. Sie ermöglicht es, die Ergebnisse wissenschaftlicher Arbeiten von anderen Forschenden unabhängig zu überprüfen und zu bestätigen. In der Ära großer Sprachmodelle wie ChatGPT ist die Reproduzierbarkeit jedoch zunehmend erschwert. Innovative Ansätze und Lösungen sind erforderlich, um die Integrität und Glaubwürdigkeit der Forschung in diesem Bereich zu gewährleisten.


4.1 Transparenz im Trainingsprozess

Eine der wichtigsten Maßnahmen zur Förderung der Reproduzierbarkeit besteht darin, den Trainingsprozess von Sprachmodellen transparenter zu gestalten. In vielen Fällen sind die genauen Details des Trainingsprozesses, einschließlich der verwendeten Daten, der Hyperparameter und der Architektur, nicht öffentlich verfügbar. Dies erschwert es anderen Forschenden, die gleichen Experimente durchzuführen und die Ergebnisse zu replizieren.

Um diesem Problem zu begegnen, sollten Entwickler von Sprachmodellen die Trainingsprozesse dokumentieren und öffentlich zugänglich machen. Dies könnte in Form von ausführlichen Trainingsprotokollen erfolgen, die alle relevanten Informationen enthalten. Dazu gehören Details zur Datenpräparation, zur Auswahl der Hyperparameter und zur Architektur des Modells. Durch die Bereitstellung dieser Informationen können andere Forschende den Trainingsprozess nachvollziehen und die gleichen Bedingungen schaffen, um die Ergebnisse zu reproduzieren.


4.2 Open-Source-Modelle

Eine weitere wichtige Initiative zur Verbesserung der Reproduzierbarkeit besteht darin, Sprachmodelle als Open-Source-Projekte zur Verfügung zu stellen. Dies bedeutet, dass der Quellcode des Modells öffentlich zugänglich ist und von der Gemeinschaft überprüft und erweitert werden kann. Open-Source-Modelle bieten mehr Transparenz und ermöglichen es der Forschungsgemeinschaft, den gesamten Modellstack zu überprüfen und anzupassen.
Ein gutes Beispiel für ein Open-Source-Sprachmodell ist OpenAI GPT-2. Nach anfänglichen Bedenken hinsichtlich Missbrauchsrisiken entschied sich OpenAI, den GPT-2-Quellcode und die Modellgewichte der Öffentlichkeit zugänglich zu machen. Dies ermöglichte es der Forschungsgemeinschaft, das Modell zu analysieren, zu verbessern und neue Anwendungen zu entwickeln. Dieser Schritt förderte nicht nur die Reproduzierbarkeit, sondern auch die Zusammenarbeit und Innovation in der KI-Forschung.


4.3 Standardisierte Benchmarks und Evaluationsverfahren

Um die Reproduzierbarkeit in der KI-Forschung zu fördern, ist es wichtig, standardisierte Benchmarks und Evaluationsverfahren zu etablieren. Dies bedeutet, dass bestimmte Datensätze und Metriken zur Evaluierung von Modellen in der gesamten Gemeinschaft akzeptiert und verwendet werden. Durch die Verwendung dieser standardisierten Maßstäbe können Forschende ihre Modelle auf den gleichen Grundlagen testen, was die Vergleichbarkeit und Nachvollziehbarkeit erhöht.
Ein Beispiel für einen solchen Standard ist der Penn Treebank-Datensatz, der oft in der natürlichen Sprachverarbeitung verwendet wird. Forschende können ihre Modelle anhand dieses Datensatzes testen und die Ergebnisse miteinander vergleichen, da eine gemeinsame Grundlage besteht. Die Schaffung und Förderung solcher Standards erleichtert es Forschenden, ihre Experimente zu replizieren und sicherzustellen, dass die Ergebnisse konsistent sind.


4.4 Datenzugang und Datentransparenz

Neben der Transparenz im Trainingsprozess ist der Zugang zu den verwendeten Daten entscheidend für die Reproduzierbarkeit. Oftmals sind große Sprachmodelle auf umfangreiche Textdatenbanken angewiesen, um effektiv zu funktionieren. Forschende, die diese Modelle verwenden, sollten daher bestrebt sein, den Zugang zu den verwendeten Daten zu erleichtern.
Eine Möglichkeit, den Zugang zu Daten zu fördern, besteht darin, offene und frei zugängliche Datensätze zu verwenden, die von der Forschungsgemeinschaft gepflegt werden. Dies ermöglicht es anderen Forschenden, auf die gleichen Daten zuzugreifen und ihre Experimente zu wiederholen. Wenn es notwendig ist, Daten aufgrund von Datenschutzbedenken zu beschränken, sollten Forschende alternative Wege zur Verfügung stellen, um auf aggregierte und anonymisierte Daten zuzugreifen.


4.5 Reproduzierbarkeit als Teil der Forschungskultur

Schließlich ist es wichtig, die Bedeutung der Reproduzierbarkeit als integralen Bestandteil der Forschungskultur zu betonen. Forschende sollten sich bewusst sein, dass die Fähigkeit, ihre Experimente zu replizieren und die Ergebnisse zu verifizieren, ein entscheidender Schritt zur Sicherung der wissenschaftlichen Integrität ist. Dies erfordert eine Kultur des Teilens von Ressourcen, Informationen und bewährten Praktiken.
Konferenzen, Journale und wissenschaftliche Institutionen können ebenfalls dazu beitragen, die Reproduzierbarkeit zu fördern, indem sie Richtlinien und Anreize für transparente und reproduzierbare Forschung setzen. Dies könnte die Einreichung von reproduzierbaren Experimenten und das Teilen von Daten und Code als Voraussetzung für die Veröffentlichung von Forschungsarbeiten umfassen.
Die Förderung der Reproduzierbarkeit in der Ära großer Sprachmodelle ist von entscheidender Bedeutung, um sicherzustellen, dass die Forschung in diesem Bereich vertrauenswürdig und nachvollziehbar ist. Transparenz im Trainingsprozess, Open-Source-Modelle, standardisierte Benchmarks, Datenzugang und die Integration von Reproduzierbarkeit in die Forschungskultur sind Schlüsselkomponenten, um dieses Ziel zu erreichen. Durch die Umsetzung dieser Maßnahmen können wir sicherstellen, dass die KI-Forschung auf einer soliden Grundlage steht und die Ergebnisse für die gesamte wissenschaftliche Gemeinschaft zugänglich und nachvollziehbar sind.


5 Verbesserung der Erklärbarkeit

Die Erklärbarkeit von KI-Systemen, insbesondere von neuronalen Netzen, ist ein zentrales Anliegen in der Forschung und Entwicklung von Künstlicher Intelligenz. In der Ära großer Sprachmodelle, wie ChatGPT, stellt die Erklärbarkeit eine besondere Herausforderung dar. Diese Modelle sind aufgrund ihrer tiefen und komplexen Strukturen oft schwer nachvollziehbar. Dennoch gibt es verschiedene An-sätze und Techniken, um die Erklärbarkeit zu verbessern und sicherzustellen, dass Entscheidungen und Ergebnisse dieser Modelle besser verstanden werden können.


5.1 Visualisierung von Entscheidungsprozessen

Eine Möglichkeit, die Erklärbarkeit von KI-Modellen zu verbessern, besteht darin, Entscheidungsprozesse visuell darzustellen. Dies kann auf verschiedene Arten geschehen. Zum Beispiel könnten Heatmaps verwendet werden, um zu zeigen, welche Teile des Eingabe-Textes einen größeren Einfluss auf die generierte Ausgabe haben. Auf diese Weise können Forschende und Anwender erkennen, welche Informationen für die Entscheidungsfindung des Modells am wichtigsten sind.
Ein weiterer Ansatz ist die Visualisierung der Aktivierungen in den einzelnen Schichten des neuronalen Netzes. Dies ermöglicht es, zu verstehen, welche Arten von Mustern und Informationen in den verschiedenen Schichten des Modells auftreten. Diese Visualisierungen können Aufschluss darüber geben, wie das Modell Informationen verarbeitet und welche Abstraktionsebenen es entwickelt.
Darüber hinaus können t-SNE-Visualisierungen verwendet werden, um die Verteilung von Textdaten im Modellraum darzustellen. Dies ermöglicht es, ähnliche Textabschnitte zu identifizieren und zu verstehen, wie das Modell Texte gruppiert. Solche Visualisierungen können nützliche Einblicke in die Arbeitsweise des Modells bieten.


5.2 Erklärungstechniken und Attributionsverfahren

Eine Vielzahl von Erklärungstechniken und Attributionsverfahren ist entwickelt worden, um die Entscheidungsfindung von KI-Modellen zu beleuchten. Diese Verfahren zielen darauf ab, die Bedeutung einzelner Eingabe-Features oder -Token für die Ausgabe des Modells zu quantifizieren. Hier sind einige wichtige Ansätze:

Grad-CAM (Gradient Class Activation Mapping): Grad-CAM ist eine Technik, die in der Bildverarbeitung weit verbreitet ist und auf Textdaten angewendet werden kann. Sie zeigt, welche Teile des Eingabetextes zur Entscheidung einer bestimmten Klasse beitragen. Dies ermöglicht es, zu verstehen, welche Textstellen für die Modellausgabe am einflussreichsten sind.
LIME (Local Interpretable Model-Agnostic Explanations): LIME ist ein Modell-agnostisches Verfahren, das auf maschinellem Lernen angewendet werden kann. Es generiert eine erklärliche Näherung des Modells, indem es zufällige Perturbationen auf die Eingabedaten anwendet und die Auswirkungen auf die Ausgabe beobachtet. Dadurch kann LIME wichtige Eingabe-Features identifizieren.
SHAP (SHapley Additive exPlanations): SHAP ist ein mathematisches Konzept aus der Spieltheorie, das auf die Erklärung von Modellentscheidungen angewendet wird. Es ermöglicht eine konsistente und faire Zuordnung der Bedeutung von Features in einem Modell. SHAP-Werte können verwendet werden, um zu verstehen, wie sich die Anwesenheit oder Abwesenheit von Wörtern im Eingabetext auf die Modellausgabe auswirkt.


5.3 Interpretierbare Modelle

Eine vielversprechende Möglichkeit, die Erklärbarkeit von KI-Modellen zu erhöhen, besteht darin, Modelle zu entwickeln, die von Natur aus interpretierbarer sind. Dies kann bedeuten, auf komplexere, tiefere neuronale Netze zu verzichten und statt-dessen flachere Modelle zu verwenden. Solche Modelle sind zwar weniger leistungsstark, bieten jedoch eine höhere Erklärbarkeit.
Beispielsweise könnten Entscheidungsbäume oder Regelbasierte Modelle eingesetzt werden. Diese Modelle sind transparent und nachvollziehbar, da sie klare Regeln für Entscheidungen liefern. Obwohl sie möglicherweise nicht die gleiche Leistungsfähigkeit wie tiefe neuronale Netze aufweisen, sind sie in bestimmten Anwendungsbereichen, insbesondere solchen, bei denen rechtliche oder ethische Erwägungen eine Rolle spielen, äußerst nützlich.


5.4 Kombination von Ansätzen

In vielen Fällen ist es sinnvoll, verschiedene Erklärungstechniken und Ansätze zu kombinieren, um ein umfassendes Verständnis für die Arbeitsweise eines KI-Modells zu erhalten. Zum Beispiel könnten Visualisierungen dazu beitragen, grobe Muster und Trends aufzuzeigen, während Attributionsverfahren die Feinheiten der Entscheidungsfindung verdeutlichen. Durch die Kombination von Ansätzen können Forschende ein tieferes Verständnis für die Modellentscheidungen entwickeln.


5.5 Die Bedeutung der Erklärbarkeit in sensiblen Anwendungsbereichen

Die Verbesserung der Erklärbarkeit von KI-Modellen ist von entscheidender Bedeutung, insbesondere in sensiblen Anwendungsbereichen wie Gesundheitswesen, Recht und Finanzen. In diesen Bereichen ist es unerlässlich, dass Entscheidungen von KI-Systemen nachvollziehbar sind und erklärt werden können. Patientinnen müssen verstehen können, warum ein medizinisches Diagnosesystem eine bestimmte Empfehlung gibt, Anwältinnen müssen die Grundlage für rechtliche Entscheidungen verstehen, und Finanzexpert*innen müssen die Faktoren hinter Anlageempfehlungen verstehen können.

Die Erklärbarkeit von KI-Systemen trägt auch dazu bei, Vertrauen in diese Technologien aufzubauen. Wenn Menschen verstehen können, wie ein KI-System zu seinen Entscheidungen kommt, sind sie eher bereit, diese Entscheidungen zu akzeptieren und zu vertrauen.

Die Verbesserung der Erklärbarkeit von KI-Modellen, insbesondere großer Sprachmodelle wie ChatGPT, ist eine Herausforderung, aber auch eine Notwendigkeit. Durch die Anwendung von Visualisierungen, Erklärungstechniken, interpretierbaren Modellen und einer Kombination dieser Ansätze kann die Wissenschaftscommunity dazu beitragen, die Entscheidungsfindung von KI-Systemen transparenter zu gestalten. Dies ist entscheidend, um das Vertrauen in diese Systeme zu stärken und sicherzustellen, dass sie verantwortungsbewusst und effektiv eingesetzt werden können. Die Erklärbarkeit bleibt ein Schlüsselaspekt bei der Gestaltung der Zukunft der Künstlichen Intelligenz.


6 Fazit

In einer Zeit, in der Künstliche Intelligenz und insbesondere große Sprachmodelle wie ChatGPT die Grenzen des Möglichen in der natürlichen Sprachverarbeitung verschieben, stehen Forschende vor einer Vielzahl von Herausforderungen, die sich auf die Reproduzierbarkeit und Erklärbarkeit von Forschungsergebnissen auswirken.
Die Reproduzierbarkeit von Forschungsergebnissen ist ein Grundpfeiler der wissenschaftlichen Methode. Sie ermöglicht es, die Ergebnisse wissenschaftlicher Arbeiten von anderen Forschenden unabhängig zu überprüfen und zu bestätigen. Ohne Reproduzierbarkeit sind wissenschaftliche Erkenntnisse nicht glaubwürdig und zuverlässig. In der Ära großer Sprachmodelle ist die Reproduzierbarkeit jedoch zunehmend gefährdet, da diese Modelle oft nicht öffentlich zugänglich sind und auf externen Servern betrieben werden. Die Abhängigkeit von externen Modellen und Diensten bedeutet, dass Forschende nicht die volle Kontrolle über die experimentelle Umgebung haben. Dies wiederum erschwert die Nachvollziehbarkeit von Forschungsergebnissen erheblich. Um dieses Problem anzugehen, sollten Modelle wie ChatGPT als Open-Source-Projekte angeboten werden, bei denen der Trainingsprozess und der zugrunde liegende Code transparent dokumentiert sind. Dies würde Forschenden die Möglichkeit geben, den Trainingsprozess zu verstehen und sicherzustellen, dass sie konsistente Modellversionen verwenden. Darüber hinaus könnten standardisierte Benchmarks und Evaluationsverfahren entwickelt werden, um die Vergleichbarkeit von Forschungsergebnissen zu verbessern.
Die Erklärbarkeit von Entscheidungen und Ergebnissen ist ein weiterer Schlüsselaspekt, der in der Ära großer Sprachmodelle an Bedeutung gewinnt. Insbesondere Modelle, die auf komplexen neuronalen Netzwerken basieren, sind oft als „black box“ bekannt. Dies bedeutet, dass es schwer nachvollziehbar ist, warum ein bestimmter Text generiert wurde oder welche internen Gewichtungen und Muster zu einer bestimmten Entscheidung geführt haben.
Die Herausforderung der Erklärbarkeit wird besonders kritisch, wenn es um den Einsatz solcher Modelle in sensiblen Anwendungsbereichen geht, wie etwa in der Medizin, im Rechtswesen oder in der Ethik. In diesen Bereichen ist es entscheidend, dass Entscheidungen nachvollziehbar sind, um Vertrauen und Akzeptanz zu gewinnen.
Um die Erklärbarkeit zu verbessern, müssen Forschende Methoden entwickeln, um die Entscheidungsfindung komplexer Modelle besser zu verstehen. Dies kann die Entwicklung von Erklärungstechniken umfassen, die es ermöglichen, die internen Entscheidungsprozesse von Modellen wie ChatGPT nachzuvollziehen. Solche Techniken könnten auf Visualisierungen, Aufschlüsselungen von Gewichtungen und Einflüssen bestimmter Eingaben basieren.

Ein vielversprechender Ansatz zur Verbesserung der Erklärbarkeit könnte auch darin bestehen, Modelle zu entwickeln, die von Natur aus interpretierbarer sind. Obwohl komplexe neuronale Netze beeindruckende Leistungen erbringen können, sind sie oft schwer verständlich. Modelle mit einer höheren Erklärbarkeit könnten in Anwendungsbereichen eingesetzt werden, in denen die Nachvollziehbarkeit der Entscheidungen von entscheidender Bedeutung ist.
Die Ära großer Sprachmodelle bringt zweifellos viele Möglichkeiten und Potenziale mit sich, die die menschliche Kommunikation und Kreativität revolutionieren können. Dennoch müssen wir diese Technologien mit Bedacht einsetzen und die damit verbundenen Herausforderungen ernst nehmen.

Es ist von entscheidender Bedeutung, dass Beteiligte in Wissenschaft, Entwicklung und Industrie, die große Sprachmodelle wie ChatGPT verwenden, sich ihrer Verantwortung bewusst sind. Dies schließt die Verpflichtung zur Förderung von Reproduzierbarkeit und Erklärbarkeit ein. Nur wenn wir diese Prinzipien einhalten, können wir sicherstellen, dass die Ergebnisse und Anwendungen dieser Modelle transparent, verlässlich und ethisch vertretbar sind.

Insgesamt müssen wir in der wissenschaftlichen Gemeinschaft und darüber hinaus eine offene Diskussion über die Herausforderungen und Chancen führen, die mit großen Sprachmodellen verbunden sind. Dieser Diskurs sollte die Entwicklung von Best Practices, Ethikrichtlinien und Gesetzen zur Regulierung dieser Technologien unterstützen.
Die Ära großer Sprachmodelle hat das Potenzial, die Art und Weise, wie wir mit Text und Sprache interagieren, grundlegend zu verändern. Doch dieser Fortschritt bringt auch erhebliche Herausforderungen mit sich, insbesondere in Bezug auf Reproduzierbarkeit und Erklärbarkeit. Diese Herausforderungen sollten als Chancen betrachtet werden, die es zu bewältigen gilt, um sicherzustellen, dass wir die Vorteile dieser Technologien verantwortungsbewusst nutzen.
Die Förderung von Reproduzierbarkeit und Erklärbarkeit sollte zu einem zentralen Anliegen in der KI-Forschung und -Entwicklung werden. Indem wir transparente Praktiken etablieren, offene Diskussionen führen und innovative Lösungen entwickeln, können wir sicherstellen, dass große Sprachmodelle wie ChatGPT nicht nur leistungsfähig, sondern auch vertrauenswürdig und ethisch vertretbar sind.

Zur einfacheren Lesbarkeit wurden die Quell- und Literaturverweise entfernt.

Thomas Otmar Arnold: Herausforderungen in der Forschung: Mangelnde Reproduzierbarkeit und Erklärbarkeit, in KI:Text – Diskurse über KI-Textgeneratoren; herausgegeben von Gerhard Schreiber und Lukas Ohly; De Gruyter, Berlin, 2024

DOI https://doi.org/10.1515/9783111351490
https://creativecommons.org/licenses/by-nc-nd/4.0


© Swiss Infosec AG 2026