Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Verantwortungsvolle Künstliche Intelligenz

07/2023

Die Frage nach dem verantwortungsvollen Umgang mit künstlicher Intelligenz (KI) ist nicht neu. Doch als sich Ende 2022 innerhalb von fünf Tagen eine Million Nutzer beim Textgenerator ChatGPT anmeldeten, wurde auch die Diskussion um verantwortungsvolle KI neu entfacht und in Berufsfelder getragen, die bis dahin kaum von KI betroffen zu sein schienen: Darunter Programmierer, Journalisten und Künstler u.V.m. Um die Frage, nach verantwortungsvoller KI beantworten zu können, reicht es aber nicht aus, allein auf die positiven oder negativen Folgen zu schauen: Man muss auch nach verschiedenen Arten von KI differenzieren, weshalb sich der erste Teil dieses Beitrags mit der Definition und Anwendungsfällen von KI beschäftigt, und darauf aufbauend im zweiten Teil auf die Frage nach dem verantwortlichen Umgang eingegangen wird.

1. Definition von Künstlicher Intelligenz

Traditionell wurde KI (Künstliche Intelligenz) als Simulation intelligenten menschlichen Denkens und Handelns aufgefasst. Diese Definition krankt daran, dass „intelligentes menschliches Denken“ und „Handeln“ nicht definiert sind. Ferner wird der Mensch zum Maßstab von Intelligenz gemacht, obwohl die Evolution viele Organismen mit unterschiedlichen Graden von „Intelligenz“ hervorgebracht hat. Zudem sind wir längst in der Technik von „intelligenten“ Systemen umgeben, die zwar selbstständig und effizient, aber häufig anders als Menschen unsere Zivilisation steuern.

Umso mehr stellt sich die Frage, was macht uns Menschen aus und wie ist menschliche Autonomie zu verstehen?

Einstein hat auf die Frage, was „Zeit“ sei, kurz geantwortet: „Zeit ist, was eine Uhr misst“. Deshalb schlagen wir eine Arbeitsdefinition für Intelligenz vor, die unabhängig vom Menschen ist und von messbaren Größen von Systemen abhängt. Dazu betrachten wir Systeme, die mehr oder weniger selbstständig (autonom) Probleme lösen können. Beispiele solcher Systeme können z.B. Organismen, Gehirne, Roboter, Automobile, Smartphones oder Accessoires sein, die wir am Körper tragen (Wearables). Systeme mit unterschiedlichem Grad von Intelligenz sind aber auch z.B. Fabrikanlagen (Industrie 4.0), Verkehrssysteme oder Energiesysteme (smart grids), die sich mehr oder weniger selbstständig steuern und zentrale Versorgungsprobleme lösen. Der Grad der Intelligenz solcher Systeme hängt vom Grad der Selbstständigkeit, von der Komplexität des zu lösenden Problems und der Effizienz des Problemlösungsverfahrens ab.

Es gibt danach also nicht „die“ Intelligenz, sondern Grade von Intelligenz. Komplexität und Effizienz sind in der Informatik und den Ingenieurwissenschaften messbare Größen. Ein autonomes Fahrzeug hat danach einen Grad von Intelligenz, der vom Grad seiner Fähigkeit abhängt, einen angegebenen Zielort selbstständig und effizient zu erreichen. Es gibt bereits mehr oder weniger autonome Fahrzeuge. Der Grad ihrer Selbstständigkeit ist technisch genau definiert. Die Fähigkeit unserer Smartphones, sich mit uns zu unterhalten, verändert sich ebenfalls. Jedenfalls deckt unsere Arbeitsdefinition intelligenter Systeme die Forschung ab, die in Informatik und Technik unter dem Titel „Künstliche Intelligenz“ bereits seit vielen Jahren erfolgreich arbeitet und intelligente Systeme entwickelt:

Ein System heißt intelligent, wenn es selbstständig und effizient komplexe Probleme lösen kann. Der Grad der Intelligenz hängt vom Grad der Selbstständigkeit (Autonomie), dem Grad der Komplexität des Problems und dem Grad der Effizienz des Problemlösungsverfahrens ab. Die Liste der genannten Kriterien ist keineswegs vollständig, sondern kann im Sinn einer Arbeitsdefinition nach Bedarf erweitert werden.

Es ist zwar richtig, dass intelligente technische Systeme, selbst wenn sie hohe Grade der selbstständigen und effizienten Problemlösung besitzen, letztlich von Menschen angestoßen wurden. Aber auch die menschliche Intelligenz ist nicht vom Himmel gefallen und hängt von Vorgaben und Einschränkungen ab. Der menschliche Organismus ist ein Produkt der Evolution, die voller molekular und neuronal kodierter Algorithmen steckt. Sie haben sich über Jahrmillionen entwickelt und sind nur mehr oder weniger effizient. Häufig spielten Zufälle mit. Dabei hat sich ein hybrides System von Fähigkeiten ergeben, das keineswegs „die“ Intelligenz überhaupt repräsentiert. Einzelne Fähigkeiten des Menschen haben KI und Technik längst überholt oder anders gelöst. Man denke an Schnelligkeit der Datenverarbeitung oder Speicherkapazitäten. Dazu war keineswegs „Bewusstsein“ wie bei Menschen notwendig. Organismen der Evolution wie Stabheuschrecken, Wölfe oder Menschen lösen ihre Probleme unterschiedlich. Zudem hängt Intelligenz in der Natur keineswegs von einzelnen Organismen ab. Die Schwarmintelligenz einer Tierpopulation entsteht durch das Zusammenwirken vieler Organismen ähnlich wie in den intelligenten Infrastrukturen, die uns bereits in Technik und Gesellschaft umgeben. Auch hier lassen sich Grade des autonomen Entscheidens und Handelns unterscheiden.

2. Von der symbolischen und subsymbolischen KI zur hybriden KI

2.1 Symbolische KI: Logik und Deduktion

In einer ersten Phase orientierte sich KI an formalen (symbolischen) Kalkülen der Logik, mit denen Problemlösungen regelbasiert abgeleitet werden können. Man spricht deshalb auch von symbolischer KI. Ein typisches Beispiel ist das automatische Beweisen mit logischen Deduktionen, die sich mit Computerprogrammen realisieren lassen. Automatisierung bedeutet bis zu einem bestimmten Grad auch Autonomie, da Computerprogramme die Beweistätigkeit eines Mathematikers übernehmen. Wissensbasierte Expertensysteme sind Computerprogramme, die Wissen über ein spezielles Gebiet speichern und ansammeln, aus dem Wissen automatisch Schlussfolgerungen ziehen, um zu konkreten Problemen des Gebietes Lösungen anzubieten. Im Unterschied zum menschlichen Experten ist das Wissen eines Expertensystems aber auf eine spezialisierte Informationsbasis beschränkt ohne allgemeines und strukturelles Wissen über die Welt. Um ein Expertensystem zu bauen, muss das Wissen des Experten in Regeln gefasst werden, in eine Programmsprache übersetzt und mit einer Problemlösungsstrategie bearbeitet werden. Die Architektur eines Expertensystems besteht daher aus den folgenden Komponenten:

  • Wissensbasis,
  • Problemlösungskomponente (Ableitungssystem),
  • Erklärungskomponente,
  • Wissenserwerb,
  • Dialogkomponente.

In dieser Architektur werden zugleich die Grenzen symbolischer KI deutlich: Fähigkeiten, die nicht oder nur schwer symbolisch erfasst und regelbasiert simuliert werden können, bleiben der symbolischen KI verschlossen.

2.2 Subsymbolische KI: Statistik und Induktion

Sensorische und motorische Fähigkeiten werden nicht aus Lehrbuchwissen logisch abgeleitet, sondern aus Beispielen erlernt, trainiert und eingeübt. So lernen wir, uns motorisch zu bewegen und in einer Vielzahl sensorischer Daten Muster und Zusammenhänge zu erkennen, an denen wir unser Handeln und Entscheiden orientieren können. Da diese Fähigkeiten nicht von ihrer symbolischen Repräsentation abhängen, spricht man auch von subsymbolischer KI. An die Stelle der formalen Schlüsse der Logik tritt nun die Statistik der Daten. Beim statistischen Lernen sollen allgemeine Abhängigkeiten und Zusammenhänge aus endlich vielen Beobachtungsdaten durch Algorithmen abgeleitet werden. An die Stelle der Deduktion in der symbolischen KI tritt also in der subsymbolischen KI die Induktion. Dazu können wir uns ein naturwissenschaftliches Experiment vorstellen, bei dem in einer Serie von veränderten Bedingungen (Inputs) entsprechende Ergebnisse (Outputs) folgen. In der Medizin könnte es sich um einen Patienten handeln, der auf Medikamente in bestimmter Weise reagiert.

Dabei nehmen wir an, dass die entsprechenden Paare von Input- und Output-Daten unabhängig durch dasselbe Zufallsexperiment erzeugt werden. Statistisch sagt man deshalb, dass die endliche Folge von Beobachtungsdaten (x1, y2) , … , (xn, y) mit Inputs xi und Outputs yi  (i = 1, … , n) durch Zufallsvariablen (X1, Y) , … , (Xn, Y) realisiert wird, denen eine Wahrscheinlichkeitsverteilung PX,Y zugrunde liegt. Algorithmen sollen nun Eigenschaften der Wahrscheinlichkeitsverteilung PX,Y ableiten. Ein Beispiel wäre die Erwartungswahrscheinlichkeit, mit der für einen gegebenen Input ein entsprechender Output auftritt.  Es kann sich aber auch um eine Klassifikationsaufgabe handeln: Eine Datenmenge soll auf zwei Klassen aufgeteilt werden. Mit welcher Wahrscheinlichkeit gehört ein Element der Datenmenge (Input) eher zu der einen oder anderen Klasse (Output)? Wir sprechen in diesem Fall auch von binärer Mustererkennung.

Die derzeitigen Erfolge des Machine Learning scheinen die These zu bestätigen, dass es auf möglichst große Datenmengen ankommt, die mit immer stärkerer Computerpower bearbeitet werden. Die erkannten Regularitäten hängen dann aber nur von der Wahrscheinlichkeitsverteilung der statistischen Daten ab.

Statistisches Lernen versucht, ein probabilistisches Modell aus endlich vielen Daten von Ergebnissen (z.B. Zufallsexperimente) und Beobachtungen abzuleiten.

Statistisches Schließen versucht umgekehrt, Eigenschaften von beobachteten Daten aus einem angenommenen statistischen Modell abzuleiten.

In der Automatisierung statistischen Lernens nehmen neuronale Netze mit Lernalgorithmen eine Schlüsselrolle ein. Neuronale Netze sind vereinfachte Rechenmodelle nach dem Vorbild des menschlichen Gehirns, in denen Neuronen mit Synapsen verbunden sind. Die Intensität der neurochemischen Signale, die zwischen den Neuronen ausgesendet werden, sind im Modell durch Zahlengewichte repräsentiert. Probabilistische Netzwerke haben experimentell eine große Ähnlichkeit mit biologischen neuronalen Netzen. Werden Zellen entfernt oder einzelne Synapsengewichte um kleine Beträge verändert, erweisen sie sich als fehlertolerant gegenüber kleineren Störungen wie das menschliche Gehirn z.B. bei kleineren Unfallschäden. Das menschliche Gehirn arbeitet mit Schichten paralleler Signalverarbeitung. So sind z.B. zwischen einer sensorischen Inputschicht und einer motorischen Output-Schicht interne Zwischenschritte neuronaler Signalverarbeitung geschaltet, die nicht mit der Außenwelt in Verbindung stehen.

Tatsächlich lässt sich auch in technischen neuronalen Netzen die Repräsentations- und Problemlösungskapazität steigern, indem verschiedene lernfähige Schichten mit möglichst vielen Neuronen zwischengeschaltet werden. Die erste Schicht erhält das Eingabemuster. Jedes Neuron dieser Schicht hat Verbindungen zu jedem Neuron der nächsten Schicht. Die Hintereinanderschaltung setzt sich fort, bis die letzte Schicht erreicht ist und ein Aktivitätsmuster abgibt.

Wir sprechen von überwachten Lernverfahren, wenn der zu lernende Prototyp (z.B. die Wiedererkennung eines Musters) bekannt ist und die jeweiligen Fehlerabweichungen daran gemessen werden können. Ein Lernalgorithmus muss die synaptischen Gewichte so lange verändern, bis ein Aktivitätsmuster in der Output-Schicht herauskommt, das möglichst wenig vom Prototyp abweicht.

Ein effektives Verfahren besteht darin, für jedes Neuron der Output-Schicht die Fehlerabweichung von tatsächlichem und gewünschtem Output zu berechnen und dann über die Schichten des Netzwerks zurückzuverfolgen. Wir sprechen dann von einem Backpropagation-AlgorithmusDie Absicht ist, durch genügend viele Lernschritte für ein Vorgabemuster den Fehler auf Null bzw. vernachlässigbar kleine Werte zu vermindern.

2.3 Anwendungsbeispiel von statistischem Lernen in KI-Chatbots

Ein spektakuläres Anwendungsbeispiel subsymbolischer KI sind Chatbots wie ChatGPT (Generative Pretrained Transformer), der wegen seiner verblüffenden Möglichkeiten als automatischer Textgenerator seit dem 30. November 2022 innerhalb weniger Tage mit Millionen von Nutzern mehr Followers hatte als soziale Medien wie z.B. Instagramm und Spotify. ChatGPT kann Texte von Schulaufgaben auf gymnasialem Niveau bis zu Texten von Seminararbeiten mittleren universitären Niveaus generieren. Auf der Grundlage eines „Large Language Models“ kann man sich mit diesem KI-Programm über Businesspläne unterhalten oder das Schreiben eines Lieds, Gedichts oder Romanfragmenten in einem bestimmten Stil in Auftrag geben.

Tatsächlich beruht das Sprachmodell von ChatGPT auf einer gewaltigen Menge von Texten (Big Data), die dem System von Menschen eintrainiert wurden. Es handelt sich also um ein Beispiel des Machine Learning auf der Grundlage von statistischer Lerntheorie und Mustererkennung, wie es im vorherigen Abschnitt erklärt wurde. Das ehrgeizige Ziel ist dabei, eine zentrale Grenze der symbolischen KI zu überwinden, die in ihren wissensbasierten Expertensystemen auf das Fachwissen von Spezialisten (z.B. medizinisches Fachwissen in einer speziellen medizinischen Disziplin) beschränkt war, sofern es in logisch-regelbasierte Formeln übersetzt werden konnte. Ein Experte wie z.B. ein Mediziner verfügt aber auch über ein unbewusstes Können aufgrund von Erfahrung und Hintergrundwissen, das über das Lehrbuchwissen hinaus in sein Handeln und Entscheiden einfließt.

Bekannt ist das Beispiel einer Fahrschule, in der zunächst regelbasiertes Wissen zur Bedienung des Fahrzeugs und für das korrekte Verhalten im Verkehr nach Geboten und Verboten gelernt wird. Aber zum guten Autofahrer gehört von einer bestimmten Lernstufe ab das unbewusste Können, das auf Erfahrung und Intuition beruht. Was in den Expertensystemen fehlte, war das allgemeine Hintergrundwissen und die Erfahrung und Intuition eines Menschen. Mit Steigerung der Rechenleistung und der Bewältigung großer Datenmassen mit Modellen statistischen Lernens wird nun das Ziel verfolgt, auch das allgemeine „Weltwissen“ von uns Menschen auf die Maschine zu bringen.

Dazu wird der Chatbot mit Texten aus Nachrichten, Büchern, sozialen Medien, online-Foren, Bildern, Filmen und gesprochenen Sprachtexten trainiert. Algorithmen dienen dazu, aus den Trainingsdaten zu lernen. Der Chatbot reproduziert Muster, die er in den gespeicherten Daten erkennt. Das geschieht nach den gleichen Verfahren, mit denen bei der Gesichtserkennung Personenbilder aus Bilddateien erkannt werden. Die reproduzierten Texte werden mit trainierten Beispieltexten verglichen und so durch Algorithmen des verstärkenden Lernens (reinforcement learning) schrittweise verbessert. Dabei können auch Korrekturen durchgeführt werden, wenn Korrelationen der eintrainierten Daten z.B. zu Diskriminierungen führen. Ähnlich wie bei indoktrinierten Menschen, kann ein solches Fehlverhalten aufgrund des Umfangs der eintrainierten Datenmengen nie ausgeschlossen werden. Da diese Chatbots in den sozialen Medien auf große Akzeptanz stoßen, können sie auch gefährliche Desinformationen hervorrufen.

Letztlich ist auch ChatGPT nichts anderes als eine stochastische Maschine, die Daten, Texte, Bilder und Gesprochenes mit Mustererkennungsalgorithmen rekombiniert und rekonfiguriert. Aufgrund der modernen Rechnertechnologien, die gewaltige Datenmengen speichern und schnelle Lernalgorithmen anwenden können, entstehen allerdings verblüffende Ergebnisse, die einen großen Teil von menschlichem Hintergrundwissen und Intuition simulieren. Damit zeigt sich aber auch, auf welchen Mechanismen unsere Konversations- und Kulturwelten beruhen – Reproduktionen und Rekombinationen von Mustern, die weitgehend von Maschinen übernommen werden können. Selbst die Sozial-, Kultur- und Geisteswissenschaften sind davor nicht gefeit, vom Journalismus ganz abgesehen.

Wittgenstein nannte das „Sprachspiele“, die nach bestimmten Regeln funktionieren. Das Originelle besteht häufig nur in einer kleinen Veränderung und Variante der gewohnten Sprachspiele und „Narrative“. Der Autor erinnert sich an sein Studium, als er in den 1960er und 1970er Jahren als Mathematikstudent den „Jargon der Eigentlichkeit“ in geistes- und kulturwissenschaftlichen Seminaren beobachtete und nach einer gewissen Zeit des „Trainings“ im Jargon der verschiedenen ideologischen Richtungen „mitplappern“ konnte. Im Machine Learning ist mittlerweile die Rede von „stochastischen Papageien“. Positiv gewendet eignet sich daher der ChatGPT zur Entlarvung der Mechanismen von Kulturbetrieb und Journalismus. Dort wird man anspruchsvoller werden müssen, um nicht durch Maschinen ersetzt zu werden

ChatGPT löst zwar Mathematikaufgaben bis zu einem gewissen Grad, aber nur auf Grund gewaltiger Datenmengen, die statistisch rekombiniert werden. Ein begabter Schüler löst aber Aufgaben logisch, ohne vorher alle möglichen Textbücher verschlungen zu haben. ChatPCT kennt Zahlen nur, wenn sie von eintrainierten Texten extrahiert werden können. So könnte die Definition einer Primzahl reproduziert werden, wenn dieser Text irgendwo im Speicher von ChatGPT auftaucht. Aber daraus Schlüsse ziehen und entscheiden, ob eine vorliegende Zahl eine Primzahl ist oder nicht, kann ChatGPT nur, wenn entsprechendes Vorwissen eintrainiert wurde. Rechnen, logisches und kausales Denken sind ihm fremd. Es wird geraten und assoziiert. In unserem Buch „Grenzen der Künstlichen Intelligenz“ wurde diese zentrale Schwäche statistischer Lerntheorie und des Machine Learning herausgestellt. ChatGPT kann einfache Computerprogramme nur schreiben, in dem es gespeicherte Vorlagen und Fragmente imitiert und durch Raten rekombiniert – das aber auf verblüffend hohem Niveau, das selbst von „gebildeten“ Menschen nicht zu unterscheiden ist.

2.4 Vom statistischen zum kausalen Lernen

Statistisches Lernen und Schließen aus Daten reichen also nicht aus. Wir müssen vielmehr die kausalen Zusammenhänge von Ursachen und Wirkungen hinter den Messdaten erkennen. Diese kausalen Zusammenhänge hängen von den Gesetzen der jeweiligen Anwendungsdomäne unserer Forschungsmethoden ab, also den Gesetzen der Physik, den Gesetzen der Biochemie und des Zellwachstums im Beispiel der Krebsforschung, etc. Wäre es anders, könnten wir mit den Methoden des statistischen Lernens und Schließen bereits die Probleme dieser Welt lösen.

Statistisches Lernen und Schließen ohne kausales Domänenwissen ist blind – bei noch so großer Datenmenge (Big Data) und Rechenpower!

Die Auseinandersetzung zwischen probabilistischem und kausalem Denken ist keineswegs neu, sondern wurde erkenntnistheoretisch bereits in der Philosophie des 18. Jahrhunderts zwischen David Hume (1711-1776) und Immanuel Kant (1724-1804) ausgefochten. Nach Hume beruht alle Erkenntnis auf sinnlichen Eindrücken (Daten), die psychologisch „assoziiert“ werden. Es gibt danach keine Kausalitätsgesetze von Ursache und Wirkung, sondern nur Assoziationen von Eindrücken (z.B. Blitz und Donner), die mit (statistischer) Häufigkeit „gewohnheitsmäßig“ korreliert werden. Nach Kant sind Kausalitätsgesetze als vernunftmäßig gebildete Hypothesen möglich, die experimentell überprüft werden können. Ihre Bildung beruht nicht auf psychologischen Assoziationen, sondern auf der vernunftmäßigen Kategorie der Kausalität, die mithilfe der Einbildungskraft für Vorhersagen auf der Grundlage von Erfahrung operationalisiert werden kann. Nach Kant ist dieses Verfahren seit Galileo Galilei in der Physik in Gebrauch, die so erst zur Wissenschaft wurde. 

Neben der Statistik der Daten bedarf es zusätzlicher Gesetzes- und Strukturannahmen der Anwendungsdomänen, die durch Experimente und Interventionen überprüft werden. Kausale Erklärungsmodelle (z.B. das Planetenmodell oder ein Tumormodell) erfüllen die Gesetzes- und Strukturannahmen einer Theorie (z.B. Newtons Gravitationstheorie oder die Gesetze der Zellbiologie):

Beim kausalen Schließen werden Eigenschaften von Daten und Beobachtungen aus Kausalmodellen, d.h. Gesetzesannahmen von Ursachen und Wirkungen, abgeleitet. Kausales Schließen ermöglicht damit, die Wirkungen von Interventionen oder Datenveränderungen (z.B. durch Experimente) zu bestimmen.

Kausales Lernen versucht umgekehrt, ein Kausalmodell aus Beobachtungen, Messdaten und Interventionen (z.B. Experimente) abzuleiten, die zusätzliche Gesetzes- und Strukturannahmen voraussetzen. 

Ein hochaktuelles technisches Beispiel für die wachsende Komplexität neuronaler Netze sind selbst-lernende Fahrzeuge. So kann ein einfaches Automobil mit verschiedenen Sensoren (z.B. Nachbarschaft, Licht, Kollision) und motorischer Ausstattung bereits komplexes Verhalten durch ein sich selbst organisierendes neuronales Netzwerk erzeugen. Werden benachbarte Sensoren bei einer Kollision mit einem äußeren Gegenstand erregt, dann auch die mit den Sensoren verbundenen Neuronen eines entsprechenden neuronalen Netzes. So entsteht im neuronalen Netz ein Verschaltungsmuster, das den äußeren Gegenstand repräsentiert. Im Prinzip ist dieser Vorgang ähnlich wie bei der Wahrnehmung eines äußeren Gegenstands durch einen Organismus – nur dort sehr viel komplexer.

Wenn wir uns nun noch vorstellen, dass dieses Automobil mit einem „Gedächtnis“ (Datenbank) ausgestattet wird, mit dem es sich solche gefährlichen Kollisionen merken kann, um sie in Zukunft zu vermeiden, dann ahnt man, wie die Automobilindustrie in Zukunft unterwegs sein wird, selbst-lernende Fahrzeuge zu bauen. Sie werden sich erheblich von den herkömmlichen Fahrerassistenzsystemen mit vorprogrammiertem Verhalten unter bestimmten Bedingungen unterscheiden. Es wird sich um ein neuronales Lernen handeln, wie wir es in der Natur von höher entwickelten Organismen kennen.

Wie viele reale Unfälle sind aber erforderlich, um selbstlernende (“autonome”) Fahrzeuge zu trainieren? Wer ist verantwortlich, wenn autonome Fahrzeuge in Unfälle verwickelt sind? Welche ethischen und rechtlichen Herausforderungen stellen sich? Bei komplexen Systemen wie neuronalen Netzen mit z.B. Millionen von Elementen und Milliarden von synaptischen Verbindungen erlauben zwar die Gesetze der statistischen Physik, globale Aussagen über Trend- und Konvergenzverhalten des gesamten Systems zu machen. Die Zahl der empirischen Parameter der einzelnen Elemente ist jedoch unter Umständen so groß, dass keine lokalen Ursachen ausgemacht werden können. Das neuronale Netz bleibt für uns eine „Black Box“. Vom ingenieurwissenschaftlichen Standpunkt aus sprechen Autoren daher von einem „dunklen Geheimnis“ im Zentrum der KI des Machine Learning: “. . .even the engineers who designed [the machine learning-based system] may struggle to isolate the reason for any single action”.

Zwei verschiedene Ansätze im Software Engineering sind denkbar:

1. Testen zeigt nur (zufällig) gefundene Fehler, aber nicht alle anderen möglichen.

2. Zur grundsätzlichen Vermeidung müsste eine formale Verifikation des neuronalen Netzes und seiner zugrundeliegenden kausalen Abläufe durchgeführt werden.

Zusammengefasst folgt: Machine Learning mit neuronalen Netzen funktioniert, aber wir können die Abläufe in den neuronalen Netzen nicht im Einzelnen verstehen und kontrollieren. Heutige Techniken des Machine Learning beruhen meistens nur auf statistischem Lernen, aber das reicht nicht für sicherheitskritische Systeme. Daher sollte Machine Learning mit Beweisassistenten und kausalem Lernen verbunden werden. Korrektes Verhalten wird dabei durch Metatheoreme in einem logischen Formalismus garantiert.

2.5 Auf dem Weg zur hybriden KI

Dieses Modell selbstlernender Fahrzeuge erinnert an die Organisation des Lernens im menschlichen Organismus: Verhalten und Reaktionen laufen dort ebenfalls weitgehend unbewusst ab. „Unbewusst“ heißt, dass wir uns der kausalen Abläufe des durch sensorielle und neuronale Signale gesteuerten Bewegungsapparats nicht bewusst sind. Das lässt sich mit Algorithmen des statistischen Lernens automatisieren. In kritischen Situationen reicht das aber nicht aus: Um mehr Sicherheit durch bessere Kontrolle im menschlichen Organismus zu erreichen, muss der Verstand mit kausaler Analyse und logischem Schließen eingreifen. Dieser Vorgang sollte im Machine Learning durch Algorithmen des kausalen Lernens und logischer Beweisassistenten automatisiert wird:

Ziel ist daher eine hybride KI, in der analog zum menschlichen Organismus symbolische und subsymbolische KI verbunden werden.

3. Roboter als KI-Systeme

Mit zunehmender Komplexität und Automatisierung der Technik werden Roboter zu Dienstleistern der Industriegesellschaft. Die Evolution lebender Organismen inspiriert heute die Konstruktion von Robotik-Systemen für unterschiedliche Zwecke. Mit wachsenden Komplexitäts- und Schwierigkeitsgraden der Dienstleistungsaufgabe wird die Anwendung von KI-Technik unvermeidlich. Dabei müssen Roboter nicht wie Menschen aussehen. Genauso wie Flugzeuge nicht wie Vögel aussehen, gibt es je nach Funktion auch andere angepasste Formen. Es stellt sich also die Frage, zu welchem Zweck humanoide Roboter welche Eigenschaften und Fähigkeiten besitzen sollten.

Humanoide Roboter sollten direkt in der menschlichen Umgebung wirken können. In der menschlichen Umwelt ist die Umgebung auf menschliche Proportionen abgestimmt. Die Gestaltung reicht von der Breite der Gänge über die Höhe einer Treppenstufe bis zu Positionen von Türklinken. Für nicht menschenähnliche Roboter (z.B. auf Rädern und mit anderen Greifern statt Händen) müssten also große Investitionen für Veränderungen der Umwelt ausgeführt werden. Zudem sind alle Werkzeuge, die Mensch und Roboter gemeinsam benutzen sollten, auf menschliche Bedürfnisse abgestimmt. Nicht zu unterschätzen ist die Erfahrung, dass humanoide Formen den emotionalen Umgang mit Robotern psychologisch erleichtern.

Humanoide Roboter haben aber nicht nur zwei Beine und zwei Arme. Sie verfügen über optische und akustische Sensoren. In Bezug auf Platz und Batterielaufzeiten gibt es bisher bei den verwendbaren Prozessoren und Sensoren Einschränkungen. Miniaturisierungen von optischen und akustischen Funktionen sind ebenso erforderlich wie die Entwicklung von verteilten Mikroprozessoren zur lokalen Signalverarbeitung. Ziel der humanoiden Robotik ist es, dass sich humanoide Roboter frei in normaler Umgebung bewegen, Treppen und Hindernisse überwinden, selbständig Wege suchen, nach einem Fall beweglich bleiben, Türen selbständig betätigen und auf einem Arm stützend Arbeit erledigen können. Ein humanoider Roboter könnte dann im Prinzip so gehen wie ein Mensch.

Für die Erreichung der letzten Stufe des Zusammenlebens mit Menschen, müssen sich Roboter ein Bild vom Menschen machen können, um hinreichend sensibel zu werden. Dazu sind kognitive Fähigkeiten notwendig. Dabei lassen sich die drei Stufen des funktionalistischen, konnektionistischen und handlungsorientierten Ansatzes unterscheiden, die nun untersucht werden sollen.

Die Grundannahme des Funktionalismus besteht darin, dass es in Lebewesen wie in entsprechenden Robotern eine interne kognitive Struktur gibt, die Objekte der externen Außenwelt mit ihren Eigenschaften, Relationen und Funktionen untereinander über Symbole repräsentiert.

Man spricht auch deshalb vom Funktionalismus, da die Abläufe der Außenwelt als isomorph in Funktionen eines symbolischen Modells abgebildet angenommen werden. Ähnlich wie ein geometrischer Vektor- oder Zustandsraum die Bewegungsabläufe der Physik abbildet, würden solche Modelle die Umgebung eines Roboters repräsentieren.

Der funktionalistische Ansatz geht auf die frühe kognitivistische Psychologie der 1950er Jahre von z.B. Allen Newell und Herbert Simon zurück. Die Verarbeitung der Symbole in einer formalen Sprache (z.B. Computerprogramm) erfolgt wie in der symbolischen KI nach Regeln, die logische Beziehungen zwischen den Außenweltrepräsentationen herstellen, Schlüsse ermöglichen und so Wissen entstehen lassen.

 Die Regelverarbeitung ist nach dem kognitivistischen Ansatz unabhängig von einem biologischen Organismus oder Roboterkörper. Danach könnten im Prinzip alle höheren kognitiven Fähigkeiten wie Objekterkennung, Bildinterpretation, Problemlösung, Sprachverstehen und Bewusstsein auf Rechenprozesse mit Symbolen reduziert werden. Konsequenterweise müssten dann auch biologische Fähigkeiten wie z.B. Bewusstsein auf technische Systeme übertragbar sein.

Der kognitivistisch-funktionalistische Ansatz hat sich für beschränkte Anwendungen durchaus bewährt, stößt jedoch in Praxis und Theorie auf grundlegende Grenzen. Ein Roboter dieser Art benötigt nämlich eine vollständige symbolische Repräsentation der Außenwelt, die ständig angepasst werden muss, wenn die Position des Roboters sich ändert. Relationen wie ON(TABLE,BALL), ON(TABLE,CUP), BEHIND(CUP,BALL) etc., mit denen die Relation eines Balls und einer Tasse auf einem Tisch relativ zu einem Roboter repräsentiert wird, ändern sich, wenn sich der Roboter um den Tisch herum bewegt.

Menschen benötigen demgegenüber keine symbolische Darstellung und kein symbolisches Updating von sich ändernden Situationen. Sie interagieren sensorisch-körperlich mit ihrer Umwelt. Rationale Gedanken mit interner symbolischer Repräsentation garantieren kein rationales Handeln, wie bereits einfache Alltagssituationen zeigen. So weichen wir einem plötzlich auftretenden Verkehrshindernis aufgrund von blitzschnellen körperlichen Signalen und Interaktionen aus, ohne auf symbolische Repräsentationen und logische Ableitungen zurückzugreifen. Hier kommt die subsymbolische KI ins Spiel.

In der Kognitionswissenschaft unterscheiden wir daher zwischen formalem und körperlichem Handeln. Schach ist ein formales Spiel mit vollständiger symbolischer Darstellung, präzisen Spielstellungen und formalen Operationen. Fußball ist ein nicht-formales Spiel mit Fähigkeiten, die von körperlichen Interaktionen ohne vollständige Repräsentation von Situationen und Operationen abhängen. Es gibt zwar auch Spielregeln. Aber Situationen sind wegen der körperlichen Aktion nie exakt identisch und daher auch nicht (im Unterschied zum Schach) beliebig reproduzierbar.

Der konnektionistische Ansatz betont deshalb, dass Bedeutung nicht von Symbolen getragen wird, sondern sich in der Wechselwirkung zwischen verschiedenen kommunizierenden Einheiten eines komplexen Netzwerks (z.B. neuronales Netz) ergibt. Diese Herausbildung bzw. Emergenz von Bedeutungen und Handlungsmustern wird durch die sich selbst organisierende Dynamik von neuronalen Netzwerken möglich.

Sowohl der kognitivistische als auch der konnektionistische Ansatz können allerdings im Prinzip von der Umgebung der Systeme absehen und nur die symbolische Repräsentation bzw. neuronale Dynamik beschreiben.

Im handlungsorientierten Ansatz steht demgegenüber die Einbettung des Roboterkörpers in seine Umwelt im Vordergrund. Insbesondere einfache Organismen der Natur wie z.B. Bakterien legen es nahe, verhaltensgesteuerte Artefakte zu bauen, die sich an veränderte Umwelten anzupassen vermögen.

Aber auch hier wäre die Forderung einseitig, nur verhaltensbasierte Robotik zu favorisieren und symbolische Repräsentationen und Modelle der Welt auszuschließen. Richtig ist die Erkenntnis, dass kognitive Leistungen des Menschen sowohl funktionalistische, konnektionistische und verhaltensorientierte Aspekte berücksichtigen. In diesem Sinn ist der Mensch ein hybrider Organismus.

Richtig ist es daher, wie beim Menschen von einer eigenen Leiblichkeit (embodiment) der humanoide Roboter auszugehen. Danach agieren diese Maschinen mit ihrem Roboterkörper in einer physischen Umwelt und bauen dazu einen kausalen Bezug auf. Sie machen ihre je eigenen Erfahrungen mit ihrem Körper in dieser Umwelt und sollten ihre eigenen internen symbolischen Repräsentationen und Bedeutungssysteme aufbauen können (Mainzer 2009).

Wie können solche Roboter selbstständig sich ändernde Situationen einschätzen? Körperliche Erfahrungen des Roboters beginnen mit Wahrnehmungen über Sensordaten der Umgebung. Sie werden in einer relationalen Datenbank des Roboters als seinem Gedächtnis gespeichert. Die Relationen der Außenweltobjekte bilden untereinander kausale Netzwerke, an denen sich der Roboter bei seinen Handlungen orientiert. Dabei werden z.B. Ereignisse, Personen, Orte, Situationen und Gebrauchsgegenstände unterschieden. Mögliche Szenarien und Situationen werden mit Sätzen einer formalen Logik repräsentiert.

4. Cyberphysical Systems als KI-Systeme

In der Evolution beschränkt sich intelligentes Verhalten keineswegs auf einzelne Organismen. Die Soziobiologie betrachtet Populationen als Superorganismen, die zu kollektiven Leistungen fähig sind. Die entsprechenden Fähigkeiten sind häufig in den einzelnen Organismen nicht vollständig programmiert und von ihnen allein nicht realisierbar. Ein Beispiel ist die Schwarmintelligenz von Insekten, die sich in Termitenbauten und Ameisenstraßen zeigt. Auch menschliche Gesellschaften mit extrasomatischer Informationsspeicherung und Kommunikationssystemen entwickeln kollektive Intelligenz, die sich erst in ihren Institutionen zeigt.

Kollektive Muster- und Clusterbildungen lassen auch bei Populationen einfacher Roboter beobachten, ohne dass sie dazu vorher programmiert wurden. Roboterpopulationen als Dienstleister könnten konkrete Anwendung im Straßenverkehr z.B. bei fahrerlosen Transportsystemen oder Gabelstaplern finden, die sich selbständig über ihr Verhalten in bestimmten Verkehrs- und Auftragssituationen verständigen. Zunehmend werden auch unterschiedliche Roboterarten wie Fahr- und Flugroboter (z.B. bei militärischen Einsätzen oder bei der Weltraumerkundung) miteinander interagieren.

Roodney A. Brooks vom MIT fordert allgemein eine verhaltensbasierte KI, die auf künstliche soziale Intelligenz in Roboterpopulationen ausgerichtet ist. Soziale Interaktion und Abstimmung gemeinsamer Aktionen bei sich verändernden Situationen ist eine äußerst erfolgreiche Form von Intelligenz, die sich in der Evolution herausgebildet hat. Bereits einfache Roboter könnten ähnlich wie einfache Organismen der Evolution kollektive Leistungen erzeugen. Im Management spricht man von der sozialen Intelligenz als einem Soft Skill, der nun auch von Roboterpopulationen berücksichtigt werden sollte.

Autonome Reaktionen in unterschiedlichen Situationen ohne Eingreifen des Menschen sind eine große Herausforderung für die KI-Forschung. Entscheidungsalgorithmen lassen sich am besten im realen Straßenverkehr verbessern. Analog verbessert ein menschlicher Fahrer seine Fähigkeiten durch Fahrpraxis.

Als selbstfahrendes Kraftfahrzeug bzw. Roboterauto werden Automobile bezeichnet, die ohne menschlichen Fahrer fahren, steuern und einparken können.

Hochautomatisiertes Fahren liegt zwischen assistiertem Fahren, bei dem der Fahrer durch Fahrerassistenzsysteme unterstützt wird, und dem autonomen Fahren, bei dem das Fahrzeug selbsttätig und ohne Einwirkung des Fahrers fährt.

Beim hochautomatisierten Fahren hat das Fahrzeug nur teilweise eine eigene Intelligenz, die vorausplant und die Fahraufgabe zumindest in den meisten Situationen übernehmen könnte. Mensch und Maschine arbeiten zusammen.

Klassische Computersysteme zeichneten sich durch eine strikte Trennung von physischer und virtueller Welt aus. Steuerungssysteme der Mechatronik, die z.B. in modernen Fahrzeugen und Flugzeugen eingebaut sind und aus einer Vielzahl von Sensoren und Aktoren bestehen, entsprechen diesem Bild nicht mehr. Diese Systeme erkennen ihre physische Umgebung, verarbeiten diese Informationen und können die physische Umwelt auch koordiniert beeinflussen. Der nächste Entwicklungsschritt der mechatronischen Systeme sind die „Cyberphysical Systems“ (CPS), die sich nicht nur durch eine starke Kopplung von physischem Anwendungsmodell und dem Computer-Steuerungsmodell auszeichnen, sondern auch in die Arbeits- und Alltagsumgebung eingebettet sind (z.B. integrierte intelligente Energieversorgungssysteme). Durch die vernetzte Einbettung in Systemumgebungen gehen CPS-Systeme über isolierte mechatronische Systeme hinaus.

Cyberphysical Systems (CPS) bestehen aus vielen vernetzten Komponenten, die sich selbständig untereinander für eine gemeinsame Aufgabe koordinieren. Sie sind damit mehr als die Summe der vielen unterschiedlichen smarten Kleingeräte im Ubiquitous Computing, da sie Gesamtsysteme aus vielen intelligenten Teilsystemen mit integrierenden Funktionen für bestimmte Ziele und Aufgaben (z.B. effiziente Energieversorgung) realisieren. Dadurch werden intelligente Funktionen von den einzelnen Teilsystemen auf die externe Umgebung des Gesamtsystems ausgeweitet. Wie das Internet werden CBS zu kollektiven sozialen Systemen, die aber neben den Informationsflüssen zusätzlich (wie mechatronische Systeme und Organismen) noch Energie-, Material- und Stoffwechselflüsse integrieren.

Industrie 4.0 spielt auf die vorausgehenden Phasen der Industrialisierung an. Industrie 1.0 war das Zeitalter der Dampfmaschine. Industrie 2.0 war Henry Fords Fließband. Das Fließband ist nichts anderes als eine Algorithmisierung des Arbeitsprozesses, der Schritt für Schritt nach einem festen Programm durch arbeitsteiligen Einsatz von Menschen ein Produkt realisiert. In Industrie 3.0 greifen Industrieroboter in den Produktionsprozess ein. Sie sind allerdings örtlich fixiert und arbeiten immer wieder dasselbe Programm für eine bestimmte Teilaufgabe ab. In Industrie 4.0 wird der Arbeitsprozess in das Internet der Dinge integriert. Werkstücke kommunizieren untereinander, mit Transporteinrichtungen und beteiligten Menschen, um den Arbeitsprozess flexibel zu organisieren.

5.  KI als Dienstleistung am Menschen

5.1 Vertrauen in Künstliche Intelligenz

Häufig wird KI als Bedrohung menschlicher Arbeit dargestellt. Die Corona-Krise zeigt aber auch, wie KI und Robotik einspringen könnten, wenn der Mensch ausfällt, um die Wirtschaft am Laufen zu halten, wie digitale Kommunikation und Gesundheitsversorgung unterstützt werden könnte und wie in einem Lernprozess zusammen mit menschlicher Intelligenz die Lösung z.B. in Form eines Impfstoffs gefunden werden kann. Nach Corona ist nicht ausgeschlossen, dass wir von noch gefährlicheren Pandemien heimgesucht werden. Für die Zukunft wäre daher wünschenswert, wenn mit lernender KI mögliche Veränderungen von Viren vorher simuliert werden könnten, um damit einen Toolkasten zur schnellen Zusammenstellung von Impfstoffen zu entwickeln – quasi mit auf Vorrat produzierten KI-Algorithmen.

Um Vertrauen in KI-Tools zu fördern, müssen sie wie alle technischen Werkzeuge zertifiziert sein. An solchen „DIN-Normen“ arbeiten wir in einer Steuerungsgruppe für eine KI-Roadmap im Auftrag der Bundesregierung. Am Ende soll KI eine Dienstleitung für uns Menschen sein. Daher benötigen wir auch eine Stärkung der menschlichen Urteilskraft und Wertorientierung, damit uns Algorithmen und Big Data nicht aus dem Ruder laufen.

In der jüngsten Vergangenheit illustrieren dramatische Unfälle die Gefahren von Softwarefehlern und Systemversagen bei sicherheitskritischen Systemen. Programmfehler und Systemversagen können zu Katastrophen führen: In der Medizin verursachten 1985-87 massive Überdosierungen durch die Software eines Bestrahlungsgeräts teilweise den Tod von Patienten. 1996 sorgte die Explosion der Rakete Ariane 5 aufgrund eines Softwarefehlers für Aufsehen. Jüngstes Beispiel sind Softwarefehler und Systemversagen von Boing 737 max. Nun gehören Verifikationsprüfungen traditionell zum festen Bestanteil einer Programmentwicklung im Software Engineering. Nach Feststellung der Anforderungen, dem Design und der Implementation eines Computerprogramms erfolgt in der Regel seine Verifikation und schließlich für die Dauer seiner Anwendung eine vorausschauende Wartung, um vor dem Ausfall z.B. eines Maschinenteils durch Verschleiß Ersatz und Reparatur einzuleiten.

Ein Computerprogramm heißt korrekt bzw. zertifiziert, falls verifiziert werden kann, dass es einer gegebenen Spezifikation folgt. Praktisch angewendet werden Verifikationsverfahren mit unterschiedlichen Graden der Genauigkeit und damit der Verlässlichkeit. Aus Zeit-, Aufwands- und Kostengründen begnügen sich viele Anwender allerdings nur mit Stichprobentests. Im Idealfall müsste ein Computerprogramm aber so sicher sein wie ein mathematischer Beweis. Dazu wurden Beweisprogramme („Beweisassistenten“) entwickelt, mit denen ein Computerprogramm automatisch oder interaktiv mit einem Nutzer auf Korrektheit überprüft wird.

Die Idee stammt ursprünglich aus der mathematischen Beweistheorie des frühen 20. Jahrhunderts, als bedeutende Logiker und Mathematiker wie David Hilbert, Kurt Gödel und Gerhard Gentzen mathematische Theorien formalisierten, um dann z.B. die Korrektheit, Vollständigkeit oder Widerspruchsfreiheit dieser Formalismen (und damit der betreffenden mathematischen Theorien) zu beweisen. Die Formalismen sind nun Computerprogramme. Ihre Korrektheitsbeweise müssen selbst konstruktiv sein, um jeden Zweifel ihrer Sicherheit auszuschließen. Sowohl an der LMU als auch an der TU München werden Beweisassistenten untersucht. Persönlich arbeite ich gerne mit dem französischen Beweisassistenten Coq, der u.a. auf den französischen Logiker und Mathematiker Thierry Coquand zurückgeht und im Namen an das französische Wappentier des Hahns erinnert.

Hier zeigt sich sehr klar, wie aktuelle Fragen der Sicherheit moderner Software und KI in Grundlagenfragen der Logik und Philosophie verwurzelt sind. Derzeit beschäftige ich mich mit der Frage, wie das moderne maschinelle Lernen durch solche Beweisassistenten kontrolliert werden kann. Am Ende geht es um die Herausforderung, ob und wie man KI-Programme zertifizieren kann, bevor man sie auf die Menschheit loslässt. Statistisches Lernen, wie es heute praktiziert wird, funktioniert zwar häufig in der Praxis, aber die kausalen Abläufe bleiben oft unverstanden und eine Black Box. Statistisches Testen und Probieren reicht für sicherheitskritische Systeme nicht aus. Daher plädiere ich in der Zukunft für eine Kombination von kausalem Lernen mit zertifizierten KI-Programmen durch Beweisassistenten, auch wenn das für Praktiker aufwendig und ambitioniert erscheinen mag. 

5.2 Technikgestaltung und Verantwortung

KI-Programme treten mittlerweile aber nicht nur in einzelnen Robotern und Computern auf. So steuern bereits lernfähige Algorithmen die Prozesse einer vernetzten Welt mit exponentiell wachsender Rechenkapazität. Ohne sie wäre die Datenflut im Internet nicht zu bewältigen, die durch Milliarden von Sensoren und vernetzten Geräten erzeugt wird. Aufgrund der Sensoren kommunizieren nun also auch Dinge miteinander und nicht nur Menschen. Daher sprechen wir vom Internet der Dinge (Internet of Things: IoT).

In der Medizin und im Gesundheitssystem sind großen Klinikzentren Beispiele solcher komplexen Infrastrukturen, deren Koordination von Patienten, Ärzten, medizinischem Personal, technischen Geräten, Robotik und anderen Dienstleistern ohne IT- und KI-Unterstützung nicht mehr steuerbar wäre.

Die sicherheitskritischen Herausforderungen, die wir eben erörtert haben, werden sich in solchen Infrastrukturen noch einmal potenzieren. Darüber hinaus stellt sich aber die Frage nach der Rolle des Menschen in einer mehr oder weniger automatisierten Welt. Ich plädiere daher für Technikgestaltung, die über Technologiefolgenabschätzung hinausgeht. Die traditionelle Sicht, die Entwickler einfach werkeln zu lassen und am Ende die Folgen ihrer Ergebnisse zu bewerten, reicht aus Erfahrung nicht aus. Am Ende kann das Kind in den Brunnen gefallen sein und es ist zu spät. Nun lässt sich zwar Innovation nicht planen. Wir können aber Anreize für gewünschte Ergebnisse setzen. Ethik wäre dann nicht Innovationsbremse, sondern Anreiz zu gewünschter Innovation. Eine solche ethische, rechtliche, soziale und ökologische Roadmap der Technikgestaltung für KI-Systeme würde der Grundidee der sozialen Marktwirtschaft entsprechen, nach der ein Gestaltungsspielraum für Wettbewerb und Innovation gesetzt wird. Maßstab bleibt die Würde des einzelnen Menschen, wie sie im Grundgesetz der Verfassung als oberstes Axiom der parlamentarischen Demokratie festgelegt ist.

Diese ethische Positionierung im weltweiten Wettbewerb der KI-Technologie ist keineswegs selbstverständlich. Für die globalen IT- und KI-Konzerne des Silicon Valley geht es am Ende um ein erfolgreiches Geschäftsmodell, auch wenn sie IT-Infrastrukturen in weniger entwickelten Ländern unter von ihnen vorgegeben Geschäftsbedingungen fördern. Der andere globale Wettbewerber heißt aber China, der einen Staatsmonopolismus im Projekt der Seidenstraße strikt befolgt. Das chinesische Projekt des Social Core ist eng mit dem ehrgeizigen Ziel verbunden, die schnellsten Superrechner und leistungsfähigsten KI-Programme der Welt zu produzieren. Nur so lässt sich der Social Core mit der totalen Datenerfassung aller Bürgerinnen und Bürger und ihrer zentralen Bewertung realisieren. Die totale staatliche Kontrolle privater Daten mag westliche Beobachter schockieren, wird aber in weiten Bevölkerungskreisen Chinas akzeptiert. Dazu gehört der direkte Zugriff auf alle möglichen medizinischen Daten für die medizinische Forschung. Hinzu kommt eine andere Wertetradition, die über Jahrhunderte in China eingeübt wurde: In konfuzianischen Traditionen dieses Landes ist der oberste Wertmaßstab eine kollektive Harmonie und Sicherheit und nicht die Autonomie des Einzelnen mit einklagbaren Freiheitsrechten.   

Die Proklamation individueller Menschenrechte wurzelt tief in der philosophischen Tradition europäischer Demokratien. Wir brauchen zwar zertifizierte KI-Algorithmen als verlässliche Dienstleistung zur Bewältigung zivilisatorischer Komplexität. Entscheidend ist daher aber auch eine Stärkung der menschlichen Urteilskraft und Wertorientierung, damit uns Algorithmen und Big Data nicht aus dem Ruder laufen. Im weltweiten Wettbewerb der KI-Systeme sollten wir unsere Lebenswelt nach unseren Wertmaßstäben selbst gestalten können.

5.3   Autonomie in Philosophie, Recht und Gesellschaft

In der Philosophie wird spätestens seit Kant, Autonomie als fundamentales Alleinstellungsmerkmal des Menschen als vernunftbegabtes Wesen herausgestellt. Autonomie bedeutet danach die Fähigkeit zur Selbstgesetzgebung. Danach vermag der Mensch nicht nur Gesetzen zu folgen, sondern sie sich selbst allgemeinverbindlich zu geben, wie es im kategorischen Imperativ zum Ausdruck kommt. In der parlamentarischen Gesetzgebung wird diese Selbstautonomie politisch umgesetzt. In Gerichtsverfahren ist Autonomie eine Rechtsfigur, die freien Willen unterstellt, um Verantwortung für z.B. eine Straftat feststellen zu können.

Juristisch handelt es sich dabei um eine idealtypische Fiktion, die nicht einen naturwissenschaftlichen Beweis des „freien Willens“ voraussetzt. Faktisch ist menschliches Entscheiden und Handeln von verschiedenen genetischen, physiologischen, entwicklungspsychologischen, sozialen, emotionalen etc. Einflüssen abhängig, also nie vollkommen „autonom“. Daher sind auch menschliche Handlungen und Entscheidungen nach Graden der Autonomie zu bemessen. Im Recht werden allerdings nur einige dieser Faktoren wie z.B. emotionaler Affekt oder messbarer Alkoholpegel als Einschränkung der Autonomie (z.B. bei der Strafzumessung) anerkannt. Es kann nicht ausgeschlossen werden, dass in Zukunft aufgrund besserer Nachweise oder veränderter gesellschaftlicher Einschätzung auch andere Faktoren stärkere Berücksichtigung finden.

Was die KI betrifft, so sind heute bereits KI-Systeme zu begrenzter Selbstautonomie fähig, in dem sie lernen und sich auf dieser Grundlage für begrenzte Aufgaben selbst neu programmieren, also sich selbst Gesetze des Handelns geben können. Es wird daher in Zukunft nicht um die erkenntnistheoretische Frage gehen, ob KI-Systeme prinzipiell nie zur Selbstautonomie fähig wären. Man könnte einwenden, dass vollkommene Autonomie selbst für Menschen eine Fiktion ist. Vielmehr wird es um die ethische und rechtliche Frage gehen, bis zu welchem Grad wir die technische Entwicklung autonomer Systeme zulassen wollen.

Klaus Mainzer; CDR Magazin; 27.02.2023

https://corporate-digital-responsibility.de/wissenschaft/verantwortungsvolle-kunstliche-intelligenz-teil-1/

https://corporate-digital-responsibility.de/wissenschaft/verantwortungsvolle-kunstliche-intelligenz-teil-2/

Creative Commons CC BY-SA 4.0

Zur einfacheren Lesbarkeit wurden die Quellen- und Literaturverweise entfernt.


© Swiss Infosec AG 2024