Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Bedeutung und Management von Cloud Computing, Multi-Cloud und Cloud Brokerage in Unternehmen – Teil 1

1 Einleitung und Hintergrund zu Cloud Computing

1.1 Bedeutung und Einordung von Cloud Computing in Unternehmen

Der Bereich des Cloud Computing hat in den letzten Jahren eine anhaltend dynamische Entwicklung erlebt. Sowohl im Consumer- als im Businessbereich sind heute eine große Anzahl von IT-Anwendungen als Cloud-basierte Lösungen umgesetzt oder greifen zur Realisierung bestimmter Funktionen auf Cloud-Lösungen zurück. So nutzen mittlerweile 84 % der Unternehmen in Deutschland Cloud Computing. Das Spektrum des Cloud Computing reicht dabei von Anwendungen, die sich direkt an einzelne Endanwender richten bis hin zu komplexeren IT-Infrastrukturen, die Unternehmen aus der Cloud beziehen. So stehen beispielsweise mit Microsoft Office 365, Zoom oder Google Workspace verschiedene Anwendungen für Endanwender im Internet bereit, um die Produktivität und Zusammenarbeit ihrer Nutzer zu unterstützen. Mit Amazon Web Services (AWS) oder Microsoft Azure dagegen werden Unternehmen verschiedene Möglichkeiten eröffnet, um ganze IT-Infrastrukturen und drauf aufbauende Anwendungen umzusetzen und zu betreiben.

Die Grundidee von Cloud Computing besteht zunächst darin, IT-Ressourcen wie Rechenleistung, Speicher oder Anwendungen logisch zusammenzufassen und gemeinsam zu nutzen. Der Vorteil liegt in der höheren Flexibilität und Verfügbarkeit, da die Leistungsbereitstellung nicht mehr von einzelner Hardware abhängig ist, sondern die IT-Ressourcen im Hintergrund virtuell zusammengeführt werden. In aller Regel bleiben diese Virtualisierung und Zusammenführung dabei von Endanwender unbemerkt. Das National Institute of Standards and Technology definiert cloud computing als ein Modell „for granting users access to a shared pool of configurable computational resources including networks, servers, storage, applications, and services that can be rapidly provisioned (adapted for new services) with little management or service provider interaction“.

Im Cloud Computing wird in der Regel unterschieden zwischen verschiedenen grundlegenden Servicemodellen wie Software-as-a-Service (SaaS), Plattform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS). Dabei setzen die verschiedenen Servicemodelle an unterschiedlichen Abstraktionseben der zugrundliegenden gemeinsam genutzten IT-Ressourcen an. SaaS und PaaS setzt auf der Anwendungsebene an und ermöglichen direkt die Verwendung bereitgestellter Anwendungen wie bspw. SAP, Salesforce oder ähnlichen Anwendungen. Die technische Realisierung bleibt den Cloud-Nutzern dabei weitgehend verborgen und ist Aufgabe des Cloud Service Providers (CSP). Plattform-as-a-Service (PaaS) bildet dabei eine eher technische Schicht zwischen Anwendungen und Infrastruktur ab, auf deren Basis Anwendungen entwickelt werden können. Zielgruppe sind hauptsächlich Software-Entwickler. Infrastructure-as-a-Service (IaaS) dagegen umfasst vor allem eine technische und grundlegendere Ebene, die Server, Speicher, Netzwerke und /oder Virtualisierung beinhaltet. In der Regel greifen SaaS- und PaaS-Servicemodelle zur Realisierung ihrer Funktionen auf IaaS zurück.

Der Einsatz von Cloud Services erfolgt anhand unterschiedlicher Bereitstellungsmodelle. Zur Nutzung von Cloud Computing können Unternehmen entweder selbst die entsprechende Infrastruktur aufbauen und bereitstellen (sog „Private Cloud“), diese von entsprechenden Dienstleistern über das Internet beziehen (sog. „Public Cloud“) oder auch eine eigene und öffentliche Cloud-Lösungen miteinander verknüpfen („Hybrid Cloud“). Bei Nutzung einer Public oder Hybrid Cloud ist das Unternehmen nicht gezwungen, an einer zu erwartenden Maximallast ausgerichtete IT-Infrastruktur selbst vorzuhalten, sondern kann bedarfsgesteuert Ressourcen in der Public Cloud allokieren. In der Regel werden die angebotenen Public Cloud-Dienste dabei von verschiedenen Nutzern bzw. Unternehmen gleichzeitig genutzt (sog. „Multi-Tenancy“). Die Nutzer bzw. Unternehmen sind dabei jedoch voneinander abgegrenzt.

Cloud Computing spielt bei der strategischen Modernisierung der IT in Unternehmen eine wesentliche Rolle und bietet eine Reihe von Vorteilen. Durch ein flexibles, selbstgesteuertes und nachfrageorientiertes Zusammenführen und Virtualisieren der zugrundeliegenden IT-Ressourcen („On-Demand Self-Service“ & „Resource Pooling“) ermöglicht es eine schnellere und hoch verfügbare Bereitstellung von digitalen Diensten und Anwendungen sowie häufig eine einfache Mitnutzung Cloud-basierter IT-Innovationen. Darüber hinaus trägt Cloud Computing zu einer schnellen Ausrichtung an sich ändernden Anforderungen bei und kann den Erfordernissen entsprechend einfach skaliert werden („Rapid Elasticity“). Dabei werden durch entsprechende Dienste die in Anspruch genommenen Cloud Ressourcen nachfragegesteuert abgerechnet („Measuring Service“). Dies führt einerseits zu einer höheren Kostentransparenz bei Nutzern und gleichzeitig zu potenziell geringeren Kosten des IT-Betriebs durch Nutzung von Skaleneffekten, geringeren Kapitalbindungskosten und weiteren Folgeeffekten der Cloud Nutzung wie geringeren Personal- und Prozesskosten. Allerdings kann sich dieser vermeintliche Vorteil auch umkehren. Insbesondere bei der Nutzung datenintensiver Anwendungen, vor allem im KI-Umfeld, kommt es auf das gewählte Preismodell an, ob die angestrebten Kostenziele erreichbar sind, oder ob sich nicht der gegenteilige Effekt einstellt.

Den Vorteilen von Cloud Computing stehen jedoch auch Einschränkungen und Herausforderungen in verschiedenen Bereichen gegenüber. Unter den meistgenannten Punkten stehen dabei Sicherheit und Datenschutz sowie Kompatibilität und Interoperabilität.

Anfängliche Bedenken bezüglich des Datenschutzes und der Datensicherheit hielten Unternehmen häufig von der Nutzung von Public Cloud-Diensten ab. Wenn Cloud Computing in Form einer Public oder Hybrid Cloud genutzt wird, kommen bspw. der Verlust von Daten, unsichere Programmierschnittstellen oder Risiken durch unsichere Übertragungswegen als mögliche Risiken in Betracht. Diese anfängliche Einschätzung hat sich in den letzten Jahren jedoch sehr gewandelt. Vor dem Hintergrund zunehmender Bedrohungen der IT-Sicherheit in Unternehmen durch bspw. Hackerangriffe, Schadsoftware u. ä., fällt es CSPs zunehmend leichter, ihre Sicherheits-Zertifizierungen und -Überprüfungen als Qualitäts- und Alleistellungsmerkmal herauszustellen. Auch rechtliche Bedenken stellen bei der Nutzung von Cloud Services eine große Hürde dar, da die Umsetzung des Datenschutzes nicht vom physischen Speicherort und den dort rechtlichen Bedingungen des Datenschutzes getrennt werden kann. So setzen viele europäische Unternehmen auf die Nutzung von Cloud Computing-Ressourcen, die in Europa gehostet werden, um sicherzustellen, dass die verarbeiteten Daten nach europäischen Standards geschützt sind.

Neben rechtlichen können auch technische Herausforderungen auftreten. Unterschiedliche Cloud-Plattformen nutzen zur Realisierung gleicher Funktionen verschiedenen Programmierschnittstellen (sog. API) und/oder verschiedene Datenformate, so dass das Zusammenspiel oder gar die Migration von Cloud-Diensten zwischen verschiedenen Plattformen zu einer Herausforderung wird, der sich die Unternehmen gegenüber sehen. Interoperabilität ist von großer Bedeutung, da bestehende Anwendungen und Daten andernfalls nur mit großem Aufwand zwischen verschiedenen Anbietern gewechselt werden können und damit die Abhängigkeit von einzelnen CSPs sehr hoch ist („Vendor Lock-In“). Ebenso stellt die Anbindung und Integration zu den Legacysystemen und IT-Infrastrukturen durch die Bereitstellung geeigneter Schnittstellen eine weitere Herausforderung dar, die schon bei der Planung und Konzeption von Cloudvorhaben berücksichtigt werden muss.

1.2 Cloud-basierte Anwendungen im Bereich der Künstlichen Intelligenz

Ein spezieller Anwendungsfall von Cloud Computing, der zunehmend an Bedeutung in Unternehmen gewinnt, sind Cloud-basierte Anwendungen der Künstlichen Intelligenz (KI) oder auch Machine Learning as a Service (MLaaS).

Cloud-basierte KI bezieht sich auf die Verwendung von KI-Diensten, Anwendungen und Tools, die in einer Cloud gehostet und der Allgemeinheit on-demand-basiert durch den CSP zur Verfügung gestellt werden. Cloud Computing bietet eine relativ bequeme und kostengünstige Möglichkeit, leistungsstarke KI-Funktionen, ohne umfangreiche eigene Infrastruktur und Expertise zu nutzen. Ganz analog zu den bereits vorgestellten Vorteilen und Herausforderungen des Cloud Computing ermöglicht es Unternehmen somit Zugang zu komplexen Anwendungen und Systemen, ohne oder mit nur geringen Investitionsaufwand und eine einfache Mitnutzung von Innovationen. Die Notwendigkeit teurer Hardware oder Software-Investitionen, Wartung oder Zugang zu entsprechenden Spezialisten wird verringert, was KI für Unternehmen jeder Größe zugänglicher macht. Insbesondere klein- und mittelständische Unternehmen (KMU) werden in die Lage versetzt, auf aktuelle Technologien und Lösungen zugreifen zu können. Cloud-basierte KI-Services können darüber hinaus leichter skaliert werden, um sich ändernden Anforderungen gerecht zu werden.

In der Regel werden die benötigten Dienste über APIs bereitgestellt, die es Entwicklern ermöglichen, KI-Funktionen in ihre Anwendungen zu integrieren. Dabei kann es sich beispielsweise um Bilderkennung, natürliche Sprachverarbeitung oder Stimmungsanalyse (Sentiment Analyse) handeln. Solche KI-basierten Funktionen können damit einfach in bestehende Anwendungen integriert werden und deren Funktionalität erweitern.

Für viele Unternehmen stellt sich vor dem Einsatz von KI-Services die grundlegende Frage nach geeigneten Anwendungsfeldern und Use-Cases. Den Erfahrungen der Autoren zufolge, bestehen Herausforderungen insbesondere bei KMUs in der Entwicklung geeigneter Use-Cases und im Anschluss daran, in der Erhebung und Bereitstellung geeigneter Daten, die für die geplanten KI-Use-Cases benötigt werden.

Gleichzeitig bestehen – analog des Cloud Computing – weitere Herausforderungen, die vor allem die Bereiche Datenschutz- und Datensicherheit, ethischen Normen oder einem möglichen Vendor Lock-In betreffen. Die Nutzung von KI-Diensten in der Cloud erfordert in der Regel, dass die zu verarbeitenden Daten an die Cloud Services gesendet werden. Bei der Bilderkennung bspw. im medizinischen Bereich oder der Spracherkennung, kann es sich dabei um sehr sensible Daten handeln mit entsprechend strengen Vorgaben zur Einhaltung des Datenschutzes. Herausforderungen können hierbei bei Speicherung, Verarbeitung und Zugriff auf diese Daten bestehen. Wichtig bezüglich ethischer Normen ist, wie bei KI allgemein, dass klar ist, auf welchen Annahmen, Voreinstellungen und mit welchen Daten die Modelle trainiert sind, um Verfälschungen und möglichen Bias in der Verwendung und Interpretation der Ergebnisse ausschließen zu können. Ebenso führen spezifische Ausgestaltung von APIs und Funktionalitäten zu einer möglichen Abhängigkeit von bestimmten CSPs, so dass im Bedarfsfall der Service nur mit großem Aufwand gewechselt werden kann.

1.3 Schnittstellen des Cloud Computing zum IT-(Service)-Management

Ein effektiver und effizienter Einsatz von Cloud Services und Cloud-Lösungen bedarf neben allen technischen Voraussetzungen, insbesondere der Einbindung in das IT-Service-Management des Unternehmens.

Für das IT-Service-Management (ITSM) ist die Nutzung externer Ressourcen und die Integration externer Partner seit vielen Jahren gelebte Praxis (Goldberg et al. 2016). Mit der zunehmenden Nutzung von Cloud-Diensten ist es notwendig, diese im IT-Service-Management als entsprechende Management-Items mit in den jeweiligen Prozessen zu betrachten, um einerseits der steigenden Komplexität in der Steuerung der externen Dienstleister und andererseits dem (unbeabsichtigten) Entstehen einer Schatten-IT frühzeitig entgegenzuwirken. Hierfür bieten etablierte Frameworks für das IT-Service-Management, wie z. B. ITIL oder COBIT entsprechende Referenzprozesse bzw. Management Practices an. In beiden Ansätzen wird ein wertorientierter Ansatz für das IT-Service-Management zugrunde gelegt, welche sich auf die Ziele und die Zielerreichung der betreffenden Geschäftsprozesse der Servicenehmer konzentriert. Folglich gilt es, den Fokus auf den Wertbeitrag bzw. modifizierten Wertschöpfungsprozesse durch den Einsatz und die Nutzung von Cloud-Diensten zu legen. Prinzipiell können Cloud-Services wie andere IT-Services im Rahmen des Portfolio Managements, Architecture Management und Configuration Managements in bestehende Managementkonzepte wie z. B. ITIL oder COBIT einbezogen und gemanagt werden.

Um eine funktionierende Integration von Cloud-Services und CSP in das IT-Service-Management der Servicenehmer bewerkstelligen zu können, ist zunächst zu prüfen, ob sowohl die vorhandene IT-Strategie als auch die bestehende IT-Governance den angestrebten bzw. modifizierten Anforderungen genügen, die sich durch den Einsatz von Cloud Computing ergeben. Gegebenenfalls ist die grundlegende Ausgestaltung der IT-Governance und IT-Strategie zu überarbeiten, sowie die organisatorischen und technischen Rahmenbedingungen an die anzustrebende Zielsetzung anzupassen.

Ergänzend zur Anpassung der Führungs- und Managementprozesse sind die eigentlichen Service-Management-Prozesse und -Practices an die Cloud Nutzung anzugleichen, da sich aufgrund von Cloud Computing die Bedeutung und Relevanz vorhandener Prozesse und Practices verändern. Dabei nimmt tendenziell die Bedeutung derjenigen Practices ab, die die Service Value Chain von selbstentwickelten IT-Services betreffen, also für die Entwicklung, Transition, Betrieb und Support dieser Services. Dagegen steigt durch das Cloud Computing die Bedeutung und Relevanz derjenigen Practices, die sich auf die Themen Service Portfolio und Service Provider Management beziehen. Die Bedeutung der primären Handlungsbereiche bei den Unternehmen verschiebt sich somit, ohne dass man davon ausgehen kann, dass die Practices, die für eine Eigenentwicklung und Eigenbetrieb relevant sind, vollkommen unbedeutend werden.

Aufgrund der zunehmenden Bedeutung für eine wachsende Anzahl von Unternehmen wurde für das ITIL-Framework ein spezifischer Vorschlag für das Cloud Management erstellt. Es zeigt sich damit, dass das Management von Cloud-Services und die CSP in bestehende IT-Service-Managementansätze integriert werden können. Der Ansatz beschreibt ein Lebenszyklusmodell, das bei der Bestimmung und Auswahl möglicher Services unterstützt, die für eine Cloud-Lösung infrage kommen. Des Weiteren werden Auswahl- und Bewertungsprozesse sowie das Onboarding von CSP beschrieben. Der Lebenszyklus endet mit den Phasen der Co-Creation, bei der vor allem auf das Alignment der Betriebsmodelle zwischen Kunden und Service Provider abgezielt wird, sowie die Umsetzung mit dem entsprechenden Monitoring und Controlling. Ergänzend zu den beschriebenen Lebenszyklusphasen ist es auch angeraten, sich frühzeitig über das Verfahren zur Auflösung der Geschäftsbeziehung zum einem CSP Gedanken zu machen und Prozesse zu entwickeln, die ein Wechsel zu einem anderen Provider bzw. zur Eigenabwicklung ermöglichen.

2 Multi-Cloud als Weiterentwicklung von Cloud Computing

2.1 Definition und Bedeutung von Multi-Cloud Computing in Unternehmen

Aktuell sind Themen wie Multi-Cloud, Cloud Brokerage oder Cloud-basierte KI-Anwendungen im Mittelpunkt des Interesses. Unternehmen nutzen verstärkt verschiedene Cloud-Anbieter, um ihre vielfältigen Anforderungen besser und flexibler abdecken zu können. Der grundlegende Gedanke des Multi-Cloud-Ansatzes ist es, abhängig von den Anforderungen des Unternehmens verschiedene, in der Regel voneinander unabhängige Cloud-Service-Provider zur Realisierung dieser Anforderungen einzusetzen. Das Zusammenführen der verschiedenen Cloud-Lösungen zu einem einheitlichen, anforderungsgerechten Service obliegt dabei in der Regel dem Unternehmen, das diese Cloud-Lösungen einsetzen möchte. Dies ermöglicht mehrere Vorteile im Vergleich zu einem Single-Cloud-Ansatz: So ermöglicht Multi-Cloud die gezielte Nutzung verschiedener Technologien und Innovationen, die die verschiedenen CSPs bereitstellen und es erlaubt, auf Angebotsänderungen des CSPs flexibel zu reagieren. Dadurch wird es möglich, schnell technologische Innovationen aufzugreifen und im eigenen Unternehmen umzusetzen. Gleichzeitig sinkt durch die Nutzung mehrerer CSPs die Abhängigkeit von einem einzigen Cloud-Anbieter (sog. „Vendor Lock-In“) und es besteht die Möglichkeit, die Betriebskosten zu senken, indem Unternehmen die für sie günstigsten Cloud-Dienste für bestimmte Aufgaben auswählen. So können beispielsweise unterschiedliche Kostenmodelle der Cloud-Anbieter aufgabengerecht genutzt werden. Multi-Cloud kann auch dazu dienen, eine höhere Verfügbarkeit oder schnellere Antwortzeit von Diensten herzustellen oder im Notfall schnell auf andere Anbieter als Backup zurückgreifen zu können. Diese Aspekte werden um so bedeutender, desto größer der Umfang der Nutzung von Cloud Computing im Unternehmen wird.

Unterdessen stellt dies Unternehmen jedoch vor zusätzliche Herausforderungen hinsichtlich der Kompatibilität von Anwendungen und Daten, die zwischen verschiedenen Cloud-Anbieter genutzt werden sollen. Unterschiedliche Cloud-Plattformen nutzen zur Realisierung gleicher Funktionen verschiedenen Programmierschnittstellen (sog. APIs) und/oder verschiedene Datenformate, so dass das Zusammenspiel oder gar die Migration von Cloud-Diensten zwischen verschiedenen Plattformen einer wesentlichen Herausforderung wird, denen sich die Unternehmen bei der Nutzung unterschiedlicher CSP gegenübersehen.

Es gibt eine Vielzahl von Herausforderungen für die Kompatibilität beim Einsatz verschiedener CSP:

  • Interoperabilität bezeichnet die Herausforderungen, dass verschiedenen Systeme gemeinsam eingesetzt werden können. Hinderungsgründe für die Interoperabilität auf technischer Seite können sehr vielfältig sein und bspw. auf Ebene der verwendeten Programmiersprachen, APIs oder Datenbanktechnologien liegen: Verschiedene CSP verwenden häufig unterschiedliche Programmiersprachen unterstützen oder bevorzugen, wie beispielsweise Java, Python oder Ruby. Darüber hinaus unterschieden sich die APIs der verschiedenen CSP, um auf seine Dienste zuzugreifen. Wenn eine Anwendung oder Plattform auf die APIs eines bestimmten Anbieters angewiesen ist, führt die zu Inkompatibilitäten, wenn diese mit einem anderen Anbieter integrieren werden soll. Die Herausforderungen reichen von unterschiedlichen Protokollen bei der Kommunikation, unterschiedliche Funktionen und unterschiedliche Parameter, die die Funktionen verwenden. Dies kann eine wesentliche Herausforderung darstellen, verschiedene Cloud-Dienste zu integrieren und zu orchestrieren. Auf eben der Datenbanktechnologien setzen CSP zum Teil unterschiedliche Datenbanktechnologien ein, wie beispielsweise relationale Datenbanken, NoSQL-Datenbanken oder Graphendatenbanken. Dies verhindert, dass Daten und Anwendungen zwischen verschiedenen Anbietern einfach verschoben werden können.
  • Sicherheit und Datenschutz: Cloud Brokerage erfordert den Austausch von Daten und Informationen zwischen verschiedenen Cloud-Diensten und -Anwendungen. Dies kann jedoch zu vielfältigen Sicherheits- und Datenschutzproblemen führen. Zwar sind die Systeme grundsätzlich gegeneinander abgeschottet („Multi-Tenancy“), liegen letztlich aber dennoch physisch auf der gleichen Hardware vor, so dass theoretisch Sicherheitslücken dazu führen können, dass unbefugter Zugriff auf Daten möglich ist. Gleiches gilt für den Übertragungsweg. Die Daten werden in der Cloud gespeichert. Der Zugriff erfolgt über APIs und verschlüsselte Übertragungswege. Theoretisch ist es auch hier denkbar, dass über Sicherheitslücken an unterschiedlichen Stellen unbefugter Zugriff auf Daten oder das Abfangen von Daten möglich ist.
  • Compliance: Verschiedene CSP unterstützen unterschiedliche Sicherheits- und Compliance-Standards, die möglicherweise nicht miteinander kompatibel sind.

Gleichzeitig nehmen durch Multi-Cloud die Herausforderungen für die IT-Organisation des Unternehmens zu. Die Unternehmens-IT rutscht immer mehr in die Rolle eines Service Integrators in einer zunehmend komplexen IT-Landschaft, die von unterschiedlichsten Lieferanten mit unterschiedlichen Vertragskonstellationen zusammengeführt werden muss. Dies stellt an das IT-Service-Management hohe Anforderungen und adressiert in gleicherweise verschiedene Aspekte des strategischen und operativen ITSM sowie dem Management der Architektur. Unterschied ist jedoch der Grad an Komplexität.

Günther, J., Praeg, CP. Bedeutung und Management von Cloud Computing, Multi-Cloud und Cloud Brokerage in Unternehmen. HMD (2023).

https://doi.org/10.1365/s40702-023-00991-z

http://creativecommons.org/licenses/by/4.0/deed.de

Zur einfacheren Lesbarkeit wurden die Quellen- und Literaturverweise entfernt.


Verantwortungsvolle Künstliche Intelligenz

07/2023

Die Frage nach dem verantwortungsvollen Umgang mit künstlicher Intelligenz (KI) ist nicht neu. Doch als sich Ende 2022 innerhalb von fünf Tagen eine Million Nutzer beim Textgenerator ChatGPT anmeldeten, wurde auch die Diskussion um verantwortungsvolle KI neu entfacht und in Berufsfelder getragen, die bis dahin kaum von KI betroffen zu sein schienen: Darunter Programmierer, Journalisten und Künstler u.V.m. Um die Frage, nach verantwortungsvoller KI beantworten zu können, reicht es aber nicht aus, allein auf die positiven oder negativen Folgen zu schauen: Man muss auch nach verschiedenen Arten von KI differenzieren, weshalb sich der erste Teil dieses Beitrags mit der Definition und Anwendungsfällen von KI beschäftigt, und darauf aufbauend im zweiten Teil auf die Frage nach dem verantwortlichen Umgang eingegangen wird.

1. Definition von Künstlicher Intelligenz

Traditionell wurde KI (Künstliche Intelligenz) als Simulation intelligenten menschlichen Denkens und Handelns aufgefasst. Diese Definition krankt daran, dass „intelligentes menschliches Denken“ und „Handeln“ nicht definiert sind. Ferner wird der Mensch zum Maßstab von Intelligenz gemacht, obwohl die Evolution viele Organismen mit unterschiedlichen Graden von „Intelligenz“ hervorgebracht hat. Zudem sind wir längst in der Technik von „intelligenten“ Systemen umgeben, die zwar selbstständig und effizient, aber häufig anders als Menschen unsere Zivilisation steuern.

Umso mehr stellt sich die Frage, was macht uns Menschen aus und wie ist menschliche Autonomie zu verstehen?

Einstein hat auf die Frage, was „Zeit“ sei, kurz geantwortet: „Zeit ist, was eine Uhr misst“. Deshalb schlagen wir eine Arbeitsdefinition für Intelligenz vor, die unabhängig vom Menschen ist und von messbaren Größen von Systemen abhängt. Dazu betrachten wir Systeme, die mehr oder weniger selbstständig (autonom) Probleme lösen können. Beispiele solcher Systeme können z.B. Organismen, Gehirne, Roboter, Automobile, Smartphones oder Accessoires sein, die wir am Körper tragen (Wearables). Systeme mit unterschiedlichem Grad von Intelligenz sind aber auch z.B. Fabrikanlagen (Industrie 4.0), Verkehrssysteme oder Energiesysteme (smart grids), die sich mehr oder weniger selbstständig steuern und zentrale Versorgungsprobleme lösen. Der Grad der Intelligenz solcher Systeme hängt vom Grad der Selbstständigkeit, von der Komplexität des zu lösenden Problems und der Effizienz des Problemlösungsverfahrens ab.

Es gibt danach also nicht „die“ Intelligenz, sondern Grade von Intelligenz. Komplexität und Effizienz sind in der Informatik und den Ingenieurwissenschaften messbare Größen. Ein autonomes Fahrzeug hat danach einen Grad von Intelligenz, der vom Grad seiner Fähigkeit abhängt, einen angegebenen Zielort selbstständig und effizient zu erreichen. Es gibt bereits mehr oder weniger autonome Fahrzeuge. Der Grad ihrer Selbstständigkeit ist technisch genau definiert. Die Fähigkeit unserer Smartphones, sich mit uns zu unterhalten, verändert sich ebenfalls. Jedenfalls deckt unsere Arbeitsdefinition intelligenter Systeme die Forschung ab, die in Informatik und Technik unter dem Titel „Künstliche Intelligenz“ bereits seit vielen Jahren erfolgreich arbeitet und intelligente Systeme entwickelt:

Ein System heißt intelligent, wenn es selbstständig und effizient komplexe Probleme lösen kann. Der Grad der Intelligenz hängt vom Grad der Selbstständigkeit (Autonomie), dem Grad der Komplexität des Problems und dem Grad der Effizienz des Problemlösungsverfahrens ab. Die Liste der genannten Kriterien ist keineswegs vollständig, sondern kann im Sinn einer Arbeitsdefinition nach Bedarf erweitert werden.

Es ist zwar richtig, dass intelligente technische Systeme, selbst wenn sie hohe Grade der selbstständigen und effizienten Problemlösung besitzen, letztlich von Menschen angestoßen wurden. Aber auch die menschliche Intelligenz ist nicht vom Himmel gefallen und hängt von Vorgaben und Einschränkungen ab. Der menschliche Organismus ist ein Produkt der Evolution, die voller molekular und neuronal kodierter Algorithmen steckt. Sie haben sich über Jahrmillionen entwickelt und sind nur mehr oder weniger effizient. Häufig spielten Zufälle mit. Dabei hat sich ein hybrides System von Fähigkeiten ergeben, das keineswegs „die“ Intelligenz überhaupt repräsentiert. Einzelne Fähigkeiten des Menschen haben KI und Technik längst überholt oder anders gelöst. Man denke an Schnelligkeit der Datenverarbeitung oder Speicherkapazitäten. Dazu war keineswegs „Bewusstsein“ wie bei Menschen notwendig. Organismen der Evolution wie Stabheuschrecken, Wölfe oder Menschen lösen ihre Probleme unterschiedlich. Zudem hängt Intelligenz in der Natur keineswegs von einzelnen Organismen ab. Die Schwarmintelligenz einer Tierpopulation entsteht durch das Zusammenwirken vieler Organismen ähnlich wie in den intelligenten Infrastrukturen, die uns bereits in Technik und Gesellschaft umgeben. Auch hier lassen sich Grade des autonomen Entscheidens und Handelns unterscheiden.

2. Von der symbolischen und subsymbolischen KI zur hybriden KI

2.1 Symbolische KI: Logik und Deduktion

In einer ersten Phase orientierte sich KI an formalen (symbolischen) Kalkülen der Logik, mit denen Problemlösungen regelbasiert abgeleitet werden können. Man spricht deshalb auch von symbolischer KI. Ein typisches Beispiel ist das automatische Beweisen mit logischen Deduktionen, die sich mit Computerprogrammen realisieren lassen. Automatisierung bedeutet bis zu einem bestimmten Grad auch Autonomie, da Computerprogramme die Beweistätigkeit eines Mathematikers übernehmen. Wissensbasierte Expertensysteme sind Computerprogramme, die Wissen über ein spezielles Gebiet speichern und ansammeln, aus dem Wissen automatisch Schlussfolgerungen ziehen, um zu konkreten Problemen des Gebietes Lösungen anzubieten. Im Unterschied zum menschlichen Experten ist das Wissen eines Expertensystems aber auf eine spezialisierte Informationsbasis beschränkt ohne allgemeines und strukturelles Wissen über die Welt. Um ein Expertensystem zu bauen, muss das Wissen des Experten in Regeln gefasst werden, in eine Programmsprache übersetzt und mit einer Problemlösungsstrategie bearbeitet werden. Die Architektur eines Expertensystems besteht daher aus den folgenden Komponenten:

  • Wissensbasis,
  • Problemlösungskomponente (Ableitungssystem),
  • Erklärungskomponente,
  • Wissenserwerb,
  • Dialogkomponente.

In dieser Architektur werden zugleich die Grenzen symbolischer KI deutlich: Fähigkeiten, die nicht oder nur schwer symbolisch erfasst und regelbasiert simuliert werden können, bleiben der symbolischen KI verschlossen.

2.2 Subsymbolische KI: Statistik und Induktion

Sensorische und motorische Fähigkeiten werden nicht aus Lehrbuchwissen logisch abgeleitet, sondern aus Beispielen erlernt, trainiert und eingeübt. So lernen wir, uns motorisch zu bewegen und in einer Vielzahl sensorischer Daten Muster und Zusammenhänge zu erkennen, an denen wir unser Handeln und Entscheiden orientieren können. Da diese Fähigkeiten nicht von ihrer symbolischen Repräsentation abhängen, spricht man auch von subsymbolischer KI. An die Stelle der formalen Schlüsse der Logik tritt nun die Statistik der Daten. Beim statistischen Lernen sollen allgemeine Abhängigkeiten und Zusammenhänge aus endlich vielen Beobachtungsdaten durch Algorithmen abgeleitet werden. An die Stelle der Deduktion in der symbolischen KI tritt also in der subsymbolischen KI die Induktion. Dazu können wir uns ein naturwissenschaftliches Experiment vorstellen, bei dem in einer Serie von veränderten Bedingungen (Inputs) entsprechende Ergebnisse (Outputs) folgen. In der Medizin könnte es sich um einen Patienten handeln, der auf Medikamente in bestimmter Weise reagiert.

Dabei nehmen wir an, dass die entsprechenden Paare von Input- und Output-Daten unabhängig durch dasselbe Zufallsexperiment erzeugt werden. Statistisch sagt man deshalb, dass die endliche Folge von Beobachtungsdaten (x1, y2) , … , (xn, y) mit Inputs xi und Outputs yi  (i = 1, … , n) durch Zufallsvariablen (X1, Y) , … , (Xn, Y) realisiert wird, denen eine Wahrscheinlichkeitsverteilung PX,Y zugrunde liegt. Algorithmen sollen nun Eigenschaften der Wahrscheinlichkeitsverteilung PX,Y ableiten. Ein Beispiel wäre die Erwartungswahrscheinlichkeit, mit der für einen gegebenen Input ein entsprechender Output auftritt.  Es kann sich aber auch um eine Klassifikationsaufgabe handeln: Eine Datenmenge soll auf zwei Klassen aufgeteilt werden. Mit welcher Wahrscheinlichkeit gehört ein Element der Datenmenge (Input) eher zu der einen oder anderen Klasse (Output)? Wir sprechen in diesem Fall auch von binärer Mustererkennung.

Die derzeitigen Erfolge des Machine Learning scheinen die These zu bestätigen, dass es auf möglichst große Datenmengen ankommt, die mit immer stärkerer Computerpower bearbeitet werden. Die erkannten Regularitäten hängen dann aber nur von der Wahrscheinlichkeitsverteilung der statistischen Daten ab.

Statistisches Lernen versucht, ein probabilistisches Modell aus endlich vielen Daten von Ergebnissen (z.B. Zufallsexperimente) und Beobachtungen abzuleiten.

Statistisches Schließen versucht umgekehrt, Eigenschaften von beobachteten Daten aus einem angenommenen statistischen Modell abzuleiten.

In der Automatisierung statistischen Lernens nehmen neuronale Netze mit Lernalgorithmen eine Schlüsselrolle ein. Neuronale Netze sind vereinfachte Rechenmodelle nach dem Vorbild des menschlichen Gehirns, in denen Neuronen mit Synapsen verbunden sind. Die Intensität der neurochemischen Signale, die zwischen den Neuronen ausgesendet werden, sind im Modell durch Zahlengewichte repräsentiert. Probabilistische Netzwerke haben experimentell eine große Ähnlichkeit mit biologischen neuronalen Netzen. Werden Zellen entfernt oder einzelne Synapsengewichte um kleine Beträge verändert, erweisen sie sich als fehlertolerant gegenüber kleineren Störungen wie das menschliche Gehirn z.B. bei kleineren Unfallschäden. Das menschliche Gehirn arbeitet mit Schichten paralleler Signalverarbeitung. So sind z.B. zwischen einer sensorischen Inputschicht und einer motorischen Output-Schicht interne Zwischenschritte neuronaler Signalverarbeitung geschaltet, die nicht mit der Außenwelt in Verbindung stehen.

Tatsächlich lässt sich auch in technischen neuronalen Netzen die Repräsentations- und Problemlösungskapazität steigern, indem verschiedene lernfähige Schichten mit möglichst vielen Neuronen zwischengeschaltet werden. Die erste Schicht erhält das Eingabemuster. Jedes Neuron dieser Schicht hat Verbindungen zu jedem Neuron der nächsten Schicht. Die Hintereinanderschaltung setzt sich fort, bis die letzte Schicht erreicht ist und ein Aktivitätsmuster abgibt.

Wir sprechen von überwachten Lernverfahren, wenn der zu lernende Prototyp (z.B. die Wiedererkennung eines Musters) bekannt ist und die jeweiligen Fehlerabweichungen daran gemessen werden können. Ein Lernalgorithmus muss die synaptischen Gewichte so lange verändern, bis ein Aktivitätsmuster in der Output-Schicht herauskommt, das möglichst wenig vom Prototyp abweicht.

Ein effektives Verfahren besteht darin, für jedes Neuron der Output-Schicht die Fehlerabweichung von tatsächlichem und gewünschtem Output zu berechnen und dann über die Schichten des Netzwerks zurückzuverfolgen. Wir sprechen dann von einem Backpropagation-AlgorithmusDie Absicht ist, durch genügend viele Lernschritte für ein Vorgabemuster den Fehler auf Null bzw. vernachlässigbar kleine Werte zu vermindern.

2.3 Anwendungsbeispiel von statistischem Lernen in KI-Chatbots

Ein spektakuläres Anwendungsbeispiel subsymbolischer KI sind Chatbots wie ChatGPT (Generative Pretrained Transformer), der wegen seiner verblüffenden Möglichkeiten als automatischer Textgenerator seit dem 30. November 2022 innerhalb weniger Tage mit Millionen von Nutzern mehr Followers hatte als soziale Medien wie z.B. Instagramm und Spotify. ChatGPT kann Texte von Schulaufgaben auf gymnasialem Niveau bis zu Texten von Seminararbeiten mittleren universitären Niveaus generieren. Auf der Grundlage eines „Large Language Models“ kann man sich mit diesem KI-Programm über Businesspläne unterhalten oder das Schreiben eines Lieds, Gedichts oder Romanfragmenten in einem bestimmten Stil in Auftrag geben.

Tatsächlich beruht das Sprachmodell von ChatGPT auf einer gewaltigen Menge von Texten (Big Data), die dem System von Menschen eintrainiert wurden. Es handelt sich also um ein Beispiel des Machine Learning auf der Grundlage von statistischer Lerntheorie und Mustererkennung, wie es im vorherigen Abschnitt erklärt wurde. Das ehrgeizige Ziel ist dabei, eine zentrale Grenze der symbolischen KI zu überwinden, die in ihren wissensbasierten Expertensystemen auf das Fachwissen von Spezialisten (z.B. medizinisches Fachwissen in einer speziellen medizinischen Disziplin) beschränkt war, sofern es in logisch-regelbasierte Formeln übersetzt werden konnte. Ein Experte wie z.B. ein Mediziner verfügt aber auch über ein unbewusstes Können aufgrund von Erfahrung und Hintergrundwissen, das über das Lehrbuchwissen hinaus in sein Handeln und Entscheiden einfließt.

Bekannt ist das Beispiel einer Fahrschule, in der zunächst regelbasiertes Wissen zur Bedienung des Fahrzeugs und für das korrekte Verhalten im Verkehr nach Geboten und Verboten gelernt wird. Aber zum guten Autofahrer gehört von einer bestimmten Lernstufe ab das unbewusste Können, das auf Erfahrung und Intuition beruht. Was in den Expertensystemen fehlte, war das allgemeine Hintergrundwissen und die Erfahrung und Intuition eines Menschen. Mit Steigerung der Rechenleistung und der Bewältigung großer Datenmassen mit Modellen statistischen Lernens wird nun das Ziel verfolgt, auch das allgemeine „Weltwissen“ von uns Menschen auf die Maschine zu bringen.

Dazu wird der Chatbot mit Texten aus Nachrichten, Büchern, sozialen Medien, online-Foren, Bildern, Filmen und gesprochenen Sprachtexten trainiert. Algorithmen dienen dazu, aus den Trainingsdaten zu lernen. Der Chatbot reproduziert Muster, die er in den gespeicherten Daten erkennt. Das geschieht nach den gleichen Verfahren, mit denen bei der Gesichtserkennung Personenbilder aus Bilddateien erkannt werden. Die reproduzierten Texte werden mit trainierten Beispieltexten verglichen und so durch Algorithmen des verstärkenden Lernens (reinforcement learning) schrittweise verbessert. Dabei können auch Korrekturen durchgeführt werden, wenn Korrelationen der eintrainierten Daten z.B. zu Diskriminierungen führen. Ähnlich wie bei indoktrinierten Menschen, kann ein solches Fehlverhalten aufgrund des Umfangs der eintrainierten Datenmengen nie ausgeschlossen werden. Da diese Chatbots in den sozialen Medien auf große Akzeptanz stoßen, können sie auch gefährliche Desinformationen hervorrufen.

Letztlich ist auch ChatGPT nichts anderes als eine stochastische Maschine, die Daten, Texte, Bilder und Gesprochenes mit Mustererkennungsalgorithmen rekombiniert und rekonfiguriert. Aufgrund der modernen Rechnertechnologien, die gewaltige Datenmengen speichern und schnelle Lernalgorithmen anwenden können, entstehen allerdings verblüffende Ergebnisse, die einen großen Teil von menschlichem Hintergrundwissen und Intuition simulieren. Damit zeigt sich aber auch, auf welchen Mechanismen unsere Konversations- und Kulturwelten beruhen – Reproduktionen und Rekombinationen von Mustern, die weitgehend von Maschinen übernommen werden können. Selbst die Sozial-, Kultur- und Geisteswissenschaften sind davor nicht gefeit, vom Journalismus ganz abgesehen.

Wittgenstein nannte das „Sprachspiele“, die nach bestimmten Regeln funktionieren. Das Originelle besteht häufig nur in einer kleinen Veränderung und Variante der gewohnten Sprachspiele und „Narrative“. Der Autor erinnert sich an sein Studium, als er in den 1960er und 1970er Jahren als Mathematikstudent den „Jargon der Eigentlichkeit“ in geistes- und kulturwissenschaftlichen Seminaren beobachtete und nach einer gewissen Zeit des „Trainings“ im Jargon der verschiedenen ideologischen Richtungen „mitplappern“ konnte. Im Machine Learning ist mittlerweile die Rede von „stochastischen Papageien“. Positiv gewendet eignet sich daher der ChatGPT zur Entlarvung der Mechanismen von Kulturbetrieb und Journalismus. Dort wird man anspruchsvoller werden müssen, um nicht durch Maschinen ersetzt zu werden

ChatGPT löst zwar Mathematikaufgaben bis zu einem gewissen Grad, aber nur auf Grund gewaltiger Datenmengen, die statistisch rekombiniert werden. Ein begabter Schüler löst aber Aufgaben logisch, ohne vorher alle möglichen Textbücher verschlungen zu haben. ChatPCT kennt Zahlen nur, wenn sie von eintrainierten Texten extrahiert werden können. So könnte die Definition einer Primzahl reproduziert werden, wenn dieser Text irgendwo im Speicher von ChatGPT auftaucht. Aber daraus Schlüsse ziehen und entscheiden, ob eine vorliegende Zahl eine Primzahl ist oder nicht, kann ChatGPT nur, wenn entsprechendes Vorwissen eintrainiert wurde. Rechnen, logisches und kausales Denken sind ihm fremd. Es wird geraten und assoziiert. In unserem Buch „Grenzen der Künstlichen Intelligenz“ wurde diese zentrale Schwäche statistischer Lerntheorie und des Machine Learning herausgestellt. ChatGPT kann einfache Computerprogramme nur schreiben, in dem es gespeicherte Vorlagen und Fragmente imitiert und durch Raten rekombiniert – das aber auf verblüffend hohem Niveau, das selbst von „gebildeten“ Menschen nicht zu unterscheiden ist.

2.4 Vom statistischen zum kausalen Lernen

Statistisches Lernen und Schließen aus Daten reichen also nicht aus. Wir müssen vielmehr die kausalen Zusammenhänge von Ursachen und Wirkungen hinter den Messdaten erkennen. Diese kausalen Zusammenhänge hängen von den Gesetzen der jeweiligen Anwendungsdomäne unserer Forschungsmethoden ab, also den Gesetzen der Physik, den Gesetzen der Biochemie und des Zellwachstums im Beispiel der Krebsforschung, etc. Wäre es anders, könnten wir mit den Methoden des statistischen Lernens und Schließen bereits die Probleme dieser Welt lösen.

Statistisches Lernen und Schließen ohne kausales Domänenwissen ist blind – bei noch so großer Datenmenge (Big Data) und Rechenpower!

Die Auseinandersetzung zwischen probabilistischem und kausalem Denken ist keineswegs neu, sondern wurde erkenntnistheoretisch bereits in der Philosophie des 18. Jahrhunderts zwischen David Hume (1711-1776) und Immanuel Kant (1724-1804) ausgefochten. Nach Hume beruht alle Erkenntnis auf sinnlichen Eindrücken (Daten), die psychologisch „assoziiert“ werden. Es gibt danach keine Kausalitätsgesetze von Ursache und Wirkung, sondern nur Assoziationen von Eindrücken (z.B. Blitz und Donner), die mit (statistischer) Häufigkeit „gewohnheitsmäßig“ korreliert werden. Nach Kant sind Kausalitätsgesetze als vernunftmäßig gebildete Hypothesen möglich, die experimentell überprüft werden können. Ihre Bildung beruht nicht auf psychologischen Assoziationen, sondern auf der vernunftmäßigen Kategorie der Kausalität, die mithilfe der Einbildungskraft für Vorhersagen auf der Grundlage von Erfahrung operationalisiert werden kann. Nach Kant ist dieses Verfahren seit Galileo Galilei in der Physik in Gebrauch, die so erst zur Wissenschaft wurde. 

Neben der Statistik der Daten bedarf es zusätzlicher Gesetzes- und Strukturannahmen der Anwendungsdomänen, die durch Experimente und Interventionen überprüft werden. Kausale Erklärungsmodelle (z.B. das Planetenmodell oder ein Tumormodell) erfüllen die Gesetzes- und Strukturannahmen einer Theorie (z.B. Newtons Gravitationstheorie oder die Gesetze der Zellbiologie):

Beim kausalen Schließen werden Eigenschaften von Daten und Beobachtungen aus Kausalmodellen, d.h. Gesetzesannahmen von Ursachen und Wirkungen, abgeleitet. Kausales Schließen ermöglicht damit, die Wirkungen von Interventionen oder Datenveränderungen (z.B. durch Experimente) zu bestimmen.

Kausales Lernen versucht umgekehrt, ein Kausalmodell aus Beobachtungen, Messdaten und Interventionen (z.B. Experimente) abzuleiten, die zusätzliche Gesetzes- und Strukturannahmen voraussetzen. 

Ein hochaktuelles technisches Beispiel für die wachsende Komplexität neuronaler Netze sind selbst-lernende Fahrzeuge. So kann ein einfaches Automobil mit verschiedenen Sensoren (z.B. Nachbarschaft, Licht, Kollision) und motorischer Ausstattung bereits komplexes Verhalten durch ein sich selbst organisierendes neuronales Netzwerk erzeugen. Werden benachbarte Sensoren bei einer Kollision mit einem äußeren Gegenstand erregt, dann auch die mit den Sensoren verbundenen Neuronen eines entsprechenden neuronalen Netzes. So entsteht im neuronalen Netz ein Verschaltungsmuster, das den äußeren Gegenstand repräsentiert. Im Prinzip ist dieser Vorgang ähnlich wie bei der Wahrnehmung eines äußeren Gegenstands durch einen Organismus – nur dort sehr viel komplexer.

Wenn wir uns nun noch vorstellen, dass dieses Automobil mit einem „Gedächtnis“ (Datenbank) ausgestattet wird, mit dem es sich solche gefährlichen Kollisionen merken kann, um sie in Zukunft zu vermeiden, dann ahnt man, wie die Automobilindustrie in Zukunft unterwegs sein wird, selbst-lernende Fahrzeuge zu bauen. Sie werden sich erheblich von den herkömmlichen Fahrerassistenzsystemen mit vorprogrammiertem Verhalten unter bestimmten Bedingungen unterscheiden. Es wird sich um ein neuronales Lernen handeln, wie wir es in der Natur von höher entwickelten Organismen kennen.

Wie viele reale Unfälle sind aber erforderlich, um selbstlernende (“autonome”) Fahrzeuge zu trainieren? Wer ist verantwortlich, wenn autonome Fahrzeuge in Unfälle verwickelt sind? Welche ethischen und rechtlichen Herausforderungen stellen sich? Bei komplexen Systemen wie neuronalen Netzen mit z.B. Millionen von Elementen und Milliarden von synaptischen Verbindungen erlauben zwar die Gesetze der statistischen Physik, globale Aussagen über Trend- und Konvergenzverhalten des gesamten Systems zu machen. Die Zahl der empirischen Parameter der einzelnen Elemente ist jedoch unter Umständen so groß, dass keine lokalen Ursachen ausgemacht werden können. Das neuronale Netz bleibt für uns eine „Black Box“. Vom ingenieurwissenschaftlichen Standpunkt aus sprechen Autoren daher von einem „dunklen Geheimnis“ im Zentrum der KI des Machine Learning: “. . .even the engineers who designed [the machine learning-based system] may struggle to isolate the reason for any single action”.

Zwei verschiedene Ansätze im Software Engineering sind denkbar:

1. Testen zeigt nur (zufällig) gefundene Fehler, aber nicht alle anderen möglichen.

2. Zur grundsätzlichen Vermeidung müsste eine formale Verifikation des neuronalen Netzes und seiner zugrundeliegenden kausalen Abläufe durchgeführt werden.

Zusammengefasst folgt: Machine Learning mit neuronalen Netzen funktioniert, aber wir können die Abläufe in den neuronalen Netzen nicht im Einzelnen verstehen und kontrollieren. Heutige Techniken des Machine Learning beruhen meistens nur auf statistischem Lernen, aber das reicht nicht für sicherheitskritische Systeme. Daher sollte Machine Learning mit Beweisassistenten und kausalem Lernen verbunden werden. Korrektes Verhalten wird dabei durch Metatheoreme in einem logischen Formalismus garantiert.

2.5 Auf dem Weg zur hybriden KI

Dieses Modell selbstlernender Fahrzeuge erinnert an die Organisation des Lernens im menschlichen Organismus: Verhalten und Reaktionen laufen dort ebenfalls weitgehend unbewusst ab. „Unbewusst“ heißt, dass wir uns der kausalen Abläufe des durch sensorielle und neuronale Signale gesteuerten Bewegungsapparats nicht bewusst sind. Das lässt sich mit Algorithmen des statistischen Lernens automatisieren. In kritischen Situationen reicht das aber nicht aus: Um mehr Sicherheit durch bessere Kontrolle im menschlichen Organismus zu erreichen, muss der Verstand mit kausaler Analyse und logischem Schließen eingreifen. Dieser Vorgang sollte im Machine Learning durch Algorithmen des kausalen Lernens und logischer Beweisassistenten automatisiert wird:

Ziel ist daher eine hybride KI, in der analog zum menschlichen Organismus symbolische und subsymbolische KI verbunden werden.

3. Roboter als KI-Systeme

Mit zunehmender Komplexität und Automatisierung der Technik werden Roboter zu Dienstleistern der Industriegesellschaft. Die Evolution lebender Organismen inspiriert heute die Konstruktion von Robotik-Systemen für unterschiedliche Zwecke. Mit wachsenden Komplexitäts- und Schwierigkeitsgraden der Dienstleistungsaufgabe wird die Anwendung von KI-Technik unvermeidlich. Dabei müssen Roboter nicht wie Menschen aussehen. Genauso wie Flugzeuge nicht wie Vögel aussehen, gibt es je nach Funktion auch andere angepasste Formen. Es stellt sich also die Frage, zu welchem Zweck humanoide Roboter welche Eigenschaften und Fähigkeiten besitzen sollten.

Humanoide Roboter sollten direkt in der menschlichen Umgebung wirken können. In der menschlichen Umwelt ist die Umgebung auf menschliche Proportionen abgestimmt. Die Gestaltung reicht von der Breite der Gänge über die Höhe einer Treppenstufe bis zu Positionen von Türklinken. Für nicht menschenähnliche Roboter (z.B. auf Rädern und mit anderen Greifern statt Händen) müssten also große Investitionen für Veränderungen der Umwelt ausgeführt werden. Zudem sind alle Werkzeuge, die Mensch und Roboter gemeinsam benutzen sollten, auf menschliche Bedürfnisse abgestimmt. Nicht zu unterschätzen ist die Erfahrung, dass humanoide Formen den emotionalen Umgang mit Robotern psychologisch erleichtern.

Humanoide Roboter haben aber nicht nur zwei Beine und zwei Arme. Sie verfügen über optische und akustische Sensoren. In Bezug auf Platz und Batterielaufzeiten gibt es bisher bei den verwendbaren Prozessoren und Sensoren Einschränkungen. Miniaturisierungen von optischen und akustischen Funktionen sind ebenso erforderlich wie die Entwicklung von verteilten Mikroprozessoren zur lokalen Signalverarbeitung. Ziel der humanoiden Robotik ist es, dass sich humanoide Roboter frei in normaler Umgebung bewegen, Treppen und Hindernisse überwinden, selbständig Wege suchen, nach einem Fall beweglich bleiben, Türen selbständig betätigen und auf einem Arm stützend Arbeit erledigen können. Ein humanoider Roboter könnte dann im Prinzip so gehen wie ein Mensch.

Für die Erreichung der letzten Stufe des Zusammenlebens mit Menschen, müssen sich Roboter ein Bild vom Menschen machen können, um hinreichend sensibel zu werden. Dazu sind kognitive Fähigkeiten notwendig. Dabei lassen sich die drei Stufen des funktionalistischen, konnektionistischen und handlungsorientierten Ansatzes unterscheiden, die nun untersucht werden sollen.

Die Grundannahme des Funktionalismus besteht darin, dass es in Lebewesen wie in entsprechenden Robotern eine interne kognitive Struktur gibt, die Objekte der externen Außenwelt mit ihren Eigenschaften, Relationen und Funktionen untereinander über Symbole repräsentiert.

Man spricht auch deshalb vom Funktionalismus, da die Abläufe der Außenwelt als isomorph in Funktionen eines symbolischen Modells abgebildet angenommen werden. Ähnlich wie ein geometrischer Vektor- oder Zustandsraum die Bewegungsabläufe der Physik abbildet, würden solche Modelle die Umgebung eines Roboters repräsentieren.

Der funktionalistische Ansatz geht auf die frühe kognitivistische Psychologie der 1950er Jahre von z.B. Allen Newell und Herbert Simon zurück. Die Verarbeitung der Symbole in einer formalen Sprache (z.B. Computerprogramm) erfolgt wie in der symbolischen KI nach Regeln, die logische Beziehungen zwischen den Außenweltrepräsentationen herstellen, Schlüsse ermöglichen und so Wissen entstehen lassen.

 Die Regelverarbeitung ist nach dem kognitivistischen Ansatz unabhängig von einem biologischen Organismus oder Roboterkörper. Danach könnten im Prinzip alle höheren kognitiven Fähigkeiten wie Objekterkennung, Bildinterpretation, Problemlösung, Sprachverstehen und Bewusstsein auf Rechenprozesse mit Symbolen reduziert werden. Konsequenterweise müssten dann auch biologische Fähigkeiten wie z.B. Bewusstsein auf technische Systeme übertragbar sein.

Der kognitivistisch-funktionalistische Ansatz hat sich für beschränkte Anwendungen durchaus bewährt, stößt jedoch in Praxis und Theorie auf grundlegende Grenzen. Ein Roboter dieser Art benötigt nämlich eine vollständige symbolische Repräsentation der Außenwelt, die ständig angepasst werden muss, wenn die Position des Roboters sich ändert. Relationen wie ON(TABLE,BALL), ON(TABLE,CUP), BEHIND(CUP,BALL) etc., mit denen die Relation eines Balls und einer Tasse auf einem Tisch relativ zu einem Roboter repräsentiert wird, ändern sich, wenn sich der Roboter um den Tisch herum bewegt.

Menschen benötigen demgegenüber keine symbolische Darstellung und kein symbolisches Updating von sich ändernden Situationen. Sie interagieren sensorisch-körperlich mit ihrer Umwelt. Rationale Gedanken mit interner symbolischer Repräsentation garantieren kein rationales Handeln, wie bereits einfache Alltagssituationen zeigen. So weichen wir einem plötzlich auftretenden Verkehrshindernis aufgrund von blitzschnellen körperlichen Signalen und Interaktionen aus, ohne auf symbolische Repräsentationen und logische Ableitungen zurückzugreifen. Hier kommt die subsymbolische KI ins Spiel.

In der Kognitionswissenschaft unterscheiden wir daher zwischen formalem und körperlichem Handeln. Schach ist ein formales Spiel mit vollständiger symbolischer Darstellung, präzisen Spielstellungen und formalen Operationen. Fußball ist ein nicht-formales Spiel mit Fähigkeiten, die von körperlichen Interaktionen ohne vollständige Repräsentation von Situationen und Operationen abhängen. Es gibt zwar auch Spielregeln. Aber Situationen sind wegen der körperlichen Aktion nie exakt identisch und daher auch nicht (im Unterschied zum Schach) beliebig reproduzierbar.

Der konnektionistische Ansatz betont deshalb, dass Bedeutung nicht von Symbolen getragen wird, sondern sich in der Wechselwirkung zwischen verschiedenen kommunizierenden Einheiten eines komplexen Netzwerks (z.B. neuronales Netz) ergibt. Diese Herausbildung bzw. Emergenz von Bedeutungen und Handlungsmustern wird durch die sich selbst organisierende Dynamik von neuronalen Netzwerken möglich.

Sowohl der kognitivistische als auch der konnektionistische Ansatz können allerdings im Prinzip von der Umgebung der Systeme absehen und nur die symbolische Repräsentation bzw. neuronale Dynamik beschreiben.

Im handlungsorientierten Ansatz steht demgegenüber die Einbettung des Roboterkörpers in seine Umwelt im Vordergrund. Insbesondere einfache Organismen der Natur wie z.B. Bakterien legen es nahe, verhaltensgesteuerte Artefakte zu bauen, die sich an veränderte Umwelten anzupassen vermögen.

Aber auch hier wäre die Forderung einseitig, nur verhaltensbasierte Robotik zu favorisieren und symbolische Repräsentationen und Modelle der Welt auszuschließen. Richtig ist die Erkenntnis, dass kognitive Leistungen des Menschen sowohl funktionalistische, konnektionistische und verhaltensorientierte Aspekte berücksichtigen. In diesem Sinn ist der Mensch ein hybrider Organismus.

Richtig ist es daher, wie beim Menschen von einer eigenen Leiblichkeit (embodiment) der humanoide Roboter auszugehen. Danach agieren diese Maschinen mit ihrem Roboterkörper in einer physischen Umwelt und bauen dazu einen kausalen Bezug auf. Sie machen ihre je eigenen Erfahrungen mit ihrem Körper in dieser Umwelt und sollten ihre eigenen internen symbolischen Repräsentationen und Bedeutungssysteme aufbauen können (Mainzer 2009).

Wie können solche Roboter selbstständig sich ändernde Situationen einschätzen? Körperliche Erfahrungen des Roboters beginnen mit Wahrnehmungen über Sensordaten der Umgebung. Sie werden in einer relationalen Datenbank des Roboters als seinem Gedächtnis gespeichert. Die Relationen der Außenweltobjekte bilden untereinander kausale Netzwerke, an denen sich der Roboter bei seinen Handlungen orientiert. Dabei werden z.B. Ereignisse, Personen, Orte, Situationen und Gebrauchsgegenstände unterschieden. Mögliche Szenarien und Situationen werden mit Sätzen einer formalen Logik repräsentiert.

4. Cyberphysical Systems als KI-Systeme

In der Evolution beschränkt sich intelligentes Verhalten keineswegs auf einzelne Organismen. Die Soziobiologie betrachtet Populationen als Superorganismen, die zu kollektiven Leistungen fähig sind. Die entsprechenden Fähigkeiten sind häufig in den einzelnen Organismen nicht vollständig programmiert und von ihnen allein nicht realisierbar. Ein Beispiel ist die Schwarmintelligenz von Insekten, die sich in Termitenbauten und Ameisenstraßen zeigt. Auch menschliche Gesellschaften mit extrasomatischer Informationsspeicherung und Kommunikationssystemen entwickeln kollektive Intelligenz, die sich erst in ihren Institutionen zeigt.

Kollektive Muster- und Clusterbildungen lassen auch bei Populationen einfacher Roboter beobachten, ohne dass sie dazu vorher programmiert wurden. Roboterpopulationen als Dienstleister könnten konkrete Anwendung im Straßenverkehr z.B. bei fahrerlosen Transportsystemen oder Gabelstaplern finden, die sich selbständig über ihr Verhalten in bestimmten Verkehrs- und Auftragssituationen verständigen. Zunehmend werden auch unterschiedliche Roboterarten wie Fahr- und Flugroboter (z.B. bei militärischen Einsätzen oder bei der Weltraumerkundung) miteinander interagieren.

Roodney A. Brooks vom MIT fordert allgemein eine verhaltensbasierte KI, die auf künstliche soziale Intelligenz in Roboterpopulationen ausgerichtet ist. Soziale Interaktion und Abstimmung gemeinsamer Aktionen bei sich verändernden Situationen ist eine äußerst erfolgreiche Form von Intelligenz, die sich in der Evolution herausgebildet hat. Bereits einfache Roboter könnten ähnlich wie einfache Organismen der Evolution kollektive Leistungen erzeugen. Im Management spricht man von der sozialen Intelligenz als einem Soft Skill, der nun auch von Roboterpopulationen berücksichtigt werden sollte.

Autonome Reaktionen in unterschiedlichen Situationen ohne Eingreifen des Menschen sind eine große Herausforderung für die KI-Forschung. Entscheidungsalgorithmen lassen sich am besten im realen Straßenverkehr verbessern. Analog verbessert ein menschlicher Fahrer seine Fähigkeiten durch Fahrpraxis.

Als selbstfahrendes Kraftfahrzeug bzw. Roboterauto werden Automobile bezeichnet, die ohne menschlichen Fahrer fahren, steuern und einparken können.

Hochautomatisiertes Fahren liegt zwischen assistiertem Fahren, bei dem der Fahrer durch Fahrerassistenzsysteme unterstützt wird, und dem autonomen Fahren, bei dem das Fahrzeug selbsttätig und ohne Einwirkung des Fahrers fährt.

Beim hochautomatisierten Fahren hat das Fahrzeug nur teilweise eine eigene Intelligenz, die vorausplant und die Fahraufgabe zumindest in den meisten Situationen übernehmen könnte. Mensch und Maschine arbeiten zusammen.

Klassische Computersysteme zeichneten sich durch eine strikte Trennung von physischer und virtueller Welt aus. Steuerungssysteme der Mechatronik, die z.B. in modernen Fahrzeugen und Flugzeugen eingebaut sind und aus einer Vielzahl von Sensoren und Aktoren bestehen, entsprechen diesem Bild nicht mehr. Diese Systeme erkennen ihre physische Umgebung, verarbeiten diese Informationen und können die physische Umwelt auch koordiniert beeinflussen. Der nächste Entwicklungsschritt der mechatronischen Systeme sind die „Cyberphysical Systems“ (CPS), die sich nicht nur durch eine starke Kopplung von physischem Anwendungsmodell und dem Computer-Steuerungsmodell auszeichnen, sondern auch in die Arbeits- und Alltagsumgebung eingebettet sind (z.B. integrierte intelligente Energieversorgungssysteme). Durch die vernetzte Einbettung in Systemumgebungen gehen CPS-Systeme über isolierte mechatronische Systeme hinaus.

Cyberphysical Systems (CPS) bestehen aus vielen vernetzten Komponenten, die sich selbständig untereinander für eine gemeinsame Aufgabe koordinieren. Sie sind damit mehr als die Summe der vielen unterschiedlichen smarten Kleingeräte im Ubiquitous Computing, da sie Gesamtsysteme aus vielen intelligenten Teilsystemen mit integrierenden Funktionen für bestimmte Ziele und Aufgaben (z.B. effiziente Energieversorgung) realisieren. Dadurch werden intelligente Funktionen von den einzelnen Teilsystemen auf die externe Umgebung des Gesamtsystems ausgeweitet. Wie das Internet werden CBS zu kollektiven sozialen Systemen, die aber neben den Informationsflüssen zusätzlich (wie mechatronische Systeme und Organismen) noch Energie-, Material- und Stoffwechselflüsse integrieren.

Industrie 4.0 spielt auf die vorausgehenden Phasen der Industrialisierung an. Industrie 1.0 war das Zeitalter der Dampfmaschine. Industrie 2.0 war Henry Fords Fließband. Das Fließband ist nichts anderes als eine Algorithmisierung des Arbeitsprozesses, der Schritt für Schritt nach einem festen Programm durch arbeitsteiligen Einsatz von Menschen ein Produkt realisiert. In Industrie 3.0 greifen Industrieroboter in den Produktionsprozess ein. Sie sind allerdings örtlich fixiert und arbeiten immer wieder dasselbe Programm für eine bestimmte Teilaufgabe ab. In Industrie 4.0 wird der Arbeitsprozess in das Internet der Dinge integriert. Werkstücke kommunizieren untereinander, mit Transporteinrichtungen und beteiligten Menschen, um den Arbeitsprozess flexibel zu organisieren.

5.  KI als Dienstleistung am Menschen

5.1 Vertrauen in Künstliche Intelligenz

Häufig wird KI als Bedrohung menschlicher Arbeit dargestellt. Die Corona-Krise zeigt aber auch, wie KI und Robotik einspringen könnten, wenn der Mensch ausfällt, um die Wirtschaft am Laufen zu halten, wie digitale Kommunikation und Gesundheitsversorgung unterstützt werden könnte und wie in einem Lernprozess zusammen mit menschlicher Intelligenz die Lösung z.B. in Form eines Impfstoffs gefunden werden kann. Nach Corona ist nicht ausgeschlossen, dass wir von noch gefährlicheren Pandemien heimgesucht werden. Für die Zukunft wäre daher wünschenswert, wenn mit lernender KI mögliche Veränderungen von Viren vorher simuliert werden könnten, um damit einen Toolkasten zur schnellen Zusammenstellung von Impfstoffen zu entwickeln – quasi mit auf Vorrat produzierten KI-Algorithmen.

Um Vertrauen in KI-Tools zu fördern, müssen sie wie alle technischen Werkzeuge zertifiziert sein. An solchen „DIN-Normen“ arbeiten wir in einer Steuerungsgruppe für eine KI-Roadmap im Auftrag der Bundesregierung. Am Ende soll KI eine Dienstleitung für uns Menschen sein. Daher benötigen wir auch eine Stärkung der menschlichen Urteilskraft und Wertorientierung, damit uns Algorithmen und Big Data nicht aus dem Ruder laufen.

In der jüngsten Vergangenheit illustrieren dramatische Unfälle die Gefahren von Softwarefehlern und Systemversagen bei sicherheitskritischen Systemen. Programmfehler und Systemversagen können zu Katastrophen führen: In der Medizin verursachten 1985-87 massive Überdosierungen durch die Software eines Bestrahlungsgeräts teilweise den Tod von Patienten. 1996 sorgte die Explosion der Rakete Ariane 5 aufgrund eines Softwarefehlers für Aufsehen. Jüngstes Beispiel sind Softwarefehler und Systemversagen von Boing 737 max. Nun gehören Verifikationsprüfungen traditionell zum festen Bestanteil einer Programmentwicklung im Software Engineering. Nach Feststellung der Anforderungen, dem Design und der Implementation eines Computerprogramms erfolgt in der Regel seine Verifikation und schließlich für die Dauer seiner Anwendung eine vorausschauende Wartung, um vor dem Ausfall z.B. eines Maschinenteils durch Verschleiß Ersatz und Reparatur einzuleiten.

Ein Computerprogramm heißt korrekt bzw. zertifiziert, falls verifiziert werden kann, dass es einer gegebenen Spezifikation folgt. Praktisch angewendet werden Verifikationsverfahren mit unterschiedlichen Graden der Genauigkeit und damit der Verlässlichkeit. Aus Zeit-, Aufwands- und Kostengründen begnügen sich viele Anwender allerdings nur mit Stichprobentests. Im Idealfall müsste ein Computerprogramm aber so sicher sein wie ein mathematischer Beweis. Dazu wurden Beweisprogramme („Beweisassistenten“) entwickelt, mit denen ein Computerprogramm automatisch oder interaktiv mit einem Nutzer auf Korrektheit überprüft wird.

Die Idee stammt ursprünglich aus der mathematischen Beweistheorie des frühen 20. Jahrhunderts, als bedeutende Logiker und Mathematiker wie David Hilbert, Kurt Gödel und Gerhard Gentzen mathematische Theorien formalisierten, um dann z.B. die Korrektheit, Vollständigkeit oder Widerspruchsfreiheit dieser Formalismen (und damit der betreffenden mathematischen Theorien) zu beweisen. Die Formalismen sind nun Computerprogramme. Ihre Korrektheitsbeweise müssen selbst konstruktiv sein, um jeden Zweifel ihrer Sicherheit auszuschließen. Sowohl an der LMU als auch an der TU München werden Beweisassistenten untersucht. Persönlich arbeite ich gerne mit dem französischen Beweisassistenten Coq, der u.a. auf den französischen Logiker und Mathematiker Thierry Coquand zurückgeht und im Namen an das französische Wappentier des Hahns erinnert.

Hier zeigt sich sehr klar, wie aktuelle Fragen der Sicherheit moderner Software und KI in Grundlagenfragen der Logik und Philosophie verwurzelt sind. Derzeit beschäftige ich mich mit der Frage, wie das moderne maschinelle Lernen durch solche Beweisassistenten kontrolliert werden kann. Am Ende geht es um die Herausforderung, ob und wie man KI-Programme zertifizieren kann, bevor man sie auf die Menschheit loslässt. Statistisches Lernen, wie es heute praktiziert wird, funktioniert zwar häufig in der Praxis, aber die kausalen Abläufe bleiben oft unverstanden und eine Black Box. Statistisches Testen und Probieren reicht für sicherheitskritische Systeme nicht aus. Daher plädiere ich in der Zukunft für eine Kombination von kausalem Lernen mit zertifizierten KI-Programmen durch Beweisassistenten, auch wenn das für Praktiker aufwendig und ambitioniert erscheinen mag. 

5.2 Technikgestaltung und Verantwortung

KI-Programme treten mittlerweile aber nicht nur in einzelnen Robotern und Computern auf. So steuern bereits lernfähige Algorithmen die Prozesse einer vernetzten Welt mit exponentiell wachsender Rechenkapazität. Ohne sie wäre die Datenflut im Internet nicht zu bewältigen, die durch Milliarden von Sensoren und vernetzten Geräten erzeugt wird. Aufgrund der Sensoren kommunizieren nun also auch Dinge miteinander und nicht nur Menschen. Daher sprechen wir vom Internet der Dinge (Internet of Things: IoT).

In der Medizin und im Gesundheitssystem sind großen Klinikzentren Beispiele solcher komplexen Infrastrukturen, deren Koordination von Patienten, Ärzten, medizinischem Personal, technischen Geräten, Robotik und anderen Dienstleistern ohne IT- und KI-Unterstützung nicht mehr steuerbar wäre.

Die sicherheitskritischen Herausforderungen, die wir eben erörtert haben, werden sich in solchen Infrastrukturen noch einmal potenzieren. Darüber hinaus stellt sich aber die Frage nach der Rolle des Menschen in einer mehr oder weniger automatisierten Welt. Ich plädiere daher für Technikgestaltung, die über Technologiefolgenabschätzung hinausgeht. Die traditionelle Sicht, die Entwickler einfach werkeln zu lassen und am Ende die Folgen ihrer Ergebnisse zu bewerten, reicht aus Erfahrung nicht aus. Am Ende kann das Kind in den Brunnen gefallen sein und es ist zu spät. Nun lässt sich zwar Innovation nicht planen. Wir können aber Anreize für gewünschte Ergebnisse setzen. Ethik wäre dann nicht Innovationsbremse, sondern Anreiz zu gewünschter Innovation. Eine solche ethische, rechtliche, soziale und ökologische Roadmap der Technikgestaltung für KI-Systeme würde der Grundidee der sozialen Marktwirtschaft entsprechen, nach der ein Gestaltungsspielraum für Wettbewerb und Innovation gesetzt wird. Maßstab bleibt die Würde des einzelnen Menschen, wie sie im Grundgesetz der Verfassung als oberstes Axiom der parlamentarischen Demokratie festgelegt ist.

Diese ethische Positionierung im weltweiten Wettbewerb der KI-Technologie ist keineswegs selbstverständlich. Für die globalen IT- und KI-Konzerne des Silicon Valley geht es am Ende um ein erfolgreiches Geschäftsmodell, auch wenn sie IT-Infrastrukturen in weniger entwickelten Ländern unter von ihnen vorgegeben Geschäftsbedingungen fördern. Der andere globale Wettbewerber heißt aber China, der einen Staatsmonopolismus im Projekt der Seidenstraße strikt befolgt. Das chinesische Projekt des Social Core ist eng mit dem ehrgeizigen Ziel verbunden, die schnellsten Superrechner und leistungsfähigsten KI-Programme der Welt zu produzieren. Nur so lässt sich der Social Core mit der totalen Datenerfassung aller Bürgerinnen und Bürger und ihrer zentralen Bewertung realisieren. Die totale staatliche Kontrolle privater Daten mag westliche Beobachter schockieren, wird aber in weiten Bevölkerungskreisen Chinas akzeptiert. Dazu gehört der direkte Zugriff auf alle möglichen medizinischen Daten für die medizinische Forschung. Hinzu kommt eine andere Wertetradition, die über Jahrhunderte in China eingeübt wurde: In konfuzianischen Traditionen dieses Landes ist der oberste Wertmaßstab eine kollektive Harmonie und Sicherheit und nicht die Autonomie des Einzelnen mit einklagbaren Freiheitsrechten.   

Die Proklamation individueller Menschenrechte wurzelt tief in der philosophischen Tradition europäischer Demokratien. Wir brauchen zwar zertifizierte KI-Algorithmen als verlässliche Dienstleistung zur Bewältigung zivilisatorischer Komplexität. Entscheidend ist daher aber auch eine Stärkung der menschlichen Urteilskraft und Wertorientierung, damit uns Algorithmen und Big Data nicht aus dem Ruder laufen. Im weltweiten Wettbewerb der KI-Systeme sollten wir unsere Lebenswelt nach unseren Wertmaßstäben selbst gestalten können.

5.3   Autonomie in Philosophie, Recht und Gesellschaft

In der Philosophie wird spätestens seit Kant, Autonomie als fundamentales Alleinstellungsmerkmal des Menschen als vernunftbegabtes Wesen herausgestellt. Autonomie bedeutet danach die Fähigkeit zur Selbstgesetzgebung. Danach vermag der Mensch nicht nur Gesetzen zu folgen, sondern sie sich selbst allgemeinverbindlich zu geben, wie es im kategorischen Imperativ zum Ausdruck kommt. In der parlamentarischen Gesetzgebung wird diese Selbstautonomie politisch umgesetzt. In Gerichtsverfahren ist Autonomie eine Rechtsfigur, die freien Willen unterstellt, um Verantwortung für z.B. eine Straftat feststellen zu können.

Juristisch handelt es sich dabei um eine idealtypische Fiktion, die nicht einen naturwissenschaftlichen Beweis des „freien Willens“ voraussetzt. Faktisch ist menschliches Entscheiden und Handeln von verschiedenen genetischen, physiologischen, entwicklungspsychologischen, sozialen, emotionalen etc. Einflüssen abhängig, also nie vollkommen „autonom“. Daher sind auch menschliche Handlungen und Entscheidungen nach Graden der Autonomie zu bemessen. Im Recht werden allerdings nur einige dieser Faktoren wie z.B. emotionaler Affekt oder messbarer Alkoholpegel als Einschränkung der Autonomie (z.B. bei der Strafzumessung) anerkannt. Es kann nicht ausgeschlossen werden, dass in Zukunft aufgrund besserer Nachweise oder veränderter gesellschaftlicher Einschätzung auch andere Faktoren stärkere Berücksichtigung finden.

Was die KI betrifft, so sind heute bereits KI-Systeme zu begrenzter Selbstautonomie fähig, in dem sie lernen und sich auf dieser Grundlage für begrenzte Aufgaben selbst neu programmieren, also sich selbst Gesetze des Handelns geben können. Es wird daher in Zukunft nicht um die erkenntnistheoretische Frage gehen, ob KI-Systeme prinzipiell nie zur Selbstautonomie fähig wären. Man könnte einwenden, dass vollkommene Autonomie selbst für Menschen eine Fiktion ist. Vielmehr wird es um die ethische und rechtliche Frage gehen, bis zu welchem Grad wir die technische Entwicklung autonomer Systeme zulassen wollen.

Klaus Mainzer; CDR Magazin; 27.02.2023

https://corporate-digital-responsibility.de/wissenschaft/verantwortungsvolle-kunstliche-intelligenz-teil-1/

https://corporate-digital-responsibility.de/wissenschaft/verantwortungsvolle-kunstliche-intelligenz-teil-2/

Creative Commons CC BY-SA 4.0

Zur einfacheren Lesbarkeit wurden die Quellen- und Literaturverweise entfernt.


© Swiss Infosec AG 2026